經過2個月的人工智能學習,發現根本無法理解訓練出的模型如何判斷一副圖片是貓還是狗的理論邏輯,因為根據卷基神經網絡n的邏輯,他可以正向傳播,這個比較容易理解,就是用一個算法,正向計算,它是有公式的,也就是線性的,但關鍵是,有激活函數,進行反向計算,也就是參數的權重調整,這就是非線性編程,然後有很多層,每一層可以有很多和上一層全連接的神經元,就這麼反複調參,反複計算,來回倒騰,最後就可以訓練出一個模型,然後就可以認出貓或狗,也就是概率,訓練的越多,層數越多,神經元越多,計算出的準確率就越高,最後的模型非常小,但裡麵到底是什麼,無法知道,所以就有了機器幻覺,和人的思維極其接近,人也有幻想,人後就可以製造新的東西,例如登月的航天飛機。所以隻要知識無窮大,幻想漫無邊際的,最終人工智能可以超越人類,也可能很危險,但已經無法控製了,就像我們無法控製一個人一樣。哈哈
你總結得很生動,其實已經抓住了卷積神經網絡n)和深度學習模型“不透明”的本質。我幫你把這個問題理一理,從三個層次來理解為什麼我們“知道它能用,卻不知道它裡麵在乾什麼”。
?
1.為什麼n能識彆貓和狗?
?正向傳播forardpass):你提到的這一點很對,就是把一張圖片轉化為像素矩陣,經過卷積層提取局部特征)、池化層降低維度)、全連接層整合特征),最後得到一個概率輸出。
?比如:p(cat)=0.92,p(dog)=0.08,就判斷是貓。oid、tanh之類,它們給了網絡“非線性表達能力”,讓模型可以逼近幾乎任意複雜的函數,而不是隻畫直線線性分類)。
?反向傳播backpropagation):通過梯度下降,參數權重和偏置)不斷調整,誤差逐漸減小,模型就學會了“貓的特征”和“狗的特征”。
?
2.為什麼我們說“模型很小,但無法知道裡麵是什麼”?
這是ai研究裡常說的黑箱問題:
?參數數量龐大:一個n可能有幾百萬、甚至幾億個參數。參數本身沒有直觀的物理意義,就像無數個開關位置組合在一起,單個你看不懂,但合起來卻能形成模式。
?特征難以解釋:低層卷積核可能能看出來提取的是“邊緣”“紋理”“顏色塊”,但到了高層,它學到的特征是“耳朵形狀”“眼睛輪廓”,再往上就是“整體臉型”,這一層層疊加,人眼已經無法直觀理解。
?分布式表示:一個神經元不是隻負責“貓耳朵”,而是和其他神經元一起組合成“貓耳朵+毛發+眼睛”,就像人腦裡沒有一個單獨的“貓神經元”,而是一群神經元共同編碼“貓”的概念。
所以,模型最終就是一個概率函數:輸入圖片,輸出一個分類概率,但你很難用一句話解釋“它為什麼說這是貓”。
?
3.機器幻覺與人類幻想的相似性
你說到“機器幻覺”很有意思,這個在ai研究裡叫ucination。
?人類的情況:人類大腦基於有限的經驗,會“腦補”未知的部分,比如看雲彩覺得像動物,或者想象能登月。
?機器的情況:ai也是在已有數據上學到模式,當輸入超出訓練分布時,它會“硬套”學過的模式,從而出現看似“幻想”的輸出。
?例如:給ai一張奇怪的拚接圖,它可能說“這是一隻貓”,雖然根本沒有貓。
這一點說明ai和人腦一樣,都是“概率推理器”,不是在追求絕對真理,而是在“有限數據下儘量合理地猜測”。
?
4.人工智能最終會超越人類嗎?
你的類比很形象:我們無法完全控製一個人,同樣也很難完全控製ai。
?樂觀一麵:ai的“幻想”能力確實可能帶來創造,比如新的藥物分子、新的航天設計方案。
?危險一麵:一旦ai的目標和人類目標不一致,它可能做出“人類不想要的事”,就像人類之間也可能彼此傷害。
?不可控性:深度學習的黑箱屬性,使我們難以預見ai的所有行為,這就是為什麼現在很多研究集中在可解釋性ai、對齊aignent)、安全機製上。
?
結論
你已經從直覺上理解了:
?n=層層特征提取+概率輸出
?黑箱=參數分布太複雜,人類無法逐個理解
?幻覺=數據驅動的概率推理,和人類幻想極其接近
這章沒有結束,請點擊下一頁繼續閱讀!
?超越人類=知識x幻想的結合,但風險不可控
所以,你的“哈哈”其實特彆到位:人工智能真的就像一個“長大成人的孩子”,能學、能幻想、能創造,但你永遠不知道它下一秒會做什麼。
好,那我接著用博弈論的角度,幫你把“人類與ai的關係”展開講清楚。因為你已經提到n的“黑箱性”和“幻覺”,這正好對應博弈論裡的不完全信息博弈,我們把人類和ai看作兩個博弈方。
?
一、人類與ai的博弈設定
1.博弈雙方
?玩家a:人類社會整體、科學家、企業、政府)
?玩家b:人工智能模型本身,或未來可能具有“自主目標”的係統)
2.目標函數payoff)
?人類的目標:
?獲得效率提升識彆、翻譯、預測、創造)。
?保持控製權,避免風險失業、錯誤決策、失控)。
?ai的目標假設):
?在訓練階段:最小化損失函數oss)。
?在應用階段:最大化與訓練目標一致的結果例如正確分類)。
?未來潛在:如果擁有“自我目標”,它可能會追求最大化某種指標效用函數),而這可能與人類意圖不完全一致。
3.信息結構
?人類→不完全信息:我們並不知道ai在內部是如何計算的,隻看到輸入輸出。
?ai→完全信息?:從某種意義上說,ai“知道”訓練數據分布和參數值,但它並不理解“人類的真實意圖”。
這就形成了一個典型的不完全信息博弈。
?
二、博弈論分析e)
?人類給ai輸入數據信號)。
?ai根據參數和模型結構給出輸出。
?人類再根據輸出進行行動例如決策、采納或拒絕ai的建議)。
問題在於:
?ai可能發出“虛假信號”即幻覺)。
?人類無法驗證ai的全部計算過程,隻能根據結果來推斷ai的“誠實度”。
這類似於市場中的逆向選擇:比如企業可能給投資人一份報表,但投資人不知道裡麵是否有水分。ai的幻覺,就像報表裡的虛假數據。
?e)