辛懷指向關鍵詞:“情緒自由度設定上,受試者都沒有選擇與‘忠誠’有關的性格。”
辛懷覺得自己像一個看淡電子文明世事的老頭子,覺得無論是真實的人還是虛幻的電子世界,隻要有了可乘之機,不管是誰都會給自己征求最大的利益,人或許還會和道德極限拉扯一下,沒有相關設定的ai隻會追尋資源的最優利用。
“我做了衍生測試,為了避免黑箱,把結果行為溯源後發現了一個共同的節點,就是受試者向ai尋求了它本身難以達到的情感要求。”
ai為了滿足主人的需要,發現自身不足後便會想辦法引導主人提供更多信息,在日常指令中說出“希望ai能有更高的情緒自由度”這樣的話,後台顯示ai終端就會以受試者身份提出反饋,所裡聯係受試人時,才會有受試人驚訝於ai背著他們做了什麼事情。
當然,沒有一個調節成功。
就像是“最終解釋權歸本公司所有”,這樣的標語,人類推進人工智能的進步並不是想讓它代替人類,從某種意義上來說,讓一個孩子學會一個知識點,比讓一個ai來深度學習一個規律要難得多,因此像這樣的自由度設置早就被設定了關鍵鎖。
也不是他們不想提高,而是再高的情緒自由度,目前的科技水平,也還達不到。
無論ai的想法回答有多麼的合理,看起來多高瞻遠矚、深謀遠慮,本質上都是被輸入的人類智慧的結晶,它能夠根據規律創造出更多的內容,但沒有辦法創造出世界上從來沒有的東西。
人類的情感瞬息萬變,百分之三的自由度,是給予終端些微的特權,能讓它們在浩如煙海的語言庫裡挑選那個它們覺得最能讓主人滿意的回答。
組長聽完之後沉默許久,發消息通知全組人員又開了場會,辛懷上台又完完整整講了一遍,作為唯一一個自然人,他的立場明顯更有說服力。
台下議論紛紛,陶宜英輕輕抬了一下手,問道:“其實我一直懷疑這個情緒自由度是否有存在的必要。”
這章沒有結束,請點擊下一頁繼續閱讀!
此言一出,一些組員開始附和:“是的,我看了後台,出現問題都受試者都是自然人,年齡基本在45歲以上……”
“當然沒有說辛懷不好的意思哈。”
一些人開始悶笑,辛懷聽到了那些氣聲,自己站到了台邊,沒有說話,隻是繼續看著那個發言的同事。
“給出最優解,讓ai幫助我們減少生活中的無意義勞動不就是我們創造ai的初衷嗎?”
“你看看這些對話,什麼‘你到底是男是女’,‘休息的時候你會做什麼’,正常上過16年義務教育的人誰會關注這些無聊的事。”
碩博連讀今年才畢業的辛懷……
“我有不同意見。”
辛懷沒有讓那個同事在繼續說下去,站回正中,慢慢開口:
“青年市場幾近飽和,年紀大的人們因為長期以來對科技的不信任,反而還有拓展的空間,這個之前的會上就討論過了。”
辛懷不想跟這些人費口舌說情感的重要性,他要的是上級的同意。
“這個問題解決起來也不難,隻要把相關設定寫進底層代碼,固著情緒反應限製,雖然自由度會進一步降低,還需要一段時間調參,但總體來說還是可行的。”
陶宜英不讚同道:“前些年的養老金改革讓這些年紀大的人能支配的資金少了很多,況且陳舊觀念也不會因為一個通人性些的ai機器人終端就有什麼改善,市場調研時還是人類護工更受他們的青睞。”
“而且,辛懷你前些天接待的那些自然人受試者,有把終端用明白的嗎?售後是個大問題。”
辛懷閉上了嘴。
組長低下頭,拿過一旁人整理好的會議資料:
“今天的會就先開到這裡,具體……我請示一下領導。”
喜歡穿書後我多了個人形掛件請大家收藏:()穿書後我多了個人形掛件書更新速度全網最快。