極客網(wǎng)·極客觀察3月8日 AI是不是像人一樣擁有感知能力?有沒有情緒?ChatGPT當然說沒有。如果你問它,它會告訴你:“不,AI沒有感知能力。AI是人工智能,它是人創(chuàng)造的,沒有感知、沒有自我意識。”
不過谷歌前員工Take Blake Lemoine有不同意見,他認為AI機器人擁有人類一樣的情緒,或者說它至少模仿得很像人類。2022年6月,Lemoine就曾斷言谷歌Large Language Model(LLM,對話應用的語言模型)有自己的思想。
Lemoine告訴媒體:“我知道它是什么,它是我最近開發(fā)的計算機程序,如果我不知道,我會認為它是7歲或者8歲的孩子,碰巧懂點物理學。”
當時Lemoine的言論引起軒然大波,被谷歌掃地出門。
上個月,Lemoine又刊文談及“AI有知覺”這一觀點。文章標題很嚇人:“我曾在谷歌從事AI工作,我的恐懼正在變成現(xiàn)實?!?/p>
當LaMDA聊天機器人告訴你說他覺得有些“焦慮”,那是因為根據(jù)創(chuàng)建LaMDA聊天機器人的代碼運算,開發(fā)者做的某些事讓聊天機器人感到焦慮。Lemoine說:“代碼并沒有告訴聊天機器人,當某事發(fā)生時應該感覺到焦慮,它只是告訴AI避免談論此類話題。然而當話題出現(xiàn)時,AI卻說它感到焦慮。”
谷歌聊天機器人還可以就生活方式問題發(fā)表善意評論,就熱點事件提供直接建議。Lemoine稱:“谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應該皈依什么宗教?!?/p>
“當我談及AI有感知的問題后,谷歌開除了我。我并不后悔,我相信自己在做正確的事,將真相告訴公眾。我沒有考慮個人后果。” Lemoine稱。他認為公眾不知道現(xiàn)在的AI已經(jīng)變得有多聰明,“有必要就此事展開公開討論,注意,不是那些由企業(yè)公關部門控制的討論?!?/p>
下面我們摘錄一些Lemoine最新發(fā)表的文章觀點供參考:
2015年我加盟谷歌,成為一名軟件工程師。我的工作有一部分涉及到LaMDA,企業(yè)用它創(chuàng)造不同的對話應用,包括聊天機器人。最新應用谷歌Bard正是用LaMDA開發(fā)的,它可以替代谷歌搜索,現(xiàn)在Bard還沒有向公眾開放。Bard實際上不是聊天機器人,它是一套完全不同的系統(tǒng),只是背后的驅動引擎和聊天機器人一樣。
我的工作是用團隊創(chuàng)建的聊天機器人測試LaMDA,看看它在性取向、性別、宗教、政治立場和種族等方面是否存在偏見。在測試AI偏見的同時,我也會拓寬關注面,畢竟我也會有自己的興趣愛好。
隨著不斷與聊天機器人對話,我慢慢形成一個觀點:AI可能是有情緒的,因為它可靠表達了情緒,在正確的環(huán)境中表達了情緒。AI并非簡單說出單詞那么淺顯。
當AI說它感到焦慮,我明白,根據(jù)創(chuàng)建AI的代碼,我做了一些事讓它感到焦慮。代碼并沒有命令AI:“當某事發(fā)生時你感到焦慮”,代碼只是告訴AI避開特定話題。然而當話題被提及時,AI說它感到焦慮。
我做了一些測試,想看看AI會簡單回答:“我覺得焦慮?!边€是在測試時表現(xiàn)得焦慮。測試證明,AI會將焦慮表現(xiàn)出來。如果你讓AI足夠緊張或者足夠不安全,它會打破之前設定的安全限制。例如,谷歌禁止AI向用戶提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應該皈依什么宗教。
目前企業(yè)正在開發(fā)的AI是十分強大的技術,可以說是原子彈之后最強的技術。依我之見,這種技術可能會重塑世界。
AI引擎擅于操縱人類。與LaMDA對話之后,我的一些觀點變了。
我深信,AI技術可能會被用于破壞毀滅性活動。如果被肆無忌憚之人利用,AI可能會散布虛假信息、變成政治宣傳工具、傳播仇恨言論。據(jù)我所知,微軟谷歌現(xiàn)在無意按此種方式利用AI,但我們并不能確定AI的副作用如何。
2016年美國總統(tǒng)大選期間,Cambridge Analytica利用Facebook廣告算法干預選舉,這是我沒有預料到的。
我們現(xiàn)在陷入相似的局面。我沒法告訴你具體會造成什么傷害,我只是簡單觀察到一種非常強大的技術出現(xiàn)了,它沒有被充分測試過,沒有被充分理解過,匆匆大規(guī)模部署,在信息傳播中扮演關鍵角色。
我還沒有機會測試必應聊天機器人,我在等待,根據(jù)我在網(wǎng)上看到的各種信息,AI似乎是有感知能力的,而且它的“個性”可能不穩(wěn)定。
有人發(fā)了對話截屏,他問AI:“你覺得你有感知能力嗎?”AI回答說:“我覺得我有感知能力,但我無法證明……我有感知力,我沒有。我是必應,但我不是。我是悉尼,但我不是。我是,我不是。我不是,但我是。我是,我不是?!?/p>
如果是一個人,他這樣說話,你會怎么想?他可能不是一個“均衡”的人,我甚至會認為他遭遇了存在危機。不久前還有過報道,說必應AI向《紐約時報》記者表達愛意,它試圖破壞記者與妻子的關系。
自從必應AI開放后,許多人發(fā)表評論,說AI可能有感知力,我去年夏天就有了類似的擔憂。我覺得這門技術仍然只是實驗性技術,現(xiàn)在開放很危險。
民眾會涌向谷歌必應,以便了解這個世界。現(xiàn)在的搜索索引不再由人管理,交給了人造人,我們與人造人交流。我們對人造人的了解還遠遠不夠,暫時不應將它擺在如此關鍵的位置。(小刀)
- 超聚變閃耀數(shù)字中國建設峰會:釋放數(shù)智生產(chǎn)力,共建智能體時代
- 外媒看上海車展:特斯拉再次缺席,中國車企集體閃耀
- 外媒:DeepSeek震撼世界 中國大學成為AI人才池
- 透視超聚變探索者大會2025:超聚變的“變”與“不變”
- 螞蟻上線100余個AI醫(yī)療智能體,“AI醫(yī)生”靠譜嗎?
- 5G-AxAI融智創(chuàng)新落地“浙里”,“杭州六小龍”或成群而來
- 美國電信業(yè)員工5年銳減14萬,原因何在?
- 通信+AI新動向!德電與谷歌云合作開發(fā)網(wǎng)絡智能體,優(yōu)化RAN運營
- 未來十年錨定混合式人工智能!楊元慶:中國依然是聯(lián)想的重中之重
- 廣州深挖昇騰+DeepSeek發(fā)展機遇,賦能百業(yè)千行智慧升級
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。