讓AI模型“說(shuō)人話”的背后:AI可知論與不可知論的糾葛纏斗

現(xiàn)如今人類(lèi)對(duì)于AI的應(yīng)用,就好像帶媽媽去外面的餐廳吃飯,媽媽們不光要吃,還總想弄明白這些菜是怎樣做成的。就如同神經(jīng)網(wǎng)絡(luò)越是高效,我們就越好奇黑箱里究竟發(fā)生了什么。

一直以來(lái)我們對(duì)于AI可解釋性的追求可以被分為兩層,一是從技術(shù)角度探尋神經(jīng)網(wǎng)絡(luò)黑箱的運(yùn)行機(jī)制;二是從社會(huì)角度將AI技術(shù)原理更多地解釋給各個(gè)行業(yè)。

雖然計(jì)算機(jī)科學(xué)家們一直沒(méi)有停止對(duì)神經(jīng)網(wǎng)絡(luò)黑箱突破的探索,但也有人曾經(jīng)明確地表示過(guò),追求AI的可解釋性并不是什么好主意。

去年年底,谷歌大腦負(fù)責(zé)人Geoff Hinton就曾在接受媒體采訪時(shí)說(shuō)過(guò)若干“AI不可解釋”的理由。其中很重要的一點(diǎn)是,他認(rèn)為大多數(shù)人也沒(méi)法很好地解釋自己做出一種決策的理由,如果強(qiáng)迫人類(lèi)對(duì)自己的行為做出解釋?zhuān)Y(jié)果很可能就是讓人類(lèi)說(shuō)出違心的謊言。AI也是一樣,也許強(qiáng)行在AI算法中加入可解釋性,得出的結(jié)果很可能只是一種“針對(duì)于解釋需求的答案”,并不能發(fā)揮出人們所期望的作用。Geoff Hinton可以說(shuō)是一位堅(jiān)定的“AI不可知論”支持者。

讓AI模型說(shuō)人話

不過(guò)在幾天前,佐治亞理工學(xué)院就推出了一種讓AI用人類(lèi)語(yǔ)言解釋自己行為的模型。整個(gè)模型的訓(xùn)練過(guò)程,建立在一款“小青蛙過(guò)馬路”的古老游戲上。游戲中玩家要操控著小青蛙前后左右躲避來(lái)往車(chē)輛,成功到達(dá)馬路對(duì)岸。

佐治亞理工學(xué)院先是收集了大量的人類(lèi)樣本,讓人類(lèi)實(shí)驗(yàn)員玩一遍游戲,然后再回溯整個(gè)游戲過(guò)程,解釋出自己的每一步動(dòng)作有哪些意圖。例如向左走是想躲避開(kāi)后方來(lái)車(chē),向前跳躍是因?yàn)槠〉暮扇~剛好來(lái)到自己面前。

這樣一來(lái),可以將自然語(yǔ)言與游戲控制結(jié)合在一起建立映射。將這一模型遷移到AI的訓(xùn)練中,最終結(jié)果是AI在每進(jìn)行一步動(dòng)作時(shí),都會(huì)用自然語(yǔ)言解釋出自己的意圖。

實(shí)驗(yàn)者可以再根據(jù)四個(gè)維度對(duì)AI的行為和解釋進(jìn)行評(píng)分,這四個(gè)維度分別是“信任(認(rèn)為AI的這一步行動(dòng)是正確的)”、“人性化(認(rèn)為這是人類(lèi)采取的行動(dòng))”、“理由充分(語(yǔ)言解釋和行為動(dòng)作有相關(guān)性)”、“可理解性(能看懂所給出的自然語(yǔ)言解釋?zhuān)?。由此以?lái),就可以對(duì)AI的游戲能力和自我解釋能力進(jìn)行共同訓(xùn)練。

佐治亞理工學(xué)院研發(fā)的這一模型,為AI的可解釋性帶來(lái)不少全新角度的突破。當(dāng)AI進(jìn)行錯(cuò)誤決策時(shí),我們可以清晰地看到AI究竟錯(cuò)在哪了。比如在游戲中小青蛙被路過(guò)的汽車(chē)撞死導(dǎo)致游戲失敗,通過(guò)自然語(yǔ)言解釋?zhuān)覀兛梢钥吹娇赡苁茿I沒(méi)有“想到”要躲避汽車(chē)而導(dǎo)致失敗,還是已經(jīng)“想到”了,卻因想法和行為沒(méi)能成功匹配而導(dǎo)致失敗。在后期進(jìn)行參數(shù)調(diào)整時(shí)可以更加有的放矢,明確地找到問(wèn)題所在。

更重要的是,這一過(guò)程完全是由人類(lèi)的自然語(yǔ)言所表達(dá)的,普通人也能看到并理解問(wèn)題發(fā)生的整個(gè)過(guò)程。技術(shù)的可解釋權(quán)不再受信息科技知識(shí)基礎(chǔ)的限制,甚至可以讓更多人參與到AI訓(xùn)練的過(guò)程中來(lái)。

AI可知論,是在開(kāi)技術(shù)的倒車(chē)嗎?

然而,“小青蛙模型”并不能解決Geoff Hinton提到的“AI不可知論”的很多問(wèn)題。

首先,讓人類(lèi)描述自身行為,然后再將語(yǔ)言和行為建立對(duì)應(yīng)關(guān)系的玩法適用度并不高。在小青蛙過(guò)馬路這樣簡(jiǎn)單的游戲中,人類(lèi)可以清晰明了地解釋自己的行為。但換個(gè)場(chǎng)景,很多時(shí)候我們就像Geoff Hinton所說(shuō)的,自己也說(shuō)不清自己做出決策的原因。尤其在一些場(chǎng)景,例如行車(chē)時(shí)是撞到馬路上的動(dòng)物還是撞到其他車(chē)輛,人們自身的選擇常常陷入道德困境而不能統(tǒng)一,和AI的決策模式有著天然的差異,就無(wú)法形成語(yǔ)言解釋和行為之間的映射。

另一點(diǎn)則是,讓AI“自我解釋”這種行為,投入和產(chǎn)出比究竟如何?我們知道自然語(yǔ)言處理是AI領(lǐng)域中一塊相當(dāng)難啃的硬骨頭,如果“AI說(shuō)人話”這種模式成為標(biāo)配,結(jié)果恐怕就是讓所有領(lǐng)域的AI模型都要進(jìn)行相關(guān)的訓(xùn)練。也就是說(shuō),未來(lái)一家做智能客服產(chǎn)品的企業(yè),為了AI的可解釋性,需要招聘NLP領(lǐng)域人才;未來(lái)一家做人臉識(shí)別產(chǎn)品的企業(yè),為了AI的可解釋性,同樣也需要招聘NLP領(lǐng)域人才……NLP專(zhuān)業(yè)學(xué)子或成最大贏家。如此為AI產(chǎn)業(yè)帶來(lái)的巨大成本,又將怎樣被覆蓋呢?

世界在等待AI+X

在Geoff Hinton發(fā)表過(guò)那番“AI不可知論”后,有不少社會(huì)學(xué)專(zhuān)家進(jìn)行了相關(guān)反駁。其中劍橋智能未來(lái)中心的研究員就提出,AI在事物效率上的提升和對(duì)于社會(huì)的影響,本來(lái)就不能分開(kāi)討論,Geoff Hinton這樣的科學(xué)家,如果認(rèn)為自己脫離了社會(huì)語(yǔ)境和政策語(yǔ)境,那么很可能在研究過(guò)程的一開(kāi)始就走錯(cuò)了方向。

其實(shí)AI的可知論和不可知論之間,最核心的問(wèn)題就是“AI出現(xiàn)了問(wèn)題該怎么辦?”。不可知論者認(rèn)為,當(dāng)AI出現(xiàn)了問(wèn)題,我們就應(yīng)該像算法訓(xùn)練過(guò)程一樣,在發(fā)現(xiàn)問(wèn)題后立刻進(jìn)行針對(duì)性的訓(xùn)練和矯正。但可知論者認(rèn)為,如果我們等到AI在現(xiàn)實(shí)場(chǎng)景中出現(xiàn)問(wèn)題再進(jìn)行改善,一切就已經(jīng)晚了。當(dāng)前的要?jiǎng)?wù)是讓更多社會(huì)角色參與到AI的研發(fā)過(guò)程中來(lái),在廣泛的現(xiàn)實(shí)應(yīng)用之間就能夠從多種角度發(fā)現(xiàn)問(wèn)題。

正因如此,才會(huì)出現(xiàn)佐治亞理工學(xué)院這種“讓AI說(shuō)人話”的項(xiàng)目出現(xiàn)。而在AI學(xué)會(huì)說(shuō)人話之前,AI與人之間、AI專(zhuān)家與其他專(zhuān)家之間,仍然會(huì)呈現(xiàn)出嚴(yán)重的溝通斷層。在相當(dāng)長(zhǎng)的一段時(shí)間內(nèi),AI+X的跨領(lǐng)域人才都將炙手可熱。(作者:腦極體)

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )

贊助商
2019-04-16
讓AI模型“說(shuō)人話”的背后:AI可知論與不可知論的糾葛纏斗
現(xiàn)如今人類(lèi)對(duì)于AI的應(yīng)用,就好像帶媽媽去外面的餐廳吃飯,媽媽們不光要吃,還總想弄明白這些菜是怎樣做成的。就如同神經(jīng)網(wǎng)絡(luò)越是高效,我們就越好奇黑箱里究竟發(fā)生了什么。

長(zhǎng)按掃碼 閱讀全文