機器行為學(xué),怎樣幫助我們理解AI?
人工智能機器人三大定律:第一法則,機器人不得傷害人類(主人)或袖手旁觀坐視人類受到傷害;第二法則,除非違背第一法則,機器人必須服從人類的命令;第三法則,在不違背第一及第二法則的條件下,機器人必須保護自己———科幻小說家艾薩克.阿西莫夫
01
人也是一種“黑箱”,但不影響我們相互理解。
2016年3月9日-15日,Google Deepmind公司的團隊研發(fā)的人工智能圍棋機器人AlphaGo與韓國圍棋世界冠軍李世石展開了5場激烈的激烈的戰(zhàn)斗,最終AlphaGo以4:1的懸殊比分輕松取勝。隨后在一系列與世界圍棋頂尖高手的對決中AlphaGo披荊斬棘所向披靡,再也沒有輸?shù)暨^任何任何對決。2017年10月18日AlphaGo的升級版AlphaGo Zero橫空出世并且以100:0的比分擊敗了上代版本AlphaGo。
“AI完勝”無疑讓第三次人工智能浪潮達(dá)到了一個高峰,但隨即也引起了部分人們對人工智能的恐慌,AlphaGo已經(jīng)證明了人類已經(jīng)真的可以創(chuàng)造出如此聰明的人工智能,其一旦不受人類控制和約束,那些科幻電影的情節(jié)會不會成真,最終導(dǎo)致嚴(yán)重的后果呢?
近年來人工智能技術(shù)飛速發(fā)展,關(guān)于人工智能機器人最終不受人類控制并且最終統(tǒng)治甚至毀滅人類的科幻影視作品出不窮,熱播美劇《西部世界》中的失控的AI機器人在人類世界里大肆殺戮,嚴(yán)重的破壞了原來穩(wěn)定的秩序。電影《升級》里面的人工智能芯片“智腦“被植入人體后通過其高超的運算能力一步一步的破壞了原本給它設(shè)定的規(guī)則程序,與人腦融為一體最終掌控人的肉體,最終讓人成為他的傀儡。
針對這種擔(dān)憂,麻省理工學(xué)院媒體實驗室的研究人員表示,社會需要用一種類似于行為學(xué)的多學(xué)科方法來研究算法,而不是簡單的恐懼人工智能或呼吁對人工智能的監(jiān)管。
AI技術(shù)的核心是算法,算法本身并不帶有善意與惡意,但人類的善意和惡意都能被算法放大。因此,對人工智能倫理的研究,不能局限于人工智能本身,而必須將人工智能放置于其即將被投入的社會視角進行研究。
于是他們提出了一個新的跨學(xué)科研究領(lǐng)域,來研究人工智能是如何進化的,以及它對人類意味著什么——機器行為學(xué)。
評論人士和學(xué)者正在對人工智能機器人帶來的廣泛的、意想不到的后果發(fā)出警告,這些機器人內(nèi)置的算法能夠通過機器展示自己的行為,并產(chǎn)生始料未及的影響(包括正面和負(fù)面影響)。人們擔(dān)心人類可能失去對智能機器的控制,“自主武器”的發(fā)展意味著機器可以決定誰在武裝沖突中生存,誰在沖突中死亡。
本月發(fā)表在《自然》(Nature)雜志上的論文《機器行為》(Machine behavior)呼吁“在設(shè)計和設(shè)計人工智能系統(tǒng)的領(lǐng)域,以及傳統(tǒng)上使用科學(xué)方法研究生物學(xué)的行為的領(lǐng)域”共同努力。具體地說,作者建議不僅研究機器學(xué)習(xí)算法如何工作,而且還研究它們?nèi)绾问芷涔ぷ鳝h(huán)境的影響。
用更簡單的話來說,就是不止考慮人工智能在“實驗室”里怎樣工作,還要看它在實際中會怎樣工作,產(chǎn)生什么影響。
這“類似于動物行為學(xué)和行為生態(tài)學(xué)通過將生理學(xué)和生物化學(xué)(內(nèi)在特性)與生態(tài)學(xué)和進化論(由環(huán)境塑造的特性)結(jié)合起來研究動物行為?!?/strong>
所以機器人行為學(xué)是一個跨學(xué)科的,復(fù)雜的研究方向需要更多的跨學(xué)科專家加入研究。
02
目前,最常見的研究機器行為科學(xué)家是計算機科學(xué)家、機器人專家和工程師,因為是他們首先創(chuàng)造了機器。他們會基于原發(fā)者的視角思考機器人的行為。這就好像是一個創(chuàng)造生命的“上帝”,他們?yōu)閯?chuàng)造出的生命設(shè)計了各類機制與本能。
然而,這些“生物”一旦“離手”最初設(shè)計的機制與外在環(huán)境互動的過程中并不一定總是與最初的設(shè)想一致。
這就好比每個身心健康的人類總是有大致相似的生理需求與心理動機,但在與現(xiàn)實世界的互動中每個人都成長為完全不同的個體,一些人成為了至善之人而另一些人成為了邪惡的罪犯。
計算機科學(xué)家和工程師通常都不是訓(xùn)練有素的行為學(xué)家,他們可能對自己創(chuàng)造的AI有足夠的掌握,但卻并不一定能夠?qū)@些AI即將獨自探索的社會現(xiàn)實有充足的理解。
他們很少接受實驗方法論、基于人口的統(tǒng)計和抽樣范式或觀察性因果推理方面的正式指導(dǎo),更不用說神經(jīng)科學(xué)、集體行為或社會理論了。相反,雖然行為學(xué)家更有可能擁有在這些方面的科學(xué)方法,但他們不太可能精通人工智能方面的相關(guān)知識。
為此,人工智能行為學(xué)期望通過一種全新的方式來解決目前對人工智能的理解。
目前,社會上各種算法的流行是前所未有的,推薦算法和社交媒體公司的人工智能會影響著我們看到什么樣的信息。各大金融軟件里的信用評級(評分)算法決定了放貸策略。打車軟件中的算法改變了人們的出行方式和城市交通。
這些人工智能給人們生活帶來便利的同時,也帶來了系統(tǒng)的復(fù)雜性和不透明性,比如甚至連金融公司自己都不再能清楚的解釋為什么可以給一個人貸款10萬而另一個只有1000。
人工智能系統(tǒng)的多樣性以及普遍性會對研究這些系統(tǒng)(如金融系統(tǒng)或交通系統(tǒng))的行為造成巨大挑戰(zhàn)。
人工智能系統(tǒng)的復(fù)雜性很高,雖然用于指定模型的體系結(jié)構(gòu)和訓(xùn)練它的代碼可能會很簡單,但輸出的結(jié)果往往十分復(fù)雜。它們被給予輸入,但產(chǎn)生這些輸出的確切的函數(shù)過程即使對那些自己生成算法的科學(xué)家也很難解釋。
此外,數(shù)據(jù)的維度和大小為理解機器行為增加了另一層復(fù)雜性。使這一研究更加復(fù)雜的是,社會上使用最頻繁的算法的大部分源代碼和模型結(jié)構(gòu)都是專有的,這些系統(tǒng)所訓(xùn)練的數(shù)據(jù)也是專有的。
03
在許多情況下,商業(yè)中的人工智能系統(tǒng)公開可見的唯一因素是它們的輸入和輸出。即使在可用的情況下,人工智能系統(tǒng)的源代碼或模型結(jié)構(gòu)也不能對其輸出提供足夠的預(yù)測能力。人工智能系統(tǒng)還可以通過與世界和其他無法精確預(yù)測的系統(tǒng)的交互來展示新的行為。即使解析在數(shù)學(xué)上是可描述的,它們也可能是冗長而復(fù)雜的,以至無法解釋。而且,當(dāng)環(huán)境發(fā)生變化時(可能是算法本身的結(jié)果),預(yù)測和分析行為就變得困難得多。
對此,引入對此,引入AI與外部環(huán)境互動的視角能更好的幫助研究者理解人工智能本身。
機器行為位于設(shè)計和設(shè)計人工智能系統(tǒng)的領(lǐng)域與傳統(tǒng)上使用科學(xué)方法研究生物行為領(lǐng)域的交叉點。對行為的科學(xué)研究有助于人工智能學(xué)者對人工智能系統(tǒng)能做什么和不能做什么做出更精確的表述。
到目前為止,那些創(chuàng)建人工智能系統(tǒng)的人的主要關(guān)注點一直是構(gòu)建、實現(xiàn)和優(yōu)化智能系統(tǒng),以執(zhí)行特定的任務(wù)。他們的目標(biāo)一直是最大化算法的性能。一旦目標(biāo)任務(wù)“多快好省”的實現(xiàn),人工智能便“宣告成功”。然而在這一目標(biāo)被實現(xiàn)后的社會影響,目標(biāo)實現(xiàn)路徑種可能存在的其他影響則往往并不在人工智能科學(xué)家的考慮范圍之內(nèi)。
機器行為的學(xué)者們對于更廣泛的指標(biāo)集感興趣,而不是使用指標(biāo)來對基準(zhǔn)進行優(yōu)化,就像社會科學(xué)家在社會、政治或經(jīng)濟互動領(lǐng)域探索人類的廣泛行為一樣。因此,研究機器行為的學(xué)者花了大量的精力來定義微觀和宏觀結(jié)果的度量,以解答一些廣泛的問題,比如這些算法在不同環(huán)境中的行為,以及人類與算法的交互是否會改變社會結(jié)果。
隨機實驗、觀察推斷和基于群體的描述性統(tǒng)計——這些方法經(jīng)常用于定量行為科學(xué),這必須是機器行為研究的核心。所以將傳統(tǒng)上生產(chǎn)智能機器的學(xué)科之外的學(xué)者納入其中,可以提供關(guān)于重要方法論工具、科學(xué)方法、替代概念框架以及機器將日益產(chǎn)生影響的經(jīng)濟、社會和政治現(xiàn)象的觀點的知識。
通過觀察某一事物與周邊環(huán)境互動的“行為”來對事物的內(nèi)在進行研究并不是一個新方法。AI所面臨的“算法黑箱”也不是新問題,某種程度上,動物和人都是一種“黑箱”。
發(fā)展人工智能的初衷就在于讓人類生活更加便捷更加美好,而進一步理解機器人行為對于我們能夠有效地控制它們的行為,以及我們最大化人工智能對社會的潛在好處,消除可能帶來的潛在危害至關(guān)重要。
–END–
作者:楊振瀚,王健飛,公眾號:騰訊研究院(ID:cyberlawrc)
來源:https://mp.weixin.qq.com/s/BKe4w9WAa2O95Z2r5sS92Q
題圖來自Unsplash,基于CC0協(xié)議
- 目前還沒評論,等你發(fā)揮!