Quanta與Salge討論了信息理論、虛無主義人工智能和人類與機(jī)器人互動的犬類模型。下面是經(jīng)過精簡編輯的對話。
問:一些技術(shù)專家認(rèn)為,人工智能是一個重大甚至當(dāng)今存在的威脅。失控的人工智能會讓你擔(dān)心嗎?
我對此不抱太好的看法。我的意思是我確實認(rèn)為現(xiàn)在機(jī)器人和人工智能的影響力越來越大。但我認(rèn)為,我們可能更應(yīng)該關(guān)心的是這些人工智能將影響未來職位的更替、決策的制定,也可能會使民主的喪失,以及隱私的喪失。我不確定這種失控的人工智能有多大可能會讓這些發(fā)生。即使是人工智能可以幫助我們控制醫(yī)療系統(tǒng),或者得到一些治療方案,但我們也應(yīng)該開始關(guān)注由此產(chǎn)生的倫理問題。
問:賦權(quán)將如何幫助我們解決這些問題呢?
我認(rèn)為,賦權(quán)確實是一種填補(bǔ)漏洞的的想法。它讓一個人工智能幫助人類避免死亡,但一旦你滿足了這個基本的底線,它仍然有一種持續(xù)的動力去創(chuàng)造更多的可能性,讓人類更多地表現(xiàn)自己來對世界產(chǎn)生更大的影響。在Asimov的一本書中,我認(rèn)為機(jī)器人**終將所有人類置于某種安全的容器中。這當(dāng)然是我們所不愿意看到的。然而,讓我們的能力增強(qiáng)并持續(xù)地影響世界似乎是一個更有趣的**終目標(biāo)。
問:你在一個游戲環(huán)境中測試了你的虛擬人工智能。然后發(fā)生什么呢?
一個被自己的力量所激勵的人工智能會跳出炮彈的方向,或者避免落入一個洞中,或者避免任何可能導(dǎo)致其喪失機(jī)動性、死亡或被破壞的情況,從而減少其運作性。它只會不停地運行。
當(dāng)它與一個人類棋手配對時,它被設(shè)計成能自我增強(qiáng),我們觀察到虛擬機(jī)器人會保持一定的距離來避免阻礙人類的行動。它不會阻礙你進(jìn)入,它也不會站在你無法**的門口。我們看到,這種效果基本上人類會讓他的同伴形影不離,這樣同伴才能就能幫到他。它導(dǎo)致了一些可以引領(lǐng)或跟隨的行為。
例如,我們還創(chuàng)造了一個激光屏障的場景,對人類有害,但對機(jī)器人無害。如果這個游戲中的人類離激光更近,突然就會有越來越多的激勵因素驅(qū)使機(jī)器人去阻擋激光。當(dāng)人類站在它旁邊時,它的動機(jī)就會變得更強(qiáng),這意味著“我現(xiàn)在想穿過它”。這個機(jī)器人會擋住激光,站在它前面。
問:這些人工智能是否有出現(xiàn)任何意想不到的行為,就像Asimov小說中出現(xiàn)的三部法律一樣?
我們**初設(shè)計的行為很好。例如,虛擬機(jī)器人會干掉那些想要殺死你的敵人。偶爾,如果這是**能拯救你的方法,它可能會跳到你面前為你擋子彈。但在一開始,有一件事讓我們有點吃驚,那就是它也非常害怕你。
這與它的“本地正向”模式有關(guān):基本上,它所判斷的是,未來發(fā)生的兩三個行為對人類或者它本身的世界的影響是怎樣的。因此,作為簡單的**步,我們編寫了這個模型,假設(shè)玩家會隨機(jī)操作。但在實際操作中,這意味著機(jī)器人的行為實際上是基于在假定人是一種精神變態(tài)者的情況下,所以在任何時候,比如說,人類都可以決定向機(jī)器人開火。所以機(jī)器人總是非常小心地待在那些人類無法殺死它的位置上。
我們必須解決這個問題,所以我們建立了一個我們稱之為信任的假設(shè)?;緛碚f,“同伴機(jī)器人”的行為是基于這樣的假設(shè):人類只會選擇那些不會移除代理自身權(quán)力的行為——這可能是一個更自然的伴侶模式。
我們在比賽中注意到的另一件事是,如果你有10個生命值,你的同伴機(jī)器人并不關(guān)心你失去前八、九個生命值,甚至?xí)谝欢螘r間內(nèi)認(rèn)為射殺你只是一種詼諧的行為。在這個實驗中我們再次意識到,我們生活的世界與電腦游戲中的模型之間存在著間隙。一旦我們用基于生命損失來生產(chǎn)出能力限制模型,這個問題就解決了。但它也可以**設(shè)計本地正向模型來解決,這讓它能夠預(yù)知未來的一切條件,而不僅僅是幾個步驟。如果這名機(jī)器人能夠深入了解未來,就會發(fā)現(xiàn)擁有更多的生命值可能會對未來有所幫助。
機(jī)器人基本上會說,“哦,我不能開槍打死他,或者我可以開槍打死他這兩者沒有區(qū)別?!庇袝r機(jī)器人甚至?xí)錃⒛?。這種情況當(dāng)然是個大問題。我不能寬恕隨意開槍的玩家。我們增加了一個補(bǔ)丁,讓虛擬機(jī)器人更關(guān)心你的授權(quán),而不是它自己的。
問:如何讓這些概念變得更精確?
如果你把機(jī)器人看作是控制系統(tǒng),你可以從信息的角度來思考:世界上發(fā)生的任何事情,在某種程度上影響著你。我們不只是在談?wù)撃闼兄降氖挛?,而是任何一種影響——它可能是任何在周圍世界和你之間來回流動的東西??赡苁菧囟扔绊懩?,或者是營養(yǎng)進(jìn)入你的身體。任何滲透到這個邊界的世界和人工智能之間都攜帶著信息。同樣,人工智能也能以多種方式影響外部世界,也能輸出信息。
你可以把這種流動看作是信道容量,這也是信息理論中的一個概念。當(dāng)你獲得高度的授權(quán)能夠采取不同的行動,這將導(dǎo)致不同的結(jié)果。如果這些能力中的任何一個變得更糟,那么你的授權(quán)就會降低——因為能力的喪失對應(yīng)著你和環(huán)境之間的信道容量可量化的減少。這是核心理念。
問:這個人工智能需要賦予多大的權(quán)利去工作?
賦權(quán)有一個優(yōu)勢,即使你的知識還沒有完善,它也可以被應(yīng)用。人工智能的確需要一個模型來說明它的行為將如何影響世界,但它并不需要完全了解這個世界以及它的所有復(fù)雜之處。與一些試圖將世界上的一切都盡可能完美了解的方法相比,你只需要弄清楚你的行為是如何影響你自己的看法的,那么你只需要弄清楚你的行為到底意味著什么。你不需要知道所有的東西都在哪里。但你可以有一個幫助你探索世界的人工智能。它會做一些事情,試圖弄清楚某件事的行為是如何影響世界的。隨著這種模式的發(fā)展,人工智能也會更好地了解它的授權(quán)程度。
問:當(dāng)你已經(jīng)在虛擬環(huán)境中測試過之后,為什么不在真實的世界里實施呢?
擴(kuò)大這種模式的主要障礙,以及我們?yōu)槭裁床话阉旁谌魏握嬲臋C(jī)器人身上,是因為在像現(xiàn)實世界這樣的富裕環(huán)境下,很難計算出一個人工智能和一個人類之間的信道容量。目前有很多項目在努力提高它們的效率。我保持樂觀的態(tài)度,但目前這是一個計算問題。這就是為什么我們把這個框架應(yīng)用到電腦游戲的同伴機(jī)器人上,這也是一種更加簡單的形式來讓這些計算問題更容易解決。
這聽起來好像讓我們的機(jī)器變得像強(qiáng)大的功能犬一樣。
實際上,我認(rèn)識一些機(jī)器人專家,他們有意讓機(jī)器人模仿狗狗的行為。我的意思是,讓機(jī)器人像我們的狗一樣對待我們,這可能是一個我們都能接受的未來。
咨詢電話:- 15000411174
咨詢網(wǎng)址:教育聯(lián)展網(wǎng)