機器人會傷害你?科學(xué)家做了實驗并回答了七個問題
艾薩克阿西莫夫著名的機器人三定律,對機器人和自動機器人設(shè)下行為準(zhǔn)則以確保人類的安全,也是一個著名的虛構(gòu)學(xué)說。這部法則首次出現(xiàn)在他1942年的短篇小說《跑位》中,并且也出現(xiàn)在《我,機器人》等經(jīng)典作品中,在剛開始出現(xiàn)的時候看起來很不錯:
1、機器人不得傷害人類,或因不作為而使人類受到傷害。
2、除非違背**法則,機器人必須遵守人類的命令。
3、在不違背**及第二法則下,機器人必須保護自己。
當(dāng)然,應(yīng)用在現(xiàn)實中的隱藏的沖突和漏洞比比皆是,在我們這個擁有著先進的機器學(xué)習(xí)軟件和自動化機器人時代,定義和實施人工智能的一套完整可行的道德規(guī)范已經(jīng)成為像機器智能研究所和OpenAI所重點考慮的問題。
Christoph Salge是紐約大學(xué)的一名計算機科學(xué)家,他采取了一種不同的方法。Salge和他的同事Daniel Polani并沒有用自上而下的哲學(xué)理論來定義人工智能的行為,而是在研究一種自下而上的道路,或者是“機器人應(yīng)該首先做什么”。正如他們在**近的論文中所寫的那樣,“給予權(quán)利是機器人三定律的替代品。”“授權(quán)”這個概念在一定程度上受到了控制論和心理學(xué)的啟發(fā),它描述了一個代理人的內(nèi)在動機,即堅持并在其周圍環(huán)境中工作?!熬拖裼袡C體一樣,它想要生存下去。它想去影響世界,”Salge解釋道。在電池電量過低的情況下,Roomba會在它快沒電時自動尋找充電站,這可能是一種非常基本的授權(quán)方式:它必須采取行動讓自己沒電不能續(xù)航時**充電來維持自身的生存。
授權(quán)聽起來像是一個導(dǎo)致像Nick Bostrom這樣的安全智能思想家擔(dān)心的結(jié)果:強大的自治系統(tǒng)只關(guān)心如何讓自己的利益**大化并做出一些瘋狂的行為。但是,研究人類機器社交互動的Salge想知道,如果一個被授權(quán)的人工智能“也觀察到到另一個被授權(quán)的人工智能”,結(jié)果會是怎樣。你不僅想讓你的機器人保持運轉(zhuǎn),你還想保持對它能夠與人類友好相處而進行控制?!?
Salge和Polani意識到,信息理論提供了一種方法,將這種相互賦權(quán)轉(zhuǎn)化為一種數(shù)學(xué)框架,即可以付諸行動的一個非哲學(xué)化的人工智能。Salge說:“機器人三定律的一個缺點是,它們是基于語言的,而語言有高度的模糊性。”“我們正在努力尋找一種可以實際操作的東西?!?
咨詢電話:- 15000411174
咨詢網(wǎng)址:教育聯(lián)展網(wǎng)