發布成功
讚賞金額:
您輸入的金額有誤,請重新輸入
支付金額:5元
支付方式:
讚賞成功!
你的讚賞是對作者最大的肯定~?
70年前,阿西莫夫提出他著名的機器人三定律,來保證機器人會(hui) 友善待人。雖然最早提出時這隻是個(ge) 文學手法,但是有些人認為(wei) 這些定律是現成的方案,能挽救我們(men) 免於(yu) 機器末日。
那麽(me) ,阿西莫夫的安保措施成功經曆了時間的考驗嗎?專(zhuan) 家的回答是:沒有。
伊薩克·阿西莫夫(1920-1992),20世紀最有影響力的科幻作家之一
1942年,阿西莫夫在短篇小說“Runaround”(《環舞》)中首次提出了三定律:
一、機器人不得傷(shang) 害人類,或因不作為(wei) 使人類受到傷(shang) 害。
二、除非違背第一定律,機器人必須服從(cong) 人類的命令。
三、除非違背第一及第二定律,機器人必須保護自己。
但後來,阿西莫夫又加入了一條新定律:第零定律。
零、機器人不得傷(shang) 害人類整體(ti) ,或因不作為(wei) 使人類整體(ti) 受到傷(shang) 害。
阿西莫夫的科幻設定裏,機器人三定律是植入到近乎所有機器人軟件底層裏,不可修改不可忽視的規定,絕不僅(jin) 僅(jin) 是“建議”或者“規章”。
但顯然這不是一個(ge) 物理定律,所以現實中的機器人並不遵守——至少暫時如此。
在《環舞》裏,負責水星開礦任務的機器人在第二和第三定律的衝(chong) 突中陷入“焦慮”,開始不停地繞圈子
正如阿西莫夫許多小說裏顯示的,這三條定律的缺陷、漏洞和模糊之處不可避免會(hui) 導致一些奇怪的機器人行為(wei) 。比方說,這三條定律連何為(wei) “人”、何為(wei) “機器人”都沒有良好定義(yi) 。而且,如果機器人獲取的信息不完整,它們(men) 完全可以無意中打破定律。更何況,你要怎麽(me) 阻止一個(ge) 智力超群的機器人自己把定律改掉呢?
因此,很多人都認為(wei) 這隻是單純的推動劇情用的寫(xie) 作手法而已,但是,1981年,阿西莫夫本人在“Compute!”裏說:
“……有人問,我是不是覺得我的三定律真的可以用來規範機器人的行為(wei) ——等到機器人的靈活自主程度足以在不同的行為(wei) 方式中選擇一種的時候。我的答案是:‘是的,三定律是理性人類對待機器人(或者任何別的東(dong) 西)的唯一方式。’”
好吧,三十年過去了,我們(men) 的機器人——準確地說,是操縱機器人的人工智能——真的在逼近阿西莫夫所說的那一天。事實上,人工智能恐怕再過一段時間就要抵達技術奇點,發生爆炸式增長,徹底把人類智能甩在後麵。
而如果這樣一個(ge) 超級智能的程序編得不夠好,或者它不在乎人類的需求,那麽(me) 對我們(men) 而言就是徹頭徹尾的災難。我們(men) 必須保證它是安全的。
那麽(me) ,阿西莫夫三定律可以幫我們(men) 嗎?我們(men) 采訪了兩(liang) 位人工智能理論研究者:本·格策爾(Ben Goertzel),艾迪亞(ya) 金融預測公司首席科學家;路易·海爾姆(Louie Helm),機器智能研究所代理主任。
他們(men) 的觀點是,阿西莫夫三定律完全不能勝任,而如果我們(men) 想保證超級智能的安全,我們(men) 需要一些全然不同的東(dong) 西。
電影《我,機器人》就是根據阿西莫夫的同名小說集改編的,機器人三定律是其核心
阿西莫夫的未來
“我認為(wei) 阿西莫夫預想的機器人過不了多久就會(hui) 實現,”格策爾說,“但是在他大部分小說裏,看起來人類級別的機器人好像就是機器人學和AI工程的頂峰了。事實看起來並非如此。在抵達阿西莫夫式類人機器人之後,很快超人AI也會(hui) 成為(wei) 可能。”
典型的阿西莫夫未來裏,大部分生活都如常——隻不過多了些人形智能機器人走來走去而已。“但這種未來不太可能實現——或者就算是它實現了,也隻會(hui) 存在很短的時間,”他說。
在海爾姆看來,機器人根本無關(guan) 緊要。
“我認為(wei) 對人類來說最主要的問題,不是一大群半智能人形機器人所需的道德規範,而是高階人工智能最終會(hui) 出現(不管有沒有軀體(ti) ),其功能遠遠超過人類水平,”海爾姆說。“人類早晚必須要跨過超級智能這個(ge) 坎。這也是為(wei) 何開發安保措施如此重要。在我看來,機器人、仿生人、模擬大腦什麽(me) 的都無關(guan) 緊要,我們(men) 最多和它們(men) 相處一二十年,之後就要麵對真正的大問題——為(wei) 超級智能開發倫(lun) 理道德。”
好的開端?
鑒於(yu) 阿西莫夫三定律是第一個(ge) 真正試圖解決(jue) 人工智能行為(wei) 問題的方案,那麽(me) 就算是超級人工智能,它能不能也起到一定效果——或者至少有所啟迪呢?
“老實說,我真沒從(cong) 機器人三定律裏獲得什麽(me) 靈感,”海爾姆說。“機器倫(lun) 理學的共識是,它無法成為(wei) 機器倫(lun) 理的合適基礎。”
三定律的確廣為(wei) 人知,但現實中無論是AI安全研究者還是機器倫(lun) 理學家,都沒有真的使用它作為(wei) 指導方案。
“原因之一是這套倫(lun) 理學——我們(men) 稱之為(wei) ‘義(yi) 務倫(lun) 理學’(deontology)——作為(wei) 倫(lun) 理基礎是行不通的。依然有幾個(ge) 哲學家試圖修複義(yi) 務倫(lun) 理學體(ti) 係,但同一批人常常也熱衷於(yu) ‘智能設計’或者‘神命論’之類的東(dong) 西,”海爾姆說,“沒幾個(ge) 人嚴(yan) 肅對待他們(men) 。”
按照義(yi) 務倫(lun) 理學,一項行為(wei) 合不合道德,隻決(jue) 定於(yu) 行為(wei) 本身是否符合幾條事先確定的規範,和行為(wei) 的結果、動機等等完全無關(guan)
他總結了三定律的幾處缺陷:
- 內(nei) 在的對抗性
- 基於(yu) 有缺陷的倫(lun) 理框架(義(yi) 務倫(lun) 理)
- 不被研究者接受
- 哪怕在科幻文學裏也會(hui) 出問題
格策爾表示讚同。“設立三定律的目的就是以有趣的方式出問題,這也正是為(wei) 何圍繞它們(men) 的小說如此有趣,”他說,“所以三定律隻在這個(ge) 意義(yi) 上有指導作用:它告訴我們(men) ,用具體(ti) 的定律來規範道德倫(lun) 理是必定行不通的。”三定律在現實中完全無法運作,因為(wei) 其中的術語太模糊,受製於(yu) 主管解釋。
歧視機器人?
三定律的另一個(ge) 側(ce) 麵是顯而易見的基質沙文主義(yi) ——按照定律,就因為(wei) 機器人的軀體(ti) 是矽做的,不是血肉之軀,他們(men) 就必須遵從(cong) 人類的需求,不管他們(men) 有多麽(me) 強大的能力也沒用。
“百分之百,”格策爾說,“阿西莫夫的未來社會(hui) 是光天化日的基質沙文主義(yi) ,人類擁有的權利比人形機器人的權利更多。三定律的目的就是維持這種社會(hui) 秩序。”
海爾姆的視角略有不同,他認為(wei) ,如果我們(men) 真的身處這樣的場景,那我們(men) 已經走得太遠了。
“我認為(wei) 設計有意識、有自我覺知的人工智能或機器人,本身就是很不明智的,”海爾姆說,“而且,雖然那些電影小說裏AI研究者常常‘不小心’就搞出了有意識的人工智能,我認為(wei) 這在現實中不可能發生。人們(men) 不可能純靠好運碰上意識,需要大量的努力和知識才行,而且大部分AI研究者都是遵循倫(lun) 理的人,他們(men) 會(hui) 避免創造出哲學家所謂‘有道德意義(yi) 的存在體(ti) ’。畢竟,他們(men) 完全可以創造出不具有內(nei) 在道德問題的高階思考機器嘛。”
因此,關(guan) 於(yu) 設計不對稱定律、管理機器人價(jia) 值的問題,海爾姆並不太在意。他認為(wei) 未來的AI研究者隻需少許道德約束即可。
“話雖如此,我認為(wei) 人類也是原子組成的,所以理論上也可以人工合成一種生命形態或者機器人,讓它擁有道德意義(yi) ,”海爾姆說,“我希望沒人會(hui) 真的這麽(me) 做,大部分人應該也不會(hui) 做,但恐怕不可避免地,總會(hui) 有些好炫耀的傻瓜為(wei) 了追名逐利而第一個(ge) 做些什麽(me) 事情——任何事情——哪怕是如此不道德、如此愚蠢的事情。”
但是,如果真的出現了和人類一樣聰明一樣可愛一樣有能力自主決(jue) 策的機器人,我們(men) 還應該因為(wei) 他們(men) 是“人造”的而不給他們(men) 平等權利嗎?
三定律2.0?
三定律有顯而易見的缺陷,能否用修正或者補丁之類的挽救它呢?而且確實有很多科幻作家這麽(me) 嚐試過,多年來有不少修正版本。
“不,”海爾姆說,“三定律不會(hui) 有補丁。不存在能挽救它的辦法。”
除了太不自洽、無法實現之外,海爾姆說,三定律本質上是對抗性的。
“我更偏愛的機器倫(lun) 理路線是更合作性的、更自我一致的,而且更多使用間接規範性,這樣就算係統一開始誤解了或者編錯了倫(lun) 理規範,也能恢複過來,抵達一套合理的倫(lun) 理準則。”海爾姆說。
格策爾呼應了海爾姆的觀點。
“定義(yi) 一套倫(lun) 理原則、把它作為(wei) 機器倫(lun) 理的核心路線,恐怕毫無希望——如果我們(men) 討論的是靈活的人工通用智能(AGI)的話,”他說,“如果AGI擁有直覺、靈活、適應性的倫(lun) 理觀,那這些倫(lun) 理原則對它來說可以是有用的基本指南,幫助它使用它自己的倫(lun) 理直覺。但這樣的話,這些原則就不是它的核心了,隻是一個(ge) 側(ce) 麵。人類就是這樣的——我們(men) 學會(hui) 的倫(lun) 理規範是有用的,但用法隻是指引我們(men) 的倫(lun) 理本能和直覺而已。”
如何建造安全AI?
既然定律路線行不通,那麽(me) 應該怎樣保證AI不會(hui) 毀滅人類呢?
“AGI研究者裏,很少有人相信能造出一個(ge) 百分之百安全毫無隱憂的係統,”格策爾說,“但這對於(yu) 大部分人來說並非什麽(me) 困擾,因為(wei) 說到底,人生中也沒什麽(me) 東(dong) 西是百分之百的。”
格策爾相信,一旦我們(men) 造出了早期AGI係統,或者至少是比我們(men) 現有東(dong) 西強大得多的AGI原型機,我們(men) 就可以通過研究和實驗獲得多得多的AGI倫(lun) 理學信息。
“希望這種方式下我們(men) 能建立良好的AGI倫(lun) 理學,讓我們(men) 能更清晰地理解這個(ge) 話題,”他說,“但目前為(wei) 止,研究AGI倫(lun) 理理論還是很困難的,因為(wei) 我們(men) 既沒有很好的倫(lun) 理理論,也沒有很好的AGI理論。”
他又說:“對於(yu) 那些看《終結者》看多了的人,這聽起來估計有些嚇人——我們(men) 試圖建立AGI,但卻認為(wei) 隻有在我們(men) 試驗過原始AGI係統之後才能得到相關(guan) 的堅實理論。然而,絕大部分激進的進展都是這麽(me) 發生的。”
電影《終結者》可能是最著名的機器人末日場景之一:高度發達的機器人和人類開戰,毀滅了大部分人類文明
“當一群聰明的原始人發明語言的時候,他們(men) 是等到一套成熟的語言形式理論出現、用它預測了語言引入社會(hui) 後的未來影響,然後才動手的嗎?”
這一點上兩(liang) 位受訪者又取得了一致。海爾姆所在的機器智能研究所花了很長時間考慮這件事情——簡短的答案是,這還不是個(ge) 工程學問題。需要更多研究。
“這麽(me) 說是什麽(me) 意思?我在機器智能研究所的同事盧克·穆豪森總結得很好。他說,問題總是從(cong) 哲學領域移到數學領域再到工程領域,”海爾姆說,“哲學提出有意義(yi) 的問題,但這些問題常常太不精確,沒人能知道一個(ge) 新答案是否意味著我們(men) 又進了一步。但如果我們(men) 能把重要的哲學問題——智能,本體(ti) ,價(jia) 值——複述成足夠精確的數學,要麽(me) 對要麽(me) 錯;接下來就可以建立模型,在此基礎上成功擴展,總有一天能夠用作真實世界的工程目的。”
海爾姆說,這是科學和哲學裏的一個(ge) 真正難題,但是進步依然是可能的:“我懷疑哲學能不能隻靠自己解決(jue) 它,畢竟過去三千年裏它似乎沒有什麽(me) 特別顯著的進展,但是我們(men) 也不能憑現有這點粗淺的了解就去編程。我們(men) 還需要大量的理論研究。”
來源:果殼網