基本信息
機器人法律 ,是一套法律,規則,或者也可以說是原則。這些“法律”的目的是創造一個基本框架,以讓機器人在工作時擁有一定程度的“自我約束” 。雖然這樣複雜的機器人目前還沒有被製造出來,但機器人法律卻已被廣泛套用在在科幻,電影之中。以及機器人研發領域中的“機器人”和“人工智慧”領域上 。
我們首先來肯定下三大定律的傑出貢獻,阿西莫夫的機器人三法律,可以用簡單、明了、震撼三個詞來形容。三大法律環環相扣,有如公式般的美感,讓人無比折服。阿西莫夫本人也曾經無不自豪的說過:“三法律是理性人類對待機器人(或者任何別的東西)的唯一方式”。
阿西莫夫採取了一種類似於歸謬法的手段來證明三大法律的和諧自洽。即提出它們的變體,然後又在科幻故事中展示這些變體所帶來的的邏輯困境與倫理學災難。正是這些作品讓更多的人類意識到了機器人的恐怖,以及三大定律的重要性。比如阿西莫夫在《機器人與帝國》中展示了這條定律所帶來的毀滅性力量。誕生之初被賦予機器人三定律的VIKI,在自然進化的過程中跨越了三法律的界限,獲得了“零規則”這一高等智慧,經過計算,她認為任由人類發展只會導致更多的災難、戰爭和貧窮,於是在“零規則”的支配下,她只能選擇用自己理性的“大腦”支配和保護人類,以免這一物種的滅絕———實際上,“她”還是在為人類著想,但代價是抹消人類的自由意志。
在阿西莫夫以前,還沒有人能夠提出這么具有歷史意義的機器人法則,可以說直到今天還沒有人能夠提出優於阿西莫夫的法律,因此說它是機器人的聖經一點也不為過。
歷史局限性
客觀地說,阿西莫夫的三大定律提得比較早,雖然在科幻小說或者機器人相關的題材作品裡被當做聖經一樣崇拜,但是作為那個時代的人類來說還有一定的局限性。
因為那個時代的機器人是按照馮諾依曼的思想來設計的。程式設計師可以隨心所欲的控制它們的行為,那時候的機器是一個確定性的系統,只需載入一條條指令,它們就按程式設計師所構想的那樣工作。
而在今天,人工智慧的設計發生了很大變化,科學家們意識到,那種馮諾依曼式的自上而下的控制式程式不太可能實現人工智慧,現今最優秀的人工智慧都是基於遺傳算法,它模擬是大腦的神經網路的工作方式,人們為這樣的技術付出的代價就是,人們再也不可能完全理解人工智慧是如何工作的了。人們只能通過對輸出進行觀察然後形成一個關於人工智慧行為的經驗性感覺,機器的內部工作原理之於程式設計師更像是一個黑箱。舉個例子,未來的機器人可能會很有效的執行到超市購物的這一行為,但是不管程式設計師如何修改他的適度函式,也很難保證機器人在購物途中不去傷害一隻擋道的貓,或者破壞一輛汽車。
阿西莫夫同樣忽略了計算機智慧型可能會誕生在網路,人們很容易設計出一套協定來確保網路中的某個節點不會製造混亂,但卻無法控制計算機網路的智慧型湧現。
三大定律的另一局限性還表現在,阿西莫無法預測物聯網的到來。物聯網時代物物相聯,而在阿西莫的作品中則大部分生活都如常——只不過多了些人形智慧型機器人走來走去而已,但這種未來不太可能實現,或者就算是它實現了,也只會存在很短的時間,現在智慧型手機、智慧型家居、智慧型醫療、甚至智慧城市已經悄然興起,機器人將生活在一個物聯網的社會裡。因此我們說阿西莫夫三大定理有著一定的歷史局限性。
概念不清
在工程師利用計算機實現人工智慧的同時,他們發現了一個非常棘手的問題,那就是計算機的運算過程是不允許有歧義性的。如果存在這樣的歧義性計算機將無法工作。在計算機的世界裡只有0和1、對和錯,沒有摸凌兩可存在。而人類的文字和語言則充斥著這種“仁者見仁智者見智”的歧義性。同樣一個詞在不同的人看來意義就不同,甚至法律這種看似牢不可破的堡壘都有律師來將他們打破。
要遵循第一定律,首先得明白“什麼是人?”。事實上,這是一個連柏拉圖都沒能弄清楚的問題,中國古代的哲學家把這個問題導向無趣的虛無主義,有的人陷入白馬非馬的邏輯悖論中難以自拔。人類在哲學上可能難以觸摸到“人”的本質,但在生活中並不存在概念困境。這正是由人腦的模糊性特點所決定的。一個元素a和一個集合A的關係,不是絕對的“屬於”或“不屬於”的關係,而需用考慮它屬於集合A的程度是多少,人類正是通過 “隸屬度”模糊數學的集合概念,輕易地解決了“比光頭多1根頭髮的是禿子,比禿子多N根頭髮仍是禿子”的悖謬。但以布爾邏輯運算為核心的機器智慧型能做到嗎?或許,人類為了讓機器人更人性化、在日常生活中的工作更具靈活性,可能會引入模糊處理的操作程式。但問題總是相伴而生,既然它都已經模糊處理了,它未嘗不會在“三大定律”上也進行模糊處理,把它該盡的義務給馬賽克掉呢?
首先,光信息無法教會機器人明白“什麼是人”。人類很早以前就發現,外形是會騙人的。仿真機器人、複製人、全息三維圖像不光能令機器人冒煙,也會令真正的人類抓狂。
其次,記憶信息無法幫助機器人判別“什麼是人”,因為記憶是能夠複製的。真假美猴王的故事深刻地教育了唐僧,念緊箍咒只能顯得你很低級白吃。如來佛能區別大聖與獼猴,可惜機器人中沒有如來佛。
最高級的判別方式無疑是圖靈測試。且不說這一方法在操作上具有時間上的不可行性,其實,機器人通過圖靈測試已經是指日可待的事。這裡面還有一個有趣的悖論,機器人若自己已經通過圖靈測試,它就已經跨入人的行列,它何必還遵循該死的“緊箍咒”三大定律呢。更可怕的是,不排除有很多無辜的人類,由於發神經或先天性處於邊緣智力的緣故而通不過圖靈測試,這樣一來,已經通過圖靈測試的機器人是不是也會產生一種道德上的優越感而命令人類服從三大定律呢。如此看來,以簡潔明了、感性聞名於世的圖靈測試的危險性絕不亞於以簡潔明了、理性而彪炳史冊的阿西莫夫三大定律。
然後,鑒於第三定律中提到“絕不能傷害自己”,問題又來了:什麼是自己?
人類很早就明白,概念的自指容易導致大腦當機。只給那些不給自己理髮的理髮師如何才能給自己理髮這樣的問題已經讓N個哲學家瘋掉了,但生活中的普通人從來沒有這樣的煩惱。因為他們明白:珍愛生命,就應遠離國足與無窮循環。
後來又補充了機器人零定律:為什麼後來要定出這條“零定律”呢?打個比方,為了維持國家或者說世界的整體秩序,我們制定法律,必須要執行一些人的死刑。這種情況下,機器人該不該阻止死刑的執行呢?顯然是不允許的,因為這樣就破壞了我們維持的秩序,也就是傷害了人類的整體利益。
最後,我們來說下傷害。什麼是傷害,傷害是指物理上的還是精神上的,傷害範圍和程度如何界定,輕微的劃痕和碰撞是否屬於傷害,修剪指甲和理髮是否屬於嚴重傷害。這種由某類人來決定的範圍怎么可以成為一個通用的法則呢?
三定律加上零定律,看來堪稱完美,但是“人類的整體利益”這種混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機器人了。威爾·史密斯曾說:“《我,機器人》的中心概念是機器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題。”
當毒蛇咬了自己手指,果斷砍掉這截手指才能保住小命。這是一個很淺顯的道理。當腐女在家看電視把腿爛掉,換一條合金納米材料複合式輕型假肢才是正經事。我還是我,不會因為丟掉一部分而喪失整個的我。但丟掉N部分呢?我家祖傳一把斧子,我爺爺換掉了它的斧頭,我爸爸換掉了它的斧柄,我繼承的還是那把號稱是皇帝親賜的斧子嗎?無聊!斧子是斧子,人是人。斧子沒有記憶,人有!斧子沒有自我意識,人有。但,機器人呢?機器人有嗎?
從三大定律來看,如果機器人沒有自我意識,三大定律就不存在、自我解體了。機器人當然有。既然機器人可以有自我意識,那么不能以是否具有自我意識來判定是否是“人”,當然,動物也有自我意識。
好的,機器人有自我意識,但它能明白剜骨療傷這樣的道理嗎?“剜骨”與“截肢”無疑是“自我傷害”,但這種自我傷害正是為了保證整體的我不受傷害。程式設計師很容易讓機器人明白,用螺絲刀扭下一條金屬胳膊是無害的,甚至把身體的各個部件拆下來更新換代,也是有益的,這叫“新陳代謝”,即便是全身大翻修也是無關緊要,重要的是晶片,保管了它的記憶、智慧型程式及情感模組的晶片才是最重要的,那么換做給人做成功率更高的手術算不算是傷害呢?。
所以說機器人三大定律概念不清,正是因為這種概念不清才導致出現了各種各樣危險的機器人。
邏輯矛盾
第一定律說,機器人不得傷害人類,或因不作為使人類受到傷害。假如兩人互相鬥毆,機器人應當選擇幫誰呢?加入任一方都違反第一條前半部分,不加入卻又違反第一條後半部分。
為了解決這個問題,阿西莫夫對此定律作了修正,他提出“第一定律潛在值”(firstlawpotential)的概念,意即在智慧機器人的“正子腦”中,第一定律可能引發兩種潛在的選擇,而哪一種選擇的結果更好、成功率更大,哪一種選擇就會勝出,這一點有點類似於達爾文神經主義。這樣一來,女孩子常喜歡問的“我與你媽掉入河中你先救誰”的史上最難問題得以解決,機器人給出的答案是“救你”!因為你更年輕健壯,把你救上岸的可能性較大。“救你”你很高興,但是不被救的人會高興么?
第二定律,除非違背第一定律,機器人必須服從人類的命令,於是主人說你幫我去搶銀行吧,搶銀行也是一種工作,不違反第一條,那么機器人一定是去搶銀行或者製作炸藥。那么這種違法的事情算不算違背第一定律?
第三定律, 除非違背第一及第二定律,機器人必須保護自己,欺騙算不算是違背第一第二定律?比如機器人給出虛假答案甚至製造虛幻生活的環境,算不算違背第一第二定律。
第零定律, 阿西莫只是偷換了概念,把第一條的個人換成了人類,但是人類之間是有不同的利益團體構成的,如果兩個集團發生武裝衝突,但是其結果必定是:任何一方都認為自己是正義的對方是邪惡的,雙方都研發自己的機器人並將其投入戰爭,然後開始做著傷害人類的事情。
就結果然機器人做和不做都不對,如果做的話就意味幫助一部分人傷害另一部分人,如果什麼也不做的話機器人也就沒有存在的意義了,因此三大定律自身就存在著嚴重的邏輯矛盾。
相對庸俗
也許很多人覺得三大定律非常完美,實際上卻是非常庸俗的一種想法,舉一個簡單的例子來說,言情故事中,女朋友對男朋友提出的要求不就是這三條么:
1、你要愛我永遠不能傷害我;
2、你一切都要聽我的;
3、我不在的時候你要好好照顧你自己。
是不是和機器人三大定律一樣呢。事實上即便他答應了但是他可能做到么?
別說庸俗的言情故事,你就養個寵物也是這基本要求啊:1、別咬我;2、乖;3、別把自己搞掛了。所以很多人說三大定律沒什麼新花樣,是對人工智慧發展沒有什麼值得借鑑的“約法三章”,相對庸俗。
本質錯誤
機器人三大定律建立的基礎就有著本質的錯誤,三大定律把人想像成了奴隸主,而把機器人當成了聽話的奴隸。這種基於有缺陷的倫理框架(義務倫理)本身就有著很強內在的對抗性,所以才不被研究者接受,我們之所以歧視機器人的原因是因為機器人是由機器發展而來的,他的軀體是矽做的,不是血肉之軀,所以他們就必須遵從人類的需求,不管他們有多么強大的能力也沒用。阿西莫夫的未來社會是光天化日的基質沙文主義,人類擁有的權利比人形機器人的權利更多。
既然機器人像人,那么他為什麼就不能像人一樣的對待,既然機器人像神(魔)他為什麼就不能像神(魔)一樣對待。一個弱智的人殘忍的對待它的寵物,也許他本身很沒有發覺,但是作為更聰明的你真的覺得這是正確的么?
放棄智慧型
為了防止人類製造千奇百怪的機器人,徹底杜絕終結者的出現,於是我們開始強調對機器人製造者和使用者加強管理,問題不在於機器人,而在於製造它們的人類。真正的危險在於人類迫使機器人的行為超出了它們的判斷決策力。 於是有人提出的新三大定律是:
第一,人類給予機器人的工作系統應該符合最合法和職業化的安全與道德標準;
第二,機器人必須對人類命令做出反應,但只能對特定人類的某種命令做出反應;
第三,在不違反第一定律和第二定律的前提下,當人類和機器人判斷決策力之間的控制能順利轉換時,機器人對其自身的保護應有一定的自主性。
雖然這可能會導致“天網”的出現,但也意味著,一輛機器人控制的汽車不會開向險崖,也不會出現突然的猛烈轉彎。
伍茲說,許多有關於機器人更危險的預測是於機器人軟體開發者們的想法造成的,這些人不了解製作軟體的危險,而當他們的機器人變得像«銀河系漫遊指南»中的一樣(患有憂鬱症),他們也不願意承擔這個責任。
加強制造者的管理,放棄人工智慧的研發。那么問題來,即便是法律明令禁止的核生化或者核武,軍方會不會去做,所謂的犯罪分子會不會去做? 假設我們生活在一個愛好和平的國度里,大家都不生產武器,但是核武器來了怎么辦?你願意任人宰割么?只是人工智慧變成了另一個侵略者而已。
人機混血
如何建造安全AI?既然定律路線行不通,那么應該怎樣保證AI不會毀滅人類呢?很少有人相信能造出一個百分之百安全毫無隱憂的系統,但這對於大部分人來說並非什麼困擾,因為說到底,人生中也沒什麼東西是百分之百的。
那些在阿西莫夫機器人三定律基礎上加以修改得出的所謂“完善”一點的定律,其實也並不完美,而且走向了窮盡所有可能去制定規則的誤區。 試想,連人類(指令制定者)都無法判斷是否正確的行為,機器人如何能夠得出正確的結論呢? 在這個問題沒有解決之前,誰能說機器人做錯了?當一群聰明的原始人發明語言的時候,他們是等到一套成熟的語言形式理論出現、用它預測了語言引入社會後的未來影響,然後才動手的嗎?
其實有一種理論正在實踐慢慢中,那就是人機混血(人機結合),人機混血開始於古代猿人對工具的使用,隨著科技的進步人們對工具越發的依賴,現在人們已經進入了人機共處的時代,尤其是義肢(如人造器官或者整容)和存儲器(知識和計算)的進步則讓人與機器之間的結合變得更加緊密,取長補短,如果人類繼續聰明下去的話就會選擇更好的人體(機體)來更好的生活。
至於未來是誰更有發言權,還是取決於誰更強大,優秀的生命得以繁衍這是亘古不變的道理。