人工智慧武器

人工智慧武器

人工智慧武器是具有指揮高效化,打擊精確化,操作自動化,行為智慧型化等特點的智慧型武器將在未來軍事領域將占有重要地位。它可以“有意識”地尋找、辨別需要打擊的目標,具有辨別自然語言的能力,是一種“會思考”的武器系統。美國列入研製計畫的軍用機器人達100多種,並且一些部隊已經開始小批量裝備套用型軍用機器人。

基本信息

比機器人還危險!禁止迫在眉睫

人工智慧武器 人工智慧武器

智慧型武器的危險之處在於,軟體工程師可以很輕鬆地給它重新編程,使其成為濫殺無辜的機器。

最近一段時間,很多知名人士都對人工智慧武器表示了抵制,但他們給出的原因卻比較偏頗,認為機器人有朝一日將會控制人類。這種說法其實並不合理,至少在短期內不合理。但是,人工智慧武器所蘊含的危險,也確實不是那種常規的、由人類操控的武器可以比擬的。因此要求禁止人工智慧武器的呼籲,也理應獲得大家的聲援。

迫在眉睫的危險

從谷歌(微博)無人駕駛汽車的身上,我們可以一瞥人工智慧的未來。現在你試想一下:一個兇惡的黑社會團伙偷走了一輛這樣的車,在其頂端加裝了一門火炮,然後給車輛重新編程,把炮口對準公眾。如此一來,它就成為了一件人工智慧武器。

各國政府的眼睛是雪亮的,當然不會看不到這種武器的潛力。美國海軍今年宣布計畫開發無人機武器,而韓國的Super aEgis II自動炮塔,俄羅斯的Platform-M 戰鬥機器也雙雙亮相。

但人工智慧武器不會是政府的獨家秘制。現在人人都可以買得到搭載GoPro 相機的四軸無人飛行器。現在想像一下,有人開發了一個簡單的軟體,可以讓它自動飛行。而那個邪惡的黑社會組織,就是可以把無人駕駛汽車改裝成武器的犯罪團伙,當然也可以把槍枝搭載在無人機上面,給它重新編程,然後讓它飛到擁擠的公共場所去殺人。

這就是人工智慧武器近在眼前的危險,:它們很容易被人利用,改裝成濫殺無辜的機器,其危害性遠遠超過了同樣的、但需要有人操作的武器。

機器本身並不可怕

史蒂芬·霍金、宇宙學家馬克斯·特格馬克以及伊隆·馬斯克和其他很多人都簽署了“未來生活”(Future of Life)請願書,要求禁止製造使用人工智慧武器。今年1月,馬斯克捐款 1000萬美元給發起該請願的機構。4月份,聯合國召開了“殺手機器人”會議,不過沒有產生任何具有持久性的政策決定。“未來生活”請願信指出,人工智慧武器的危險非常具體,不出幾年就有可能導致災難,需要馬上採取行動來加以避免。可惜的是,它並沒有明確指出,有哪些人工智慧武器已經出現在了地平線上。

很多人擔心會出現“終結者”那樣的世界末日場景:機器人具有了像人類一樣的能力,能夠完全依靠自己與世界互動,而且這些機器人試圖征服世界。

物理學家、皇家天文學家馬丁·里斯爵士就警告說,災難性的場景,比如“愚蠢的機器人不按指令行事,或一個網路自己有了主見。”他在劍橋的同事、哲學家休·普萊斯也表達了類似的擔憂,覺得當智慧型“不受生物學限制”時,人類可能無法生存。在兩人的推動下,劍橋大學組建了生存風險中心(Centre for the Study of Existential Risk),以圖避免人類的生存遭受如此巨大的威脅。

這些問題當然很值得研究。但是,它們遠不如人工智慧武器問題那么迫在眉睫。

我們很快就能開發出類似於人類的人工智慧了嗎?幾乎所有的標準答案都是:不是很快。很多媒體都說,雷丁大學的聊天機器人尤金·古斯特曼(Eugene Goostman)是真正的人工智慧,因為它真的讓一些人以為它是一個13歲的男孩。但是,聊天機器人和真正的“像人類一樣的智慧型”還差多遠呢?計算機科學家斯科特·阿倫森(Scott Aaronson)的第一個問題就把尤金難住了:“是鞋盒大呢,還是珠穆朗瑪峰大?”

儘管這樣,還是有很多人都在“未來生活”請願信上籤了名,明確表示要抵制人工智慧武器。原因在於:與擁有自我意識的計算機網路不同,在無人駕駛汽車上架機槍現在就可能出現。

人工智慧武器的問題,不在於它們將會控制世界,而在於它們非常容易被重新編程,因此任何人都能夠以低得驚人的預算,製作出一台濫殺無辜的高效機器。可怕的不是機器本身,而是黑客可以用比較適中的價格,用它們來做什麼樣的事情。

容易被改造和利用

不妨想像一下:一個正在崛起的的暴君,決心辣手摧毀反對派,他擁有一個資料庫,知道每個人對他的忠誠度高低,以及地址和照片。在以前,暴君需要一支軍隊來完成這個任務,而還需要賄賂士兵,或者給他們洗腦,才能讓他們槍殺無辜者。

而以後,暴君只需要花上幾千美元,購買一些搭載自動槍械的無人機,就可以如願以償了。依照摩爾定律(自從電晶體的發明以來,1美元成本的計算能力是呈指數級增長的),人工智慧無人機的價格某一天會降到和一支AK-47差不多。給四個軟體工程師洗洗腦,其中就有三個有能力給無人機重新編程,讓它們前去附近異見者的住處和工作場所,當場射殺他們。無人機犯錯誤的可能性更小一些,而且也不需要賄賂或者洗腦,最重要的,它們的工作效率比人類士兵高得多。在國際社會還沒有來得及做出任何反應之前,野心勃勃的暴君就已經血洗了反對派陣營。

自動化大幅提高了效率,因此對於任何想要犯下這種暴行的瘋子來說,人工智慧武器的門檻也降低了。當年的獨裁者需要動用一整支軍隊才能做到的事情,現在只要有點錢的人就能辦到了。

有興趣研發這種武器的製造商和政府可能會聲稱,他們可以提供出色的保障措施,以確保這些機器不能被重新編程,不會遭到黑客攻擊。對於這種說法,我們最好是保持懷疑態度。電子投票機、自動取款機、藍光光碟播放機,甚至飛馳在高速公路上的汽車,儘管都曾標榜自己有很高的安全性,最近卻都已被黑客攻破。歷史事實已經證明,在計算設備和試圖改變其利用方式的黑客之間,贏家往往是黑客。人工智慧武器不可能會是例外。

禁用人工智慧武器

1925年簽訂的國際條約禁止在戰爭中使用化學武器和生物武器。而中空彈(Hollow Point Bullet)早在1899年就被禁用,因為這些武器會導致極大的、不必要的痛苦。它們特別容易導致平民傷亡。比如公眾可能會吸入毒氣,醫生在嘗試取出中空彈時可能會受傷。這些武器很容易給無辜者造成痛苦和死亡,所以它們遭到了禁用。

是否有某種類型的人工智慧機器同樣也應該被禁用呢?答案是肯定的。如果一種人工智慧機器可以很便宜、很容易地改造成高效的無差別大殺器,那么我們就應該制定禁止它的國際公約。這樣的機器與放射性金屬在本質上沒有什麼不同。它們都可以和平利用,造福人類。但是我們必須小心翼翼地對它們加以管控,因為它們很容易被改造成毀滅性武器。不同的是,對人工智慧機器進行改造,將其用於破壞性目的,遠比把核電站的反應堆改成核武容易得多。

我們應該禁止人工智慧武器,這不是因為它們全都具有不道德的屬性,而是因為人們可以利用在網上找到的資料,把人工智慧武器改裝成“猙獰的嗜血怪物”。只需一段簡單的代碼,就可以把很多人工智慧武器轉變成不亞於化學武器、生物武器和空心彈的殺人機器。

恐怖分子正在“積極尋求”

近期,聯合國一份研究報告警告稱,恐怖分子正在“積極尋求”獲得人工智慧武器。

相關詞條

熱門詞條

聯絡我們