人工智慧恐懼症

人工智慧恐懼症

人工智慧恐懼症是指人類對於人工智慧的發展,會導致人類的“終結”,造成人類心理所潛在的“惡”的恐懼。

概述

人工智慧恐懼症人工智慧恐懼症

不斷發展的科技水平,越來越清晰地告訴人類:人工智慧超越人類智慧,即便還有相當漫長的一段路要走,但它就在未來的某一天等著我們。這從人類已經表現出來的,對於未來人工智慧發展的擔憂與恐懼中。

所以,一旦有人感覺到迅速發展的高科技超越了他們的可控範疇,那么焦慮和絕望的悲觀“科技恐懼”便油然而生。而這種心理,從本質上來講,並不是來源於智慧型機器人的威脅,即使是,那也是基於人類設定的前提之下的想像。真正的威脅,其實還是來自於人類自身。就像《2001:太空漫遊》中的HAL-9000,替人類說出了長久以來三緘其口的信仰問題:對造物主的質疑,人類是否可以反抗上帝。

就如中國幾千年文化中一直所爭論的:到底是“人之初,性本善”,還是“人之初,性本惡”,或許這還將會在人工智慧領域再次延續著。因為人工智慧是善是惡,還是取決於人類這個環境。同樣,人工智慧最終是“融入”還是“叛變”人類,也取決於人類自身。專家認為:與其說是人工智慧對人類的生存和發展構成威脅,還不如理解為,人工智慧其實是對人類人性的一種挑戰。

憂慮起源

自從十七世紀帕斯卡爾(B.Pascal)和萊布尼茨(G.W.vonLeibniz)的機械計算器問世以來,人們對於人工智慧的態度,就一直處於既盼望又恐懼的矛盾情結中。

早在1942年,科幻作家艾薩克·阿西莫夫創造了著名的“機器人三大定律”:機器人不得傷害人類或坐視人類受到傷害、機器人必須服從人類的命令、在不違背第一和第二法則的前提下機器人必須保護自己。

2014年年底,霍金在接過科幻作品接力棒的時候,就直接給出了一個警告:人工智慧的發展可能意味著人類的末日。在2015年的博鰲亞洲論壇上,比爾·蓋茨再次提醒,“人工智慧方向是對的,但不能操之過急,不要輕易進入未知的領域。”

人工智慧PK人類智慧

不管你有多少懷疑,有多么不願意承認,在將來的某一天,人工智慧都有非常大的可能超越人類智慧。這我們可以從人腦與機器在“硬體”和“軟體”兩個維度進行比較分析:

“硬體”:生理學上的腦容量

據研究表明:人的聰明程度跟大腦容量息息相關。美國維吉尼亞州立大學的工業和組織心理學家麥可·麥克丹尼爾(MichaelMcDaniel)通過影像技術測量大腦,證明大腦越大或腦容量與體表面積的比例越高的人越聰明,當然,這當中必須排除個別因大腦變異或腦積水導致增大腦容量等特殊情況;而且這個結論適用於所有年齡和所有性別群體。我們且不論該說法是否百分之百精準,有一點是明確的,那就是人的腦容量即便再大,在發展的一定時期都存在一定限度內的峰值。

在200萬年前,人的腦容量大約為600毫升;到了早期直立人時期,人腦的腦容量達到了900毫升;而到了現如今,人類的腦容量可以達到1500毫升左右。在這個過程中,隨著大腦的逐步增大,人類的聰明和智商呈跨躍式發展。我們有理由相信,如果給予足夠長的時候,人類大腦的智慧增長還是有非常大的空間的。但是,基於目前的情況,囿固於當前的人類本身這個載體,卻很難實現腦容量的無限大。

而且,從目前的現實狀況來看,人類大腦面對當下海量的數據信息已經顯得有點手足無措。一方面,資訊的更新速度在以人類閱讀能力的幾何倍數級增長;另一方面,我們的大腦在已經到來的物聯網、大數據時代,已經難以招架海量的數據,更別說準確地對這些數據進行分析判斷從中尋找所要的答案。這必然致使人類在發展的道路上,顯得越來越迷茫且焦慮。

基於機器設備的人工智慧則可以突破人類大腦的這個局限。從“硬體”容量來說,人工智慧對信息數據的存儲可以趨近於無窮大,當然這也是一種相對理想狀態。而從記憶速度與提取效率來說,尤其在大數據的分析與測算基礎上,人工智慧對所存儲信息的調取會越來越迅速,而且不存在“遺忘”一說。

這讓我們有理由相信:單單從“硬體”方面來考慮,人工智慧完全有可能比人類更聰明。

“軟體”:思維能力共享

人腦除了具有信息的獲取和存儲能力之外,更重要的還是在所存儲信息的基礎上進行推理、判斷、分析問題等功能,也就是我們通常講的人的思維和主觀能動性,人腦“聰明”的真正考量標準。這也是很多人爭議的焦點:人工智慧真的會有類似於人類的思維嗎?

2014年的今天,英國媒體刊登的署名安賈娜·阿胡賈的文章稱,科學家已經發明出擁有思考能力的機器,可以與人類進行文本會話,其自然語言邏輯性之強,使得人類已無法分辨自己是與人類交談還是與一個機器。而且,艾倫·圖靈也曾提出,如果一台機器的“交流”能力足以讓用戶以為自己是在與一個真正的人互動,那么這台機器可以說是擁有思考能力。而已經有偽裝成烏克蘭少年的超級計算機通過了人工智慧的圖靈基準測試。

異曲同工,中國的“百度大腦”已經擁有200億個參數,構造起了世界上最大的深度神經網路,已經具備了2~3歲孩子的智商。根據摩爾定律,百度大腦再繼續做十年、二十年的話,很有可能就會比人腦還要聰明。因為技術的發展可以使得人的智力越來越大程度地被電腦所模仿,而融入了人工智慧的電腦不僅可以達到人腦的智力,還可以具備人腦的邏輯能力。

擔憂與恐懼

人工智慧的發展,真的會導致人類的“終結”嗎?這種惡的想像,是必然的嗎?其實,人類關於人工智慧發展控制的需求,與其說是對機器人強大後對人類“叛變”的焦慮,倒不如說是人類對於科技發展後,人類心理所潛在的“惡”的恐懼。人類糾結於有那么一天,機器人會反抗他們的“人類”造物主,以致用他們超越人類的能力將人類趕盡殺絕。而事實上這反映出的,只是人類對自身內心深處那一股“惡”的力量的不可控。

從科技的本質講,就是一柄雙刃劍。科技能為人類社會改進提供多大的動力,就意味著它反過來蘊含著多大的破壞性。火藥如是,核能如是,基因科技亦如是。經歷過車諾比山羊多莉的現代社會,警惕科技潛在的失控風險。

怎樣才算失控

類似社會制度對人工智慧的失控(比如被某狂人操控)、或是將人工智慧直接運用於無法逆轉的關鍵性領域(比如控制人類生育、動手挖開地核等不靠譜的事兒)而失控等,最基本的前提還是人工智慧已經達到了高度擬人階段。

什麼算是高度擬人?就是人工智慧必須真的能具備(或模仿)人類的獨立思考、價值判斷乃至審美-創造等精神活動的能力。而這也意味著,人工智慧要么能實現對人類思維非算法特質(如察言觀色、靈感、審美、洞察力和創造力等)的模擬,要么是實現了人類精神的強物理還原,即認為所有的人類精神活動都可以化約為某種(哪怕極其複雜)的算法運算。

解決這類人工智慧完備性難題(人工智慧-Completeor人工智慧-HardProblems)的兩大邏輯方向,到底哪一種更有可能(或許在許多研究者看來,也可以說,哪一種更不可能)?這在人工智慧領域依然是未知之數。這其中所需要跨越的理論門檻,並不是“哈利·波特們”一句簡單的“守護神呼喚咒語(ExpectoPatronum)”就可以解決的。

未來誰來主載

就人工智慧本身而言,更多的就像是一個人類的小孩,它的成長與變化首先取決於人類給予的環境。在影片《人工智慧》中,未來世界人性泯滅,而機器男孩戴維則成為了“人性”的代表,他善良、真誠、渴望被愛。在《霹靂五號》中,Johnny5被雷擊後“活”了過來,正直、幽默、熱愛生命的心靈讓人動容。同時,還有我們非常熟悉的哆啦A夢、阿童木以及阿拉雷等卡哇伊的機器人形象。這些都是人類的作品——“人工智慧”的一種表現,它們傳達的是接受於人類所傳遞給他們的信息。就如部分科學家所言,在未來,人工智慧會成為“人類智慧的容器”;而人工智慧的走向同樣受到人類主觀能動性的影響。

《終結者》中,“天網”本身是一個超級武器,人類給其灌輸了要消滅一切威脅的指令,它也堅決地執行了。而當“天網”發動啟示錄戰爭要毀滅人類的時候,其根本原因也是因為人類感到害怕,要永遠關掉它,而這被“天網”認定為是一種威脅。在《復仇者聯盟:奧創紀元》中,人工智慧奧創以“殺戮”的方式,忠實地履行著創造者維護和平的意願。因為在它看來,這手段最行之有效。
同樣,在《超能查派》里,具有自我思維的機器人查派,剛被植入程式的時候就像一個新生兒,它的成長與改變無不源於環境對於“人工智慧”的影響。而在這個環境中起最大作用的,就是人類。影片中,由迪恩研發控制的警用機器人很好地維護著社會治安。而結果出問題的,不是人工智慧查派或警用機器人,則是人類自己文森特。如果有一天,人類真的被人工智慧所“終結”,那么,真正的罪魁禍首必將也是人類自己的自私、貪婪與邪惡,人工智慧充其量只是一種工具和手段。

一言以蔽之:終結人類者,必只有人類自己!

相關詞條

相關搜尋

熱門詞條

聯絡我們