Press "Enter" to skip to content

AI世代與我們的未來:人類智慧和人工智慧正在互相認識

文 / 亨利.季辛吉(美國前國務卿)
艾力克.施密特(Google前執行長)
丹尼爾.哈騰洛赫(MIT首任計算學院院長)

譯 / 葉妍伶

編按:人工智慧必將帶來劃時代的改變,會扭轉我們的社會、經濟、政治和外交政策,這一切影響遠遠超過任何領域的傳統範疇,而我們做好準備了嗎?美國前國務卿亨利.季辛吉(Henry A. Kissinger)、Google前執行長艾力克.施密特(Eric Schmidt)、MIT首任計算學院院長丹尼爾.哈騰洛赫(Daniel Huttenlocher),三位世界上極富成就的思想家齊聚一堂,思考人工智慧將如何改變我們與知識、政治和所生活的社會之間的關係,探索人工智慧對我們所有人的意義。我們正在經歷一個空前的、不同於以往的時代。(*本文摘自《AI世代與我們的未來》,標題為編者擬。)

人工智慧、自由資訊和獨立想法

那麼,我們和人工智慧的關係應該如何?人工智慧要被限制、被賦權,還是要和人類搭檔來管理某些空間?某些資訊,尤其是刻意錯誤資訊的散播,會煽動、破壞、分化社會,這無須爭議。有些限制很必要,不過人們現在如此迅速地譴責、打壓有害訊息,也應該要引起大眾反省。在自由社會裡,「有害」與「不實資訊」的定義不應該是一間企業說了算。如果這些事情委託給一個政府小組或機構,這個組織應該要根據明確定義的公共標準來運作,採取可驗證的程序,以避免當權者濫用。如果這些事情是委託人工智慧演算法來進行,那麼演算法的目標函數、學習方式、決策和行動都要很清晰,並且接受外部審查,而且至少要能讓人類上訴。

當然,不同社會有不同的答案。有些可能會重視自由言論,可能因為這些社會對個人表達的理解不同,所以做法不同,而限制了人工智慧調整、修正內容的角色。每個社會都會選擇自己最重視的價值,或許會導致這些社會和跨國網路集團營運商的關係很複雜。人工智慧有很多孔隙,我們在設計和形塑人工智慧的時候,它就開始向人類學習了。因此,不但每個社會的選擇不同,每個社會和人工智慧的關係、對人工智慧的感知也不同,人工智慧模仿人類導師、向人類導師習得的模式也不會一樣。然而,對事實和真理的追求不應該引導社會去透過濾鏡來體驗生活,更何況這濾鏡的輪廓還不為人知、無法測試。現實的自發體驗,不管多矛盾、多複雜,對人類來說是很重要的一部分,就算有時候會沒有效率,甚至有時候會出錯也一樣。

我們可能別無選擇,只能栽培人工智慧,但我們也有責任要用一種和人類未來兼容的方式來塑造人工智慧。

人工智慧與國際秩序

全球有無數問題需要答案。人工智慧網路平臺要如何監管,才不會讓國家擔心安全受到影響,而引發國際間的緊張?這樣的網路平臺會不會侵蝕傳統的國家主權觀念?網路平臺帶來的改變會不會分化這個世界,比蘇聯垮臺時更嚴重?小國會反對嗎?若想要調節這些後果,能成功嗎?有成功的希望嗎?

人工智慧的能力愈來愈強,界定人類與人工智慧的夥伴關係就愈來愈重要、愈來愈複雜。大家可以設想這樣的一個世界:在許多重要的問題上,人類愈來愈服從人工智慧。若對手成功地部署了人工智慧,為了抵禦人工智慧的攻擊,領導者能夠負責任地決定不部署自己的人工智慧嗎?即使他們不確定部署之後會有什麼變化。如果人工智慧擁有卓越的能力,可以推薦行動方案,即使這個行動方案會需要付出某種程度的犧牲,政策制定者可以合理地拒絕嗎?哪個人類能知道這樣的犧牲是不是致勝的關鍵?如果真的是,政策制定者真的會想要拒絕嗎?換句話說,我們可能別無選擇,只能栽培人工智慧,但我們也有責任要用一種和人類未來兼容的方式來塑造人工智慧。

不完美是人類體驗中持續最久的特質之一,尤其是領導方式的不完美。政策制定者的顧慮往往都很狹隘,注意力一下子就分散掉了。有時,他們根據有瑕疵的假設來行動。其他時候,他們完全根據情緒來行動;還有些時候,意識型態扭曲了他們的視野。不管用什麼策略來建構人類與人工智慧的夥伴關係,領導階層都必須適應。如果人工智慧在某些領域展現出超人的能力,人工智慧的用途一定要能融入不完美的人類環境。

在安全領域裡,人工智慧系統反應敏捷,所以對手可能會在這個國家的系統可以開始營運之前便發動攻擊,結果造成一種本質上非常不穩定的局勢,堪比核武所帶來的影響。不過,核武在一個由各國政府、科學家、戰略家和倫理學家,花費數十年所發展出來的安全與軍備控制國際框架中改進、辯論和談判,而人工智慧和網路武器都沒有類似的框架。事實上,政府可能不願意承認人工智慧和網路武器的存在。各國——或許還包括科技公司——需要針對人工智慧成為武器後要如何共存,達成共識。

人工智慧通過政府國防擴散,會改變國際平衡,這個均衡態勢是經過計算,才能在我們的年代撐下來。核武造價高昂,不過因為其大小和結構,很難隱藏;可是人工智慧是在電腦上運作,而電腦已經隨手可得了。訓練機器學習模型需要經驗和演算資源,創造人工智慧則需要大公司或大國家的資源。由於人工智慧的應用程式可以在比較小型的電腦上運行,所以人工智慧可以被我們料想不到的方式廣泛應用。最終,只要有筆記型電腦、連上網際網路,可以在暗網裡通行的人,就可以使用人工智慧武器嗎?政府會不會授權和政府只有一點點關聯或完全不隸屬於政府的行為者,運用人工智慧騷擾對手?恐怖分子會以資訊工程發動人工智慧攻擊嗎?他們能把這些攻擊嫁禍給其他國家和行為者嗎?

外交過去只發生在有組織、可預期的領域裡,需要大量資訊和行動。以前由地理和語言所劃出來的尖銳界線會持續消失。人工智慧翻譯會促進對話,不受到語言學習帶來的文化熟悉感影響。人工智慧網路平臺會促進跨境交流。此外,駭客攻擊和不實資訊會繼續扭曲人們的看法和評價。複雜性提高了,要制定可執行的協議,來獲得可預期的結果就更難了。

把人工智慧功能移植到網路武器上,會讓這困境更深刻。人類當初是把傳統武力(可和傳統策略協調的武器)和核武(傳統戰略不適用)生硬地區隔開來,迴避了核武的矛盾。核武會造成大規模的無差別破壞,而常規軍力則是有針對性的。然而,網路武器既有針對性,又能造成大規模毀滅,消除了其間的差異。搭配人工智慧之後,這些武器就更無法預測,而且毀滅力更強。同時,人工智慧網路武器在網路中移動時,屬性就更不明確了,也不會被偵測出來。網路武器和核武不同,只需要一個隨身碟就行了,還很容易擴散。在某些情況下,一旦完成部署,就很難控制,因為人工智慧的本質恆動,還可以隨機應變。

這種情況挑戰了以規則為基礎的世界秩序,而且還提出一個急迫的難題:要發展出對人工智慧進行軍備管制的概念。在人工智慧時代,無法依照歷史規則來運作嚇阻力,甚至可說根本不可能。在核子時代剛開始的時候,哈佛大學、麻省理工學院、加州理工學院領頭的教授(有政府經驗),一起發展出管制核武軍備的概念框架,經過討論得出實情,建立了架構(由美國和其他國家來實踐)。儘管學者的想法很重要,但這個架構是和美國國防部的常規作戰分開進行的,是在原本的觀念上新增,不是去調整原本的觀念。可是人工智慧的潛在軍事用途比核武更廣泛,而且至少目前攻擊和防守還無法明確劃分開來。

在這樣複雜且根本無法計算的世界裡,人工智慧還會造成另一種誤解和犯錯的機會。遲早,擁有高科技能力的大國必須進行持久的對話,這樣的對話應該集中在根本問題上:如何避免災難,並且活下來?

為了創造更好的社會,我們要冒什麼風險呢?如何才能將人工智慧隨機應變的特質,整合到傳統觀念裡的社會常規和國際均衡?

人工智慧和其他新興科技(例如量子運算),似乎讓人類更接近我們感知範圍以外的現實。然而,最終我們可能會發現,這些科技也有其局限,但問題是,我們還不了解這些科技的哲學意涵。科技驅動我們前進,但沒有意識,這是自動化過程。上回人類意識發生重大改變,是啟蒙運動時期,那是因為新科技產生新的哲學見解,而這些見解又被科技(以印刷的方式)傳播開來。在我們這個時代,新科技已經發展起來了,但還是需要哲學的引導。

人工智慧規模龐大,潛在利益深遠。人類在開發人工智慧,可是我們會用人工智慧來讓生活更好還是更差?人工智慧承諾要提供更強效的醫藥,更有效率、更公平的醫療服務,更永續的環境和各種進步;與此同時,人工智慧又可以扭曲資訊,或至少增加資訊的複雜度,以及辨識真相的困難度,讓很多人失去獨立推理和判斷的能力。

其他國家已經把人工智慧視為發展的項目。美國還沒系統性地探索人工智慧的範圍、研究人工智慧的影響或開啟相關流程來和人工智慧共容。美國必須把這些項目都當成國家優先發展項目,過程中需要各領域有豐富經驗的人一起合作,或許需要從政府、商界、學界遴選等級最高且受人敬重的一小群領導人物,才能從中獲益。

這樣的團體應該要至少有這兩項功能:

一、在國內,應該要確保國家在人工智慧領域維持智力與策略的競爭力。

二、在國內和國際上,應該要研究人工智慧帶來的文化意涵與影響,並提高覺知。

此外,這個團體應該要做足準備,和現有的國家級與其下轄團體共事。

我們撰寫本書,是為了全人類文明而努力——事實上,更可說是為了人類這個物種而努力。當初創造人工智慧的人不一定這麼想,他們的動機是要解決問題,不是思考或重塑人類的處境。科技、戰略、哲學要保持一定的一致性,避免其一超越另外兩項。我們要保護傳統社會嗎?那麼,為了創造更好的社會,我們要冒什麼風險呢?如何才能將人工智慧隨機應變的特質,整合到傳統觀念裡的社會常規和國際均衡?若發現自己沒有經驗與直覺,要尋求哪些問題的答案呢?

最後,有個「元」問題浮出了水面:人工智慧既以不同的方式詮釋和理解這個世界,人類對哲學的需求能不能在人工智慧的協助下得到滿足?人類能不能充分理解機器,和機器和平共處?我們的命運是不是要和機器共存,以改變這個世界?

康德在《純粹理性批判》的序言中表示:

人類理性在認知中有特定的命運,背負了許多理性不能置之不理的問題,因為這些問題就是理性所賦予的;但理性也不能回答這些問題,因為這些問題超越了人類理性的所有能力。

在接下來的幾個世紀,人類深入探究這些問題,其中一些深入心靈、理性和現實的本質。人類已經取得重大突破,也遇到康德提出的許多限制——這個領域有很多理性無法回答的問題,也有理性無法充分理解的事實。

人工智慧能夠以人類理性無法做到的方式來學習和處理資訊,或許人工智慧的出現會在一些超出我們能力的問題上取得進展。但成功會產生新問題,其中一些問題我們已經試圖在書中闡明。人類智慧和人工智慧正在互相認識,被應用於國家、大陸或全球規模的目標。理解這項轉變,並開發出指導倫理,需要科學家、策略專家、國家元首和哲學家、神職人員等社會各層面的承諾和見解,國家在其內部和國際之間也都必須做出承諾。現在就要定義我們和人工智慧的夥伴關係,以及這個夥伴關係會導致什麼樣的現實。

延伸閱讀:

| 閱讀推薦 |

《AI世代與我們的未來:人工智慧如何改變生活,甚至是世界?》

- 購書去 -

Be First to Comment

分享你的想法