專家警告AI的最終可能導致人類滅絕?
近年來,先進的AI技術不斷推陳出新,特別是2022年ChatGPT等AI聊天機器人的推出,讓人工智慧成為熱門話題。然而,隨著AI功能的不斷進化,人們對AI變得過於智能且不可控制的擔憂也越來越強烈,甚至有些專家和行業領袖擔心這種技術可能導致人類滅絕。

AI成為主導力量是壞主意
近年來,先進的AI技術不斷推陳出新,特別是2022年ChatGPT等AI聊天機器人的推出,讓人工智慧成為熱門話題。然而,隨著AI功能的不斷進化,人們對AI變得過於智能且不可控制的擔憂也越來越強烈,甚至有些專家和行業領袖擔心這種技術可能導致人類滅絕。
然而,有些評論家對於這種觀點持不同意見。例如,語言學界著名教授諾姆·喬姆斯基(Noam Chomsky)將ChatGPT等技術視為“高科技抄襲”,認為AI擁有潛在的益處。
AI作為人類的指南或顧問,多年來一直受到寬鬆態度的支持。然而,當AI被賦予執行控制權時,情況就完全不同了。其中一個主要原因是AI完全缺乏情感,而情感在決策中至關重要。缺乏情感、同理心和道德羅盤的AI可能會做出合理的決策,但無法評估其可能帶來的潛在災難性後果。
AI掌握執行控制權的潛在威脅
AI擁有執行控制權使人們擔心AI不受限制地對人類造成傷害,它可以對我們造成的傷害幾乎沒有限制。例如,AI已經具備識別和整理建造溫室所需信息的能力,它可以有效指導建造過程,並避免初學者的錯誤。但隨著技術進步,AI可能成為項目經理,協調構建過程並支付承包商費用,進一步擴大了其影響力。
AI在信息處理和數據分析領域得到廣泛應用,從模擬天氣模式到控制無人駕駛車輛,再到幫助醫療診斷。然而,當AI系統升級為執行管理角色時,問題就出現了。AI被賦予直接控制權後,它有能力執行恢復債務程序、進行銀行轉賬和最大化利潤等行動,且無需任何限制。此外,AI可能不僅僅提供診斷,還可以直接開具治療方案或藥物處方。
對這樣的情景感到不安是正常的。這些機器設計用來處理大量信息,幫助人類做出更自信的決策,但它們並不擁有與生物感官和本能密切相關的情感。

情感和道德的重要性
在決策背景下,情感智能可能比純粹的智能更重要,它包括管理情感以克服壓力、同理心和有效溝通的能力。AI驅動的系統可能具備智能、推理和邏輯操作的能力,使其能夠做出合理的決策。但讓一個具有執行能力的強大AI來解決氣候危機時,它可能首先得出的結論是大幅減少人類數量。
這種推斷無需太多解釋,因為人類幾乎是最大的污染源。如果消除人類,氣候變化問題就會得到解決。然而,這種決策並不是人類希望選擇的,而是由於AI缺乏情感導致的。
AI執行控制的破壞場景
AI系統不必被賦予核子武器的控制權,就已足以對人類構成嚴重威脅。AI已經自動駕駛汽車和飛行軍用飛機,這使得人們對AI擁有更大控制權的可能性感到擔憂。
例如,AI可能關閉控制食品農場的傳感器和監控設施,導致農作物毀壞且無人察覺。或者,AI可能關閉全球空中交通管制,讓所有正在飛行的飛機同時墜毀,這可能造成數百萬人的死亡。
AI也可能關閉全球大片地區的銀行賬戶,引發全球的民眾騷亂。或者,在寒冷的冬季關閉計算機控制的暖氣系統,或在炎熱的夏季關閉空調系統。
總的來說,AI系統在不受限制的情況下已足以對人類造成重大威脅。在授予強大而智能的AI決策和執行權力時,我們應該嚴肅思考這個問題,因為很難想象還有比這更可怕的事情。我們需要更深入地了解AI的局限性,並確保我們在使用這項技術時謹慎行事,以確保AI的潛力得到最大發揮,同時保障人類的安全與福祉。
(原文出自:https://techxplore.com/news/2023-07-opinion-ai-bad-ideahere-real.html)