AI教父後悔了!警告:生成式AI可能「導致人類滅亡」

發表於 2023-05-09 20:00 作者: 區塊鏈情報速遞pro

被譽為「深度學習之父」的 傑佛瑞·辛頓(Geoffrey Hinton )在離開 Google 後,多次提及自己對 AI 的擔憂,他近日再表示 AI 可能對人類的存在構成危機,所有人都該意識到風險。 (前情提要:用生命阻止AI毀滅人類!AI教父離開Google:後悔研究人工智慧) (背景補充:巴菲特憂 AI 如原子彈危險:我們無法取消他的發明!查理芒格懷疑是炒作)

 

譽為「AI 教父」、「深度學習之父」的 傑佛瑞·辛頓(Geoffrey Hinton )在上月宣傳出已從效力 10 年的 Google 離職,震驚業界。他提到過去 50 年來對神經網路與深度學習研究始終抱持著熱情,不過在一個月前,這份熱愛陡然間轉變成了恐懼。

AI 教父:AI 可能對人類的存在構成危機

辛頓警告生成式 AI 已取得重大突破,可能對人類的存在構成危機,他認為現在 AI 和人腦在運作方式上的本質是完全不同的。

此外,辛頓還指出大型語言模型(如GPT-4)已經展現出驚人的性能,擁有比人類更廣泛的知識。這些大模型能夠從龐大的人類數據中學習,並可能揭示出人類難以察覺的結構,這意味著 AI 可能比人類更了解人類。他舉例:

如果你看看 GPT-4,它已經可以進行一些簡單的推理。我的意思是,推理是我們目前仍然擅長的領域。但是前不久,我對 GPT-4 能夠進行一個常識推理的表現感到驚訝,這是我原本以為它不會能夠做到的。

我問它:「我希望我房子裡的所有房間都是白色的。但是目前,有些房間是白色的,有些是藍色的,還有些是黃色的。而黃色的油漆一年後會褪成白色。如果我希望它們在兩年內都變成白色,我應該怎麼做?」GPT-4 竟然回答說,「你應該把所有的藍色房間都漆成黃色。」儘管這不是最好的解決方案,但它確實有效。

這是相當令人印象深刻的常識推理,對於使用符號式的人工智慧來說非常困難,因為你必須理解「褪色」的含義,還要理解「雙時間點」的概念。這再度證明人工智慧正以智商約 80 或 90 的方式進行合理的推理,這非常可怕。

所有人都該意識到 AI 的風險

對於如何預防 AI 所帶來了的威脅和挑戰,辛頓表示目前沒有確切解決方案,但這需要引起人們的共同關注。另一個可怕的點是,或許可能根本就不存在防止 AI 過度強大的技術解決方案,因為 AI 之所以是 AI,就是因為其學習能力極為強大,能攻克所有防止它強大的技術。

儘管辛頓多次提及自己對 AI 的擔心,但他仍不否認 AI 的優點和其巨大的潛力,例如醫療、環保和科技研究…等領域。因此他呼籲與其禁止發展,不如加強監管,讓所有人都意識到 AI 的風險,這才是最重要的。

最後,辛頓也出面澄清,他離開是為了可以在不顧慮 Google 的狀況下評論 AI 的危險性,但並不是為了批評 Google 本身;Google 對 AI 的態度是很負責的。

標題:AI教父後悔了!警告:生成式AI可能「導致人類滅亡」

地址:https://www.coinsdeep.com/article/13245.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

你可能還喜歡
熱門資訊