比爾蓋茨最新博文:AI的風險確實存在 但是可控
發表於 2023-07-16 17:00 作者: 36氪
作者:黃金瓊
ChatGPT爆火半年有多,在快速發展之余,除了解決技術問題,合規可能會是接下來的老大難——在國會傳訊Sam Altman後,如今FTC(美國聯邦貿易委員會)也正式對ChatGPT進行調查。
這與前幾天比爾蓋茨的發聲相呼應。他在最新博文中表示:AI是最具變革性的創新,誠然有風險,但風險也可控。
在博文中,比爾蓋茨主要討論了人工智能的風險和挑战,以及如何應對這些問題,其中還提供了一些例子和建議。
比爾蓋茨首先對如今人們存在的對AI擔憂表示肯定——現在正處於人工智能深刻變革的時代,這是一個不確定的時代。但他樂觀地認爲,這些風險都是可控的。
其次,比爾蓋茨也列出了當前AI所引發的風險,包括人工智能生成的深度僞造和錯誤信息可能會破壞選舉和民主、使得個人和政府發動攻擊變得更加容易、將奪走人們的工作以及AI繼承人類偏見並胡編亂造,學生不會學習寫作因爲AI會替他們完成等。
最後,比爾蓋茨也提出一系列監管AI的建議。在各國政府層面,各國政府需要積累人工智能方面的專業知識,以制定應對AI的法律法規,來應對虛假信息和深度僞造、安全威脅、就業市場變化以及對教育的影響等問題。
而在解決方式上,政府領導人要與其他國家進行合作,而不應該是單打獨鬥,還要與人們進行知情的、深思熟慮的對話的能力。
此外,對企業來說,AI公司要具有負責任的態度,工作开展要保證安全性,包括保護人們隱私等等。
以下爲全文內容,翻譯來自GPT-4,經36氪編輯整理:
人工智能帶來的風險似乎壓倒一切。那些失去工作被智能機器取代的人該怎么辦?AI會影響選舉結果嗎?如果未來的AI決定不再需要人類,想要擺脫我們,該怎么辦?
這些都是合理的問題,我們需要認真對待它們所引發的擔憂。但我們有充分的理由相信我們能夠應對這些問題:這並不是第一次在重大創新中,引入了必須加以控制的新威脅,我們以前也曾遇到過。
無論是汽車的問世,還是個人電腦和互聯網的興起,人們都曾歷經過其他變革時刻,盡管經歷了許多動蕩,但最終都得到了更好的發展。第一輛汽車上路後不久,就發生了第一起車禍。但我們並沒有禁止汽車,而是採用了限速、安全標准、駕照要求、酒駕法以及其他道路規則。
我們現在正處於另一場深刻變革的初期階段,即AI時代,這與限速和安全帶之前的不確定時代相類似。人工智能的變化如此之快,以至於我們還不清楚下一步會發生什么。我們正面臨着由當前技術運作方式、人們將其用於惡意意圖的方式以及人工智能如何改變我們作爲社會成員和個體所引發的重大問題。
在這樣的時刻,感到不安是很自然的。但歷史表明,解決新技術帶來的挑战是可能的。
我曾經寫過人工智能將如何徹底改變我們的生活,它將幫助解決健康、教育、氣候變化等方面過去似乎難以解決的問題。蓋茨基金正在把這個問題作爲優先事項,我們的首席執行官馬克-蘇茲曼(Mark Suzman)最近分享了他對AI在減少不平等中的角色的思考。
我將在未來更多地討論人工智能的好處,但在這篇文章中,我想談談我聽到和讀到的最常見的擔憂,其中許多我也有同感,並解釋一下我是如何看待這些擔憂的。
從迄今爲止關於人工智能風險的所有文章中,有一件事情很明確,那就是沒有人擁有所有的答案。另一點對我來說很明確的是,人工智能的未來並不像某些人想象的那樣嚴峻,也不像其他人想象的那樣美好。風險是真實存在的,但我樂觀地認爲這些風險是可以控制的。當我逐一討論每個問題時,我將回到幾個主題:
人工智能引發的許多問題都有歷史先例。例如,它將對教育產生巨大影響,但幾十年前的便攜式計算器,以及最近的允許電腦進入課堂也是如此,我們可以借鑑過去的成功經驗。
人工智能帶來的許多問題也可以在人工智能的幫助下得到解決。
我們需要調整舊法並頒布新法——就像現有的反欺詐法律必須適應網絡世界一樣。
在這篇文章中,我將重點關注已經存在或即將存在的風險。我並不打算討論當我們开發出一種能夠學習任何學科或任務的人工智能時會發生什么。相反,我今天討論的是專門構建的AI。
無論我們是在十年內還是一個世紀內達到這一點,社會都將需要面對一些深刻的問題。如果一個超級AI確立了自己的目標怎么辦?如果它們與人類的目標相衝突怎么辦?我們是否應該制造超級AI?
但是,在考慮這些長期風險時,不應忽視眼前的風險。我現在來談談這些短期的風險。
AI生成的僞造內容和錯誤信息可能會破壞選舉和民主
利用技術傳播謊言和不實信息並不是什么新鮮事。幾個世紀以來,人們一直通過書籍和傳單來傳播謊言。隨着文字處理機、激光打印機、電子郵件和社交網絡的出現,這種做法變得更加容易。
人工智能將這個假文本的問題擴大化,使幾乎任何人都可以制作僞造的音頻和視頻,這就是所謂的深度僞造。如果你收到一個看起來像你孩子的聲音信息說“我被綁架了,請在接下來的10分鐘內向這個銀行账戶匯款1000美元,並且不要報警”,那么它將產生遠超過同樣內容的電子郵件的恐怖情緒影響。
在更大的範圍內,人工智能生成的深度僞造可能會被用來試圖影響選舉結果。當然,不需要復雜的技術就可以對選舉的合法贏家產生懷疑,但人工智能將使這一過程變得更加容易。
目前,已經出現了一些虛假視頻,這些視頻中包含了衆所周知的政治家被編造的片段。想象一下,在一次重要選舉的早晨,一段顯示某位候選人搶劫銀行的視頻在網上瘋傳。即使這是假的,但新聞機構和競選團隊花了幾個小時才證明這一點。有多少人會看到這段視頻並在最後一刻改變投票?這可能會改變比賽的結果,尤其是在選情膠着的情況下。
最近,Open AI聯合創始人Sam Altman在美國參議院委員會作證時,來自兩黨的參議員都對人工智能對選舉和民主的影響有所關注。我希望這個話題能繼續引起每個人的關注。我們確實還沒有解決假信息和深度僞造的問題。但有兩點讓我保持謹慎樂觀。一是人們有能力學會不輕信一切。多年來,電子郵件用戶常常上當受騙,因爲有人冒充尼日利亞王子,承諾只要分享信用卡號碼就能獲得巨額回報。但最終,大多數人學會了對這些郵件進行二次審查。隨着詐騙手段越來越高明,許多目標也變得越來越狡猾,我們需要爲深度僞造建立同樣的防範意識。
另一件讓我充滿希望的事情是,AI不僅可以創建深度僞造,還可以幫助識別它們。例如,英特爾开發了一種深度僞造檢測器,而政府機構DARPA正在研究如何識別視頻或音頻是否被篡改。
這將是一個循環過程:有人找到了檢測造假的方法,有人想出了對付它的辦法,有人开發出了反制措施,如此循環往復。這不會是一個完美的成功,但我們也不會束手無策。
人工智能使得人類和政府發動攻擊變得更加容易
如今,當黑客們想找到軟件中的漏洞時,他們會通過暴力編寫代碼,對潛在的弱點進行攻擊,直到發現漏洞爲止。這需要走很多彎路,因此需要時間和耐心。
想要打擊黑客的安全專家也必須做同樣的事情。你在手機或筆記本電腦上安裝的每一個軟件補丁,都代表着善意或惡意的人花費了許多時間的搜尋。
人工智能模型將通過幫助黑客編寫更有效的代碼來加速這一進程。他們還將能夠利用個人的公共信息,如工作的地方和他們的朋友是誰,來开發出比我們現在看到的更先進的網絡釣魚攻擊。
好消息是,人工智能既可用於惡意目的,也可以用於良好的目的。政府和私營部門的安全團隊需要擁有最新的工具,以便在犯罪分子利用安全漏洞之前發現並修復它們。我希望軟件安全行業能夠擴大他們在這方面已經开展的工作,這應該是他們最關心的問題。
這也是爲什么我們不應該像某些人建議的那樣,試圖暫時阻止人們施行人工智能的新發展。網絡犯罪分子不會停止制造新工具,想要利用人工智能設計核武器和生物恐怖襲擊的人也不會停止,阻止他們也需要以同樣的速度繼續進行。
在全球層面也存在相關風險:AI軍備競賽可用於設計和發動針對其他國家的網絡攻擊。每個國家的政府都希望擁有最強大的技術,以阻止對手的攻擊。這種“不讓任何人搶先”的動機可能會引發一場制造日益危險的網絡武器的競賽。這樣一來,每個人的處境都會變得更糟。
這是一個可怕的想法,但我們有史爲鑑。盡管世界核武器防擴散機制存在缺陷,但它阻止了我們這一代人在成長過程中非常害怕的全面核战爭的發生。各國政府應考慮建立一個類似於國際原子能機構的全球人工智能機構。
人工智能將奪走人們的工作
未來幾年,人工智能對工作的主要影響將是幫助人們更高效地完成工作。無論是在工廠工作,還是在辦公室處理銷售電話和應付账款,都將如此。最終,AI在表達思想方面的技能將足夠好,以至於它能夠爲你寫郵件並管理你的收件箱。你將能夠用簡單的英語或任何其他語言編寫一份請求,並生成一份內容豐富的工作報告。
正如我在正如我在2月份的文章中所說,生產力的提高對社會有益。這使得人們有更多的時間去做其他事情,無論是在工作中還是在家中。而且,對助人爲樂者的需求永遠不會消失,例如教書育人、照顧病人和贍養老人。
但是,在我們向人工智能驅動的工作場所過渡的過程中,一些工人確實需要支持和再培訓。這是政府和企業的職責所在,他們需要很好地管理它,這樣工人們才不會被拋棄,避免像美國制造業工作崗位減少時發生的那種對人們生活的幹擾。
此外,請記住,這並不是新技術第一次導致勞動力市場發生重大變化。我認爲人工智能的影響不會像工業革命那樣巨大,但肯定會像個人電腦的問世那樣巨大。文字處理應用軟件並沒有消除辦公室工作,但卻永遠地改變了辦公室工作。僱主和員工必須適應,他們也確實做到了。人工智能帶來的轉變將是一個崎嶇的過渡,但我們完全有理由相信,我們能夠減少對人們生活和生計的幹擾。
人工智能繼承了我們的偏見並胡編亂造
幻覺,這是指人工智能自信地作出一些根本不真實的聲明,且通常發生的原因是機器不理解你的請求的背景。如果你讓一個人工智能寫一個關於去月球度假的短篇故事,它可能會給你一個非常富有想象力的答案。但是如果你讓它幫你規劃一次前往坦桑尼亞的旅行,它可能會試圖把你送到一個不存在的酒店。
人工智能的另一個風險是,它反映出甚至加劇了人們對某些性別身份、種族、民族等的現有偏見。
要明白爲什么產生這樣的幻覺和偏見,了解當前最常見的AI模型如何運作是非常重要的。它們本質上是非常復雜的代碼版本,可以讓您的電子郵件應用程序預測您要輸入的下一個單詞:在某些情況下,幾乎是網上所有可用的文本,它們掃描海量文本,然後進行分析,找出人類語言中的模式。
當你向人工智能提出一個問題時,它會查看您使用的單詞,然後搜索經常與這些單詞相關聯的文本。如果您寫下“列出煎餅的配料”,它可能會注意到“面粉、糖、鹽、發酵粉、牛奶和雞蛋”這些詞經常與該短語一起出現。然後,根據它所知道的這些單詞通常出現的順序,它會生成一個答案(這種方式工作的AI模型使用的是所謂的轉換器,GPT-4就是這樣一個模型)。
這個過程解釋了爲什么人工智能可能會產生幻覺或出現偏差,它對你提出的問題或告訴它的事情沒有任何上下文理解。如果你告訴它打錯了,它可能會說“對不起,我打錯了”。但這只是幻覺,它並沒有打錯任何東西,它之所以這么說,是因爲它已經掃描了足夠多的文本,知道“對不起,我打錯了”是人們在被糾正後經常寫的一種句子。
同樣,AI模型也會繼承它們所訓練的文本中固有的偏見。如果一個人讀了很多關於醫生的文章,而文章中大多提到男性醫生,那么它的答案就會假定大多數醫生都是男性。
盡管一些研究人員認爲幻覺是一個固有的問題,但我並不同意。我樂觀地認爲,隨着時間的推移,我們可以教會AI模型區分事實和虛構。例如,Open AI在這方面做了很有前途的工作。
包括阿蘭·圖靈研究所和國家標准與技術研究所在內的其他組織正在解決偏見問題。一種方法是在AI中加入人類價值觀和更高層次的推理。這類似於有自我意識的人類的工作方式:也許你認爲大多數醫生都是男性,但你對這一假設有足夠的意識,知道你必須有意識地與之鬥爭。人工智能也可以以類似的方式運行,尤其是如果模型是由來自不同背景的人設計的。
最後,每個使用人工智能的人都需要意識到偏見問題,並成爲一個知情的用戶。你要求人工智能起草的論文可能會充滿偏見,就如同充滿了事實錯誤一樣。你需要檢查你的AI的偏見,以及你自己的偏見。
學生不會學習寫作,因爲AI會替他們完成寫作
許多教師擔心AI會破壞他們與學生的工作。在一個只要能上網,任何人都能用人工智能寫出可圈可點的論文初稿的時代,有什么能阻止學生將其作爲自己的作品上交呢?
已經有一些AI工具在學習判斷一篇文章是由人類還是電腦寫的,所以教師們可以知道他們的學生是否在做自己的作業。但是有些教師並沒有試圖阻止他們的學生在寫作中使用AI,他們實際上是在鼓勵它。
今年1月,一位名叫切麗·希爾茲(Cherie Shields)的資深英語教師在《教育周刊》(Education Week)上發表了一篇文章。的文章上發表了一篇文章,介紹了她如何在課堂上使用Chat GPT。Chat GPT幫助她的學生從开始寫一篇作文到攥寫大綱,甚至給他們的作業提供反饋。
她寫道:“教師必須接受人工智能技術,將其作爲學生可以使用的另一種工具。就像我們曾經教學生如何進行正確的谷歌搜索一樣,教師應該圍繞Chat GPT機器人如何協助論文寫作設計清晰的課程,承認人工智能的存在並幫助學生使用它可以徹底改變我們的教學方式。”並非每位教師都有時間學習和使用新工具,但像Cherie Shields這樣的教育工作者提出了一個很好的論點,即那些有時間的教師將受益匪淺。
這讓我想起了上世紀七八十年代電子計算器普及的時代。一些數學教師擔心學生會停止學習基本算術,但另一些教師則接受了這項新技術,並將重點放在算術背後的思維能力上。
人工智能還可以幫助寫作和批判性思維。特別是在早期,當幻覺和偏見仍然是一個問題時,教育工作者可以讓人工智能生成文章,然後與學生一起檢查事實。教育非營利組織如可汗學院和OER項目等爲教師和學生提供免費的在线工具,這些工具非常重視對論斷的檢驗,沒有什么技能比知道如何辨別真假更重要了。
我們確實需要確保教育軟件有助於縮小成績差距,而不是使其變得更糟。如今的軟件主要面向那些已經有學習動力的學生。它可以爲你制定學習計劃,爲你提供好的資源,並測試你的知識。但是,它還不知道如何吸引你去學習你還不感興趣的科目。這是开發人員需要解決的一個問題,以便讓所有類型的學生都能從人工智能中受益。
接下來要做什么?
我相信,我們有更多的理由樂觀地認爲,我們可以在管理人工智能風險的同時最大限度地發揮其效益,但我們需要快速行動。
各國政府需要積累人工智能方面的專業知識,以便制定應對這一新技術的法律法規。他們需要應對錯誤信息和深度僞造、安全威脅、就業市場的變化以及對教育的影響。僅舉一例:法律需要明確哪些用途的深度僞造是合法的,以及應該如何標注深度僞造,以便每個人都能明白他們看到或聽到的東西是假的。
政治領導人需要具備與選民進行知情的、深思熟慮的對話的能力。他們還需要決定在這些問題上與其他國家合作的程度,而不是單打獨鬥。
在私營部門,AI公司需要在安全和負責任的前提下進行他們的工作。這包括保護人們的隱私,確保他們的人工智能模型反映人類的基本價值觀,最大限度地減少偏見,讓盡可能多的人受益,並防止技術被犯罪分子或恐怖分子利用。許多經濟領域的公司都需要幫助其員工過渡到以AI爲中心的工作場所,這樣就不會有人掉隊。而且,客戶應始終知道他們是在與人工智能還是人類互動。
最後,我鼓勵大家盡可能關注人工智能的發展。這是我們有生之年將看到的最具變革性的創新,健康的公共辯論將取決於每個人對這項技術本身、優點和風險的了解。人工智能將帶來巨大的利益,而相信我們能夠控制風險的最好理由就是我們曾經能夠做到了。
標題:比爾蓋茨最新博文:AI的風險確實存在 但是可控
地址:https://www.coinsdeep.com/article/23271.html
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
上一篇