ChatGPT爆重大漏洞:可能泄露1.2%用戶數據 AI安全引人震驚
發表於 2023-03-27 12:24 作者: 清元宇宙
美國時間3月25日,OpenAI官方發布了3月20日ChatGPT臨時中斷服務的調查報告,並表示有1.2%的ChatGPT Plus用戶可能數據被泄露。
根據OpenAI官網公告表示,3月20日以前,一個名爲Redis-py的开源庫中的錯誤造成了緩存問題,該問題會導致用戶可能看到其他人聊天記錄的片段,甚至會向一些活躍用戶顯示其他用戶信用卡的最後四位數字、到期日期、姓名、電子郵件地址和付款地址。
本來可能還只是零星的用戶出現該類BUG,但令人神經大條的是,在20號早上,OpenAI在對服務器進行更改的時候出現失誤,導致Redis請求取消激增,問題進一步的加劇,所以出現了這個“1.2%”的可能。
根據OpenAI官方的說法,有兩種可能會使這些信息被暴露:
1. 在特定時間內的付款確認郵件,可能會發給了一些錯誤的用戶,這些郵件上包含信用卡的後四位數字。
2. 在特定時間內,點擊“我的账戶”-“管理我的訂閱”,可能會導致另一個活躍用戶的姓名、電子郵箱、付款地址、信用卡後四位被泄露。
OpenAI表示,目前已經聯系了這些可能已經泄露信息的用戶。
網址:https://openai.com/blog/march-20-chatgpt-outage(網頁自動翻譯,或不准確)
爲了防止此類事情再次發生,OpenAI也在博文裏說明了他們已經採取的行動:添加“冗余檢查”以確保提供的數據與用戶匹配;改進修復了其Redis集群在高負載下吐出錯誤的可能性......而且還強調他們的Redis开源維護者一直是出色的合作者。
雖然問題已經解決,但還是有大量的網民們依舊質疑OpenAI的安全性,還有網民詢問,爲什么不能用GPT4檢查代碼上的錯誤。
可能是爲了安撫ChatGPT用戶的心緒,OpenAI CEO Sam Altman在當天立刻接受了媒體專訪。雖然只字未提此次用戶數據泄露事件,卻多次強調“AI安全”。
他提到了以下四點:
1.人工智能語言模型(如 GPT)的开發和改進需要一個包含公衆反饋的迭代過程,專注於解決偏見,並考慮 AI 安全性和一致性。
2.人工智能的進步,特別是GPT技術的進步,正在改變編程的性質,需要仔細考慮人工智能的安全性、語言輸出的監控和解決偏見。
3.人工智能的發展,特別是神經網絡,有可能超越人類智能,大大提高生活質量,但也帶來了重大的風險和挑战,必須通過不斷研究和开發人工智能安全性和一致性來解決。
4.OpenAI是一家營利性公司,致力於強大的AI技術,同時對安全問題保持透明。
OpenAI CTO Mira Murati也在其官網上發出自己的觀點,“人工智能系統正在成爲日常生活的一部分。關鍵是要確保這些機器符合人類的意圖和價值觀。”而如今,他們一手創造的ChatGPT正在挑战着他們所給到公衆的承諾。
隨着人類工作生活使用人工智能的頻次越來越高,AI安全問題也應該成爲我們在當下及未來相當長一段時間應該重視的問題,AI技術不能只考慮跑得快,還要考慮不翻車。
根據openAI官方解釋,這是由於緩存問題導致用戶信息泄漏,然而這種錯誤,在互聯網行業中,並不是第一起。
早在2015年的聖誕節,Steam也因爲緩存問題,使34000名左右用戶的個人信息被泄露。OpenAI投入巨量的精力和金錢在AI的潛在安全的研究上,卻被一個常見的老問題給絆倒。雖說“成大事者,不拘小節”,但“天下難事,必作於易;天下大事,必作於細。”希望未來OpenAI不會再出現此類的問題了。
我們詢問了GPT-4,AI安全問題應該如何解決,它回答道:
在人工智能(AI)領域,確保安全性是至關重要的。以下是一些建議和方法,以解決AI安全問題:
可解釋性和透明度:AI系統的設計應具備可解釋性,以便研究人員、用戶和監管機構理解其決策過程。提高透明度有助於確保AI系統的行爲符合預期,便於發現潛在的安全隱患。
數據安全和隱私:AI系統通常需要大量數據進行訓練。保護這些數據的隱私和安全至關重要。採用加密、數據脫敏和差分隱私等技術,以確保數據在處理、傳輸和存儲過程中得到保護。
魯棒性和抗攻擊能力:AI系統應具備對抗對手的能力,包括識別和抵御對抗性攻擊、欺騙性輸入等。研究魯棒性訓練方法,提高系統的抗幹擾能力。
可審計性:建立可審計的AI系統,以記錄關鍵決策過程。這將有助於追蹤潛在問題、確保合規性,並爲未來糾正錯誤和不當行爲提供依據。
倫理與法規遵循:確保AI系統符合倫理原則和法律法規,遵循公平、透明、可解釋等原則。研究AI倫理,制定相應的政策和指導方針。
持續監控和更新:隨着技術的進步和新的安全威脅的出現,需要不斷監控和更新AI系統,以確保其安全性和有效性。
多學科合作:鼓勵不同領域的研究人員、政策制定者、企業家和公衆共同參與AI安全問題的討論。跨學科合作將有助於制定更全面的安全策略。
开放研究和分享:开展开放、合作的研究,分享AI安全相關的知識、技術和最佳實踐。這將有助於整個AI領域在安全問題上取得進展。
通過積極採納這些措施和方法,我們可以降低AI領域的安全風險,推動人工智能的健康、可持續發展。
希望OpenAI在內的人工智能公司,都能爲保障AI安全而多上心、多出力,AI行業才能夠更加健康地發展。
作者:鹿人 蒹葭 ChatGPT 排版:鹿人
標題:ChatGPT爆重大漏洞:可能泄露1.2%用戶數據 AI安全引人震驚
地址:https://www.coinsdeep.com/article/11757.html
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。