1月31日 消息:據Ars Technica報道,一名用戶聲稱OpenAI的ChatGPT泄露了私密的和無關的用戶對話,包括藥房用戶的工單和顯示多個網站的登錄憑證的代碼片段。
Chase Whiteside向Ars解釋說,他們一直在使用ChatGPT來想出“調色板中顏色的巧妙名稱”,然后顯然離開了屏幕。當他們重新打開它時,發現頁面左側有更多的對話,而這些對話都不是他們自己發起的。 但OpenAI并不認同。
“Ars Technica在我們的欺詐和安全團隊完成調查之前就發表了報道,他們的報道不幸地不準確,”一位發言人在回答關于Ars的報道的問題時告訴我們。“根據我們的調查結果,用戶的賬戶登錄憑證被盜用,然后一個惡意行為者使用了這個賬戶。顯示的聊天歷史和文件是這個賬戶被濫用的對話,而不是ChatGPT顯示了另一個用戶的歷史。” 讀者截圖并發送給Ars的對話中,有一個包括制作演示文稿的交流和一些PHP代碼的對話,似乎包含了前面提到的藥房門戶的故障處理工單。更奇怪的是,這些工單的文本顯示它們是在2020年和2021年發起的,而那時ChatGPT還沒有推出。
網站沒有解釋這些日期的不一致,但有一定的可能性是它們是ChatGPT的訓練數據的一部分。的確,去年,ChatGPT的制造商OpenAI被一起巨額的集體訴訟指控,該公司秘密地使用了大量的醫療數據和其他個人信息來訓練其大型語言模型(LLM)。
在不到18個月的歷史中,ChatGPT已經多次被指控是一個漏洞百出的水龍頭。在2023年3月,OpenAI被迫承認,一個故障導致了聊天機器人向無關的用戶顯示了一些用戶之間的對話,而在12月,該公司推出了一個補丁,以修復另一個可能將用戶數據暴露給未經授權的第三方的問題。
而在2023年底,谷歌的研究人員發現,通過使用一些“攻擊”提示,或者是讓聊天機器人做一些它不應該做的事情的關鍵詞,ChatGPT會泄露其訓練數據的大部分。 不過,如果沒有別的,這至少提醒了我們一個古老的操作安全格言:不要把任何你不想讓陌生人看到的東西放到ChatGPT或任何其他程序中。
本文鏈接:open?ai「Open AI否認報告稱ChatGPT泄露了用戶密碼」http://www.lensthegame.com/show-3-8619-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。