▲許多人會向ChatGPT等AI聊天機器人,傾訴疑難雜症。(示意圖/CFP)
記者吳美依/綜合報導
隨著人工智慧(AI)蓬勃發展,人們開始向ChatGPT等聊天機器人傾訴各種疑難雜症,包括諮詢感情困擾、撰寫電子郵件、把狗狗的照片變成人類等等。但專家指出,有5件事情顯然永遠不應該告訴AI,例如在工作上應用時,就可能不小心洩露企業機密。
史丹佛大學「人本人工智慧研究中心」(HAI)研究員珍妮佛(Jennifer King)向《華爾街日報》表示,當你向聊天機器人輸入一些東西時,「你就失去了對它的掌控權」。
1、企業資訊
如果你在工作中使用ChatGPT或其他AI聊天機器人,例如撰寫電子郵件或編輯文件,可能不小心暴露客戶資料或非公開商業機密。一些公司會訂閱企業版AI聊天機器人,或者擁有具備保護措施的客製化AI程式,相對能夠防止這類問題。
2、醫療結果
儘管醫療業非常重視患者隱私,會嚴格保護患者個資並且防止歧視,但AI聊天機器人通常不包括在此範圍內。如果你覺得有必要請ChatGPT解釋醫療檢測結果,建議在上傳文件之前,事先剪裁或編輯,「只保留檢測結果」的部分就好。
▼OpenAI也呼籲使用者切勿分享敏感資訊。(圖/路透)
3、登入資訊
一些人可能認為,隨著AI執行任務的能力有所提高,可以放心把各種平台的帳號密碼交給它們,但AI機器人不是保險箱,也不能保證這些帳號的安全,把這些資訊輸入「密碼管理工具」,才是更好的選擇。
4、身分資訊
不要向ChatGPT揭露任何身分資訊,例如生日、地址、電話號碼、身分證字號、護照號碼等。儘管一些聊天機器人會對這些敏感資訊進行編輯,但更安全的方法就是完全避免分享這些資訊。
OpenAI一名發言人向《華爾街日報》表示,「我們希望我們的AI模型了解世界,而不是個人。我們積極減少蒐集個人資訊。」
5、金融帳號
絕對不要提供你的銀行或投資帳號,這個資訊可能被駭客入侵,導致資金流向遭到監控或盜用。
事實上,OpenAI在官網寫道,「請不要在你的對話中分享任何敏感資訊」,Google也在AI聊天機器人Gemini的頁面呼籲使用者不要輸入「你不希望審查員看到的機密資訊或任何數據。」
如果仍想和AI分享私密資訊,建議更換成高強度密碼,並且啟用多重要素驗證。人工智慧公司「Anthropic」首席執行長克林頓(Jason Clinton)建議,可以在每次使用完畢之後「刪除對話框」,企業通常會在30天之後,永久刪除這些數據。
文章來源: ETtoday