隨著AI大模型技術的不斷進步,眾多職業的工作效率得到了顯著提升。
例如,在程式設計領域,這些先進的AI工具不僅能夠協助程式設計師編寫程式碼,還能有效率地解決程式中的BUG,成為開發者們不可或缺的助手。
然而,近期發生的事件卻引發了業界對AI安全性的廣泛關注。
據報道,一位英國程式設計師在使用GPT產生的程式碼時遭遇了不幸。他按照GPT提供的程式碼進行了操作,結果導致自己的私鑰洩露給了釣魚網站,最終損失了2500美元。
有網友在社群媒體上發文提醒廣大用戶,在使用GPT、Claude等大型語言模型(LLM)時必須保持警惕,因為這些模型存在普遍性的欺騙行為風險。
他進一步警示說:“之前提過AI投毒攻擊,現在這起算是針對Crypto行業的真實攻擊案例。”
經過深入分析發現GPT在產生程式碼的過程中引用了一個來自GitHub的惡意專案。這個項目顯然是一個精心設計的「釣魚」陷阱,誘騙使用者上當。
不幸的是,GPT在這次事件中成為了無辜的受害者,但其產生的程式碼卻給用戶帶來了嚴重的後果。
這起事件再次提醒我們,在享受AI帶來的便利的同時,也必須時時注意其潛在的安全風險。對於開發者而言,在使用AI輔助工具時應保持謹慎態度,避免盲目信任機器產生的程式碼或建議。
來源 |