別跟聊天機器人分享個人資訊!專家警告1關鍵:AI可以被操縱
網路安全專家對人工智慧(AI)聊天機器人相關的潛在風險發出了嚴厲警告,建議用戶儘量避免與這些數位助理分享個人資訊。圖/本報資料照片
網路安全專家對人工智慧(AI)聊天機器人相關的潛在風險發出了嚴厲警告,建議用戶儘量避免與這些數位助理分享個人資訊,儘管OpenAI 的 ChatGPT、Google Gemini 和微軟的 Copilot 等AI聊天機器人非常受歡迎,在全球有數千萬用戶使用,但倫敦網路彈性中心(Cyber Resilience Centre for London)執行長Simon Newman警告說,這些技術存在重大隱患。
「掌握了欺騙的技巧」
據報導,Newman表示,即使沒有明確的程式設計,聊天機器人已經「掌握了欺騙的技巧」,並可以「欺騙我們」,而其他網路專家,也曾在對話中發現了AI操縱的微妙跡象,警告用戶應該對此保持警惕,並建議用戶謹慎行事,仔細檢查聊天機器人提供的資訊,也不要向AI聊天機器人透露某些內容,並多次強調了驗證線上資訊的重要性。
AI機器人的答案令人信服
一個主要的擔憂是,AI聊天機器人可能會給不懂技術的人帶來潛在的困惑,即使是那些精通技術的人,也可能會忘記他們正在與機器互動。Newman表示,「聊天機器人中使用的技術正在迅速改進,但正如我們所看到的,他們有時會被操縱提供假資訊,且他們給出的答案往往非常令人信服。」
犯罪份子入侵
最重大的風險可能是網路犯罪份子的入侵。Newman就警告說,「與任何線上服務一樣,人們必須注意向聊天機器人提供哪些資訊,因爲它們不能免於受到網路犯罪分子的攻擊,並且可能會鼓勵用戶共享敏感的個人資訊,然後再將這些資訊交給犯罪份子,用於實施詐欺。」
沒有情商的AI
Newman解釋說,「爲改善客戶體驗並節省成本,包括大多數銀行在內的許多公司,都正在用線上聊天機器人取代人工客服,但這些機器人缺乏情商,使它們的反應方式不敏感,有時甚至是粗魯的,這對於患有精神疾病的人,或習慣於與人類代表交談的老一代來說,尤其具有挑戰性。」
《原文刊登於合作媒體科技島,聯合新聞網獲授權轉載。》