• logo

【張瑞雄專欄】當AI不只是工具 將面臨詐騙、作弊與誠信的挑戰

張瑞雄/台北商業大學前校長、叡揚資訊顧問

當我們還在驚嘆生成式AI如何為人類帶來便利、創造力與生產力的同時,另一場潛藏在螢幕背後的暗流正迅速成形,那就是「AI詐騙」的全面擴散與制度性的道德瓦解,我們看到的不僅是科技失控,更是人類社會在倫理與制度上失速的寫照。

AI詐騙的真正問題不在於「AI騙過人」,而是「AI騙過系統」。在一個「一鍵支付」和「零摩擦體驗」成為主流的數位世界中,當詐騙者結合生成式AI與即時操控軟體進行詐欺,不僅是長者難以防範,連資訊安全專家都可能一時疏忽。更駭人的是,這種攻擊不再只是針對個體,而是直指整體金融與數位驗證系統的脆弱本質。

更令人心寒的是,我們並非只是被動地成為詐騙的受害者,而是在某些層面上成為共犯。最近矽谷知名創投Andreessen Horowitz竟投資一間名為Cluely的AI新創公司,標榜「Cheat at Everything」,明目張膽地將作弊變成商業模式。他們開發的AI桌面助手能在會議或談判中即時輸出「專業答案」,讓使用者看似機智過人,實則全靠AI幕後運算。這不僅使個人思考能力退化,更將整個專業環境推向虛假與表面功夫的深淵。

我們可以將Cluely視為現代資本主義對效率與成果的極致追求,不問過程、無視倫理、只求「表現」。而當這類產品獲得風險資本支持並擴展至企業與教育場域時,它所釋放的訊息是「你不需要學習,你只需要看起來像是學會了。」在這樣的風氣下,AI技術不再是輔助工具,而成了道德真空中的操控裝置。它不僅破壞了誠信,更侵蝕了專業的價值觀。

這正是為什麼丹麥政府最近提出要修改著作權法,明定每個人擁有自己的「臉」、「聲音」與「身體樣貌」的所有權。這項法律雖然看似針對深偽(deepfake),但實際上是對當前生成式AI技術「任意模仿人類」的反制,也是一種法律與倫理防線的重建。這項立法將賦予個人主張移除未經同意的AI模仿影像或聲音的權利,違者甚至須賠償損失。丹麥文化部長的發言更是直言:「人類不該被數位複製機任意運作。」

這項措施點出了全世界都需面對的問題,我們是否願意為了方便與效率,犧牲倫理、隱私與人性?當AI可以模仿一個人的語氣進行詐騙、偽造影片讓政治人物說出未曾說過的話、或是讓求職者靠AI在面試中「假裝優秀」,那麼「真實」與「誠信」這些社會運作的基石,還能持續多久?

值得反思的是,這些問題其實並非AI所創,而是我們的制度選擇與設計所導致。過去十年對於「無摩擦」的追求,導致我們建構了一個對詐騙友善、對風險無感的環境。我們太快將科技整合入日常,卻沒來得及設計對應的防護機制。這就如同當年美國為了解決不繫安全帶的問題,發明了「自動安全帶」,看似創新,實則愚蠢且無效。

那麼,解方是什麼?第一,重新評估AI在關鍵系統(如金融、教育、人力資源)中的應用邏輯,建立「人機協同」而非「機器代理人」的原則;第二,立法者應從丹麥的經驗出發,制定明確的個人影像與聲音所有權法制,讓AI模仿行為可被追責;第三,企業應擺脫「快速獲利」的心態,轉向「可信賴AI」的研發方向,強化資料來源與輸出內容的可追溯性與透明性。

社會教育亦需與時俱進,AI素養不該只是操作技術的學習,更應涵蓋判讀能力、倫理判斷與資料辨識力的養成。政府與學界可考慮將「AI詐騙模擬」納入公民教育,讓每個人都能識破「太完美」的對話與畫面背後的危險。就如同學會辨識假新聞,我們也需培養辨識「假對話」、「假真人」的能力。

AI的發展不該淪為詐騙工具的放大器,我們終究必須在這場「科技便利」與「人類尊嚴」的拔河中做出選擇。否則下一個被騙的不只是我們的長輩,而可能是我們自己。每個人在一場以效率為名的科技幻術中,被奪走判斷力、被取代意志,最終連「是誰說了這句話」都無法確認。

在這個真假難辨、AI真假難斷的未來,或許我們真正需要的,不是更聰明的AI,而是更清醒的自己。

※ 以上言論不代表梅花媒體集團立場