AI 也有政治偏見嗎?隨著2024年美國總統大選將至,DSET兼任研究員張仁瑋與開放文化基金會研究經理湯家碩於《轉角國際》投書,呈現他們的實測開箱。以下摘要重點:
📌兩位作者測試Google NotebookLM的語音摘要功能,實測它對美國兩位總統候選人的發言摘要內容是否中立或可能具偏見。
📌2024年9月,NotebookLM推出語音摘要功能,能將文字或語音檔生成約10分鐘的Podcast,模擬主持人與受訪者的對談呈現文章,廣受歡迎。
📌作者投入川普與賀錦麗的演講稿進行測試。研究發現NotebookLM在評論川普時出現反感立場,並使用諷刺語氣、批判其社會與地緣政策,提醒聽眾要批判性看待川普的發言。
📌NotebookLM對川普演說使用的負面情緒詞彙比例明顯高於對賀錦麗的評價。顯示AI主持人可能存在偏見。
📌作者提醒,考量到川普演講的煽動性,Google可能設置了「保護措施」,但這種缺乏政策透明度的干預可能影響使用者獲取真實資訊的權利,並加劇對AI服務局限與風險的誤解。
📌文章尾聲,作者建議使用者多次生成內容並比對不同AI產品的結果,自行查核資料,並密切關注科技公司政策及數位人權議題,以減少對AI偏見及審查的依賴。
投書全文請見👉https://global.udn.com/global_vision/story/8664/8331015
———-
這樣的實驗是DSET持續追蹤AI對政治環境討論影響的案例之一。
台灣長期面對極權國家資訊操弄的挑戰,被瑞典V-Dem評比為世界上資訊操弄最嚴重的國家。Gen-AI 的應用也導致應對假訊息的處理變得更加複雜。
DSET民主治理組剛於受州發表首篇「生成式AI與民主」政策報告,以2024年台灣總統大選及世界各國GenAI被用於資訊操弄的案例為例,說明GenAI在資訊操弄中可能被用於哪些資訊操弄的手法,以此為例示範如何透過框架標準化資訊操弄的手法,並用以解析手法、研討後續的政策建議。後續DSET也將持續發表相關研究,研究民主社會因應新興科技影響的應對方法。