隨著資訊科技的發展,社群平台成為人們生活的日常,隨之而來的資訊操弄,也成為許多民主國家的挑戰。在地緣政治的挑戰下,走出過往威權歷史、民主自由的台灣成為極權國家資訊操弄的重災區,被瑞典V-Dem評比為世界上資訊操弄最嚴重的國家。
而2022年OpenAI推出ChatGPT後,生成式人工智慧(GenAI)藉由高效地生產內容與整理資料,重新定義工作的方式與格局。但GenAI也可能被用於資訊操弄,成為更嚴重的民主危機。
面對資訊操弄對民主帶來的挑戰,國家的介入與管理成為許多人討論的議題,但一有不慎,卻可能引致對言論自由的侵犯。如何細緻與可操作性的思考管制問題,成為討論管理資訊操弄議題上的一大難題。
本報告為三份報告的第一份。從資訊操弄的定義開始,本報告探討如何針對資訊操弄的手法進行更細緻的標準化,以降低彼此討論資訊操弄議題的門檻。本報告比較各種分析框架,如DISARM、BEND與RICHDATA的優點與限制,並選擇有完整定義手法且持續更新的DISARM作為分析手法與後續管制作為的框架。
接著,本報告以2024年台灣總統大選及世界各國GenAI被用於資訊操弄的案例為例,說明GenAI在資訊操弄中可能被用於哪些資訊操弄的手法,以此為例示範如何透過框架標準化資訊操弄的手法,並用以解析手法、研討後續的政策建議。
本報告發現
- 台灣2024年總統大選期間,使用Gen AI進行資訊操弄的案例由於使用了匿名來源散播,並未造成顯著影響。
- Gen AI的使用降低資訊操弄的門檻,增加資訊的產生,也造成了事實査核與應對上的嚴重負擔。
本報告建議
- 未來應落實平台與Gen AI公司的責任,平台應該定期發佈處理資訊操弄的相關資料,開發Gen AI的公司也應該進行盡職調查,防止產品被濫用。
- 政府應該加強對Gen AI技術的監管,提高公眾意識,開發Gen AI檢測工具,並藉由國際合作統一監管標準。
- 政府應該與民間合作,減輕資訊操弄對社會造成的影響。
後續我們還會針對台灣政府與公民社會的反應,及後續監管建議作為,完善我們的政策建議。本研究希望能透過框架進行標準化、可操作化的政策討論,期能在不侵害言論自由的前提下,討論更為細緻的管理措施,以建立民主自由的基礎設施。