2024 年 4 月 22 日

探索科技民主的新面貌:生成式AI在2024美國總統選舉中的挑戰與回應

作者:郭毓倫

關鍵詞:人工智慧 選舉
目錄

選舉作為民主最真切的體現,賦予了公眾直接參與政治生活的途徑,使人民能夠透過選票來選擇代表或對關鍵問題作出決策。它不僅是實行民主原則、反映民意以及對政府進行監督的根本,也是社會進步與改革的動力來源。然而,隨著生成式AI技術的興起與應用,資訊操弄對選舉過程產生影響,衝擊民主社會的核心價值,對選舉公正性和資訊真實性的帶來全新挑戰。

美國AI技術與政治廣告監管

作為美國政府AI技術發展監管工作的領頭羊,國家標準暨技術研究院(National Institute of Standards and Technology, NIST)早在2023年初便提出了《AI權利法案藍圖》(Blueprint for an AI Bill of Rights)和《AI風險管理框架(AI RMF 1.0)》。前者建立五大原則:安全有效的系統、避免演算法的歧視、資料隱私安全、充足的資訊告知與說明、以及人類的選擇考量及備援方案等五個原則。為識別和緩解AI帶來的風險提供了自願性措施的參考藍圖。後者則是一份指導文件,供設計、開發、部署或使用AI系統的組織自願使用,以幫助管理風險AI技術的許多風險。但這樣的策略在逐漸激增的AI濫用案件中,似乎不夠積極,無法帶來足夠力道的具體監管措施。

雖然如此,美國總統Biden在2023年4月25日宣布競選連任時,對手美國「共和黨全國委員會」(Republican National Committee, RNC)立即在同日製作了一部AI產生的廣告中猛烈抨擊拜登。該片以生成式AI工具製作影片,模擬中國入侵台灣、美國金融系統崩壞、數百間銀行倒閉、非法移民湧入美國國境、大都市的犯罪率提高等虛擬情境。《華盛頓郵報》引述專家認為共和黨使用的是「Midjourney」等AI程式,可依據使用者輸入的詞彙或文章生成圖像。這也是2024美國選舉最早與AI有關的攻防案例。從這案例可以觀察到生成式AI其實並未改變傳統政治攻防的情境,但透過科技提升了製作傳統政治攻防素材的效率,並且讓傳播速度更快,資訊量更為豐富且更容易讓選民有所感。

這樣的情境不僅發生在政黨間的競爭,隨後2023年7月間,共和黨總統候選人Trump受到支持同黨候選人Ron DeSantis的政治行動委員會(Political action committee, PAC)的攻擊,仿照Trump的語氣自動生成錄音電話。雖然這樣的做法並非首見,過往即有模仿語氣的錄音電話做為選戰的攻擊工具,但透過生成式AI的技術確實讓這樣的行為變得更加容易達成。民主黨參議員Yvette Clarke觀察到這樣的趨勢,旋於同年5月起草倡議《真實政治廣告法案》(The REAL Political Ads Act),強化平台商對競選廣告的資訊揭露要求,必須涵蓋傳播內容是否使用生成式AI來產生政治廣告中的任何影片或圖像。

隨即巨型科技公司如NVIDIA、Meta和Google便著手開始制定政治廣告中使用生成式AI的揭露政策。這些公司的執行長們均參與同年9月參議院辦理的AI洞察論壇,親自說明自身公司如何執行政治廣告的資訊揭露政策。與此同時,美國國會也正整合這些資訊,嘗試規劃生成式AI的管制規範,以及如何能夠在政治廣告中使用AI。另一方面,部分反對者如共和黨總法律顧問Jessica Furst Johnson認為目前科技公司的做法可能是當下狀況下較佳的折衷方案。特別是在缺乏明確的官方指導方針時,如果貿然實施禁令可能會造成混亂。在同一期間有許多法案被提出,要求政治廣告中如有使用AI生成的圖片或影片,應有公開透明的資訊揭露(2023.5, Regulate AI-Generated Content in Political Ads, Amy Klobuchar、Josh Hawley、Chris Coons、Susan Collins;Cory Booker、Michael Bennet、Yvette Clarke;2023.9,Legislation to Ban the Use of Materially Deceptive AI-Generated Content in Elections, )。在這個階段,科技公司設立的規範目標在於遏止誤導性AI的應用。政策規定政治廣告必須清楚標示包含人工合成內容,而對於違反規範的廣告,Meta和Google將會採取拒絕或是暫停與該廣告客戶的合作。

同時,公民消費者權益倡議組織Public Citizen 在推動過程中也扮演了關鍵角色,呼籲聯邦政府應該實施更嚴格的AI使用規範。主席Robert Weissman提出,這些科技公司的自設政策固然良好,但遠不足夠,也足以取代政府的監管作用。他強調,平台商的自我執行措施只能是輔助性的,更為關鍵的是政府端需要制定出清晰而當前所缺乏的規範。

打開政策窗的演藝罷工事件

另一方面,生成式AI技術的迅速發展與應用,不僅在政治領域,更在眾多領域獲得了顯著成就,但同時也帶來倫理和使用者究竟應負擔哪些權利義務的挑戰。2023年美國演員工會的罷工活動(2023年5月至9月),正是這些挑戰在人類社會中的具體體現,引發了社會的廣泛關注。該事件突顯了生成式AI成果所有權在演藝產業中的爭議,尤其是關於演員的數位肖像權問題。美國電影和電視製片人協會(Alliance of Motion Picture and Television Producers, AMPTP)提出了一項所謂的「開創性AI提案」,稱能夠保護演員的數位肖像權,但其中包含要求演員同意給予數位肖像權,並且同意公司對其進行數位複製。然而,這個提案被演員工會(Screen Actors Guild-American Federation of Television and Radio Artists, SAG-AFTRA)斷然拒絕。工會首席談判代表Duncan Crabtree-Ireland指出,AMPTP的提議以極低的成本掃描演員,再將掃描所得的資料歸公司所有,未來可在任何情形下隨意使用這些數位肖像而毋需再次徵得演員同意或提供補償,這顯然侵害演員個人的肖像權益。這場罷工活動不僅凸顯了生成式AI對傳統演藝產業帶來的衝擊,也促使社會各界重新思考AI技術與創意產業之間權利與責任的界限。

EO 14110總統令 – 安全、可靠和值得信賴的AI發展運用

這些跨越不同場域的個案引起大眾對於生成式AI濫用的擔憂。在2023年間,生成式AI的話題不斷被提起,特別是在競選活動的範疇內,它可能對民主選舉造成影響,這一點已經引起許多議員的擔憂。特別在面臨即將2024年舉行的美國總統選舉,更顯得益發重要。基此,最終在國會力量不分黨派支持下,Biden總統在10月30日簽署了一項名為《關於安全、可靠和值得信賴的AI發展和運用的行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)的總統令,旨在確保美國在掌握AI的潛力和管理其風險方面領先一步。這項行政命令涵蓋的領域廣泛,從強化AI的安全性和可靠性到促進創新和競爭。對聯邦政府、私營企業以及AI的廣泛應用都有深遠的影響。該命令要求開發強大AI系統的公司與美國政府分享其安全測試結果和其他關鍵資訊,並建立紅隊(red team)的試驗機制,由專家團隊模擬真實世界的對手及其策略,用以測試和增強系統的安全性。此外,這份命令全面性地涵蓋了AI的規範和影響,特別是在安全測試、資訊共享、開發標準、保護隱私、促進公平人權、支持勞工、促進創新和競爭等方面都要求對應的主管機關著手研擬對策。對比先前片面性的法律提案及仰仗科技公司自律規範的手段,更能夠看到政府全面性地針對AI技術進行影響評估。

此外,在這項總統令中也看到跨部門合作對於AI規範制定的重要性,許多機關被分配特定任務。國家標準暨技術研究院(NIST)統籌負責制定相關標準,商務部則負責在經濟框架內部署AI的最佳做法。同時,國土安全部及國防部將關注國家安全面向,衛生及公共服務部則專注於AI在醫療保健領域的影響,勞工部則重視勞動力受到影響的狀況。然而,面對未來的種種挑戰,這種廣泛的監管引起人們對於創新自由與管制之間平衡的擔憂。這項行政命令不只是對意圖的宣示,更提出全面且具體的指示,要求政府各機關建立指導原則、標準和最佳實踐方式,目的是指引AI創新走向兼顧創新與安全的路線。美國管理和預算辦公室(Office of Management and Budget, OMB)也在2023年11月根據拜登總統的行政命令,發布了實施指導草案,要求聯邦機構開發和發布各自的AI使用策略,讓傳統僅自願性的監管措施,進化成更為具體的實踐方案。

AI治理:超越黨派的立法共識

對於生成式AI用於製造假資訊的隱憂,在美國政界得到跨黨派參議員的關注與共識。以民主黨Amy Klobuchar為首的多名議員,以及參議院商業、科學及運輸委員會的共同成員,在2023年底提出《AI研究、創新與課責法案》(Artificial Intelligence (AI) Research, Innovation, and Accountability Act),其中更廣泛地要求AI被有效的管理,其意旨包含:(1)透過為最高風險的AI系統創建可執行的測試和評估標準來加強課責制;(2)透過要求使用高影響力AI系統的公司提供透明度報告來提高透明度;(3)透過指導 NIST 為高影響力AI系統的監管提出針對特定部門的建議,為政策制定者提供訊息;(4)為消費者提供人類生成內容和AI生成內容之間更清晰的區別。其法案內容被視為基於Biden總統簽署的行政命令的基礎上,再對於各行政單位應當制定因應對策的責任提出更進一步的呼籲,且反映出AI監管與創新的衡平,已是不分黨派共同期待得到解決的重要問題。

2024年1月,網路上流傳了以AI生成的Taylor Swift不雅圖片。這些圖片在X平台(前Twitter)上被用戶散播分享,短時間內觀看次數超過4500萬次,並且被重新發布了24000次,引起了社會和媒體的廣泛關注,由於Taylor Swift在美國的高知名度,這次的事件也打開政府應介入AI技術管制的政策契機,共和黨議員Tom Kean, Jr.便針對此事件做出了回應,提出了《AI標籤法案》(AI Labeling Act),目標在於建立對AI內容識別和標籤制度,以增強大眾對AI內容的識讀能力。此法案要求生成AI系統的開發者明確標註AI所產生的內容。白宮更罕見針對這次事件提出具體評論,白宮發言人Karine Jean-Pierre對於這些不雅圖片的流傳表示震驚,並強調社群媒體公司在落實自律規範以防範假資訊和不雅照片散佈方面應扮演關鍵角色。共和黨參議員Mike Rounds更以此事件為鑑,說明黨團中多名議員均認同AI被立法監管的重要性,其中尤其在處理競選廣告以及社群媒體的部分,更是重中之重。民主黨議員Joe Morelle也據此起草《防止親密影像深度偽造法案》(Preventing Deepfakes of Intimate Images Act)以阻止AI 生成的深度偽造色情內容的傳播。

拜登總統深偽電話錄音風波

當社會大眾都還在為如何針對AI生成的假資訊進行管制的同時,2024年1月22日,New Hampshire州發現一段機器生成的電話錄音被刻意傳播。電話中利用AI技術模仿Biden總統的聲音,錯誤地建議當地選民將初選投票延至11月,並聲稱現在投票將有利於共和黨。這樣的資訊顯然意在抑制初選投票率,並對某些特定團體帶來幫助。儘管其對手Dean Phillips及其團隊否認參與這次的深偽行動,並對於任何企圖影響選民的錯誤資訊表示譴責,但羅生門般的案件發展確也更加凸顯了AI生成的假訊息可能影響選舉公正的擔憂。這樣的情形在全球並非首例,但企圖影響2024美國總統選舉的目的確實讓政府機關對於這些假資訊的濫用及傳播更為被重視。

針對這樣的情形,民主黨參議員Edward Markey等人早於2023年底便提出《消除演算法系統偏見法案》(Eliminating bias in algorithmic systems act of 2023),主要關注AI演算法可能衍生的偏見、歧視與危害。承前所言,Meta和Google也正在制定政策來揭露政治廣告中是否涉及生成式AI的使用。許多技術專家也對此表示意見:卡內基美隆大學知情民主與社會安全中心教授Kathleen M. Carley表示:「在他長久的研究觀察中,這只是抑制選民行為或攻擊選舉工作的冰山一角」。公民消費者權益倡議組織Public Citizen 主席Robert Weissman在一月底再次發起請願書,敦促聯邦選舉委員會(Federal Election Commission, FEC)修改其關於以欺詐方式假冒候選人或政黨的規則,以明確其適用於競選活動中具有故意欺騙性的AI。但其實聯邦選舉委員會早曾在2023年8月一致投票決定開啟有關更新規則的公眾評審期,然而自2023年10月公眾意見徵詢期結束後,直至2024年2月,該委員會尚未提出任何具體政策結論。

針對Biden總統的案件,許多議員與專家學者也各自提出了自己的觀點:知名電話詐騙檢測公司Pindrop的執行長 Vijay Balasubramaniyan便提到:”深偽技術根本性地消除了人與人之間的信任“。而網路安全專家Matthew Wright也提到利用AI製作高品質的音頻偽造已經是輕而易舉的事,且越來越難以辨識。布倫南中心(Brennan Center for Justice)律師Mekela Panditharatne,也提到深偽技術應受到更多的政府監管,並提出具體報告來呼籲政策制定者必須防止受操縱的媒體被用來破壞選舉和剝奪選民的選舉權。Valerie Wirtschafter(2024)的研究報告也指出,不只是深偽音頻,AI可能透過以下的管道侵蝕民主選舉制度,包含假資訊的創造以及惡意傳播、選民的分析及精確投放不實廣告、自動生成虛假社群媒體帳號以擴散特定政治觀點、模擬輿論傳播並介入操縱。對此政策制定者必須採用更多的網路安全措施以及透明監管來確保民主選舉的公正性與合法性。

該案的調查在全國各界的關注下,最終於2024年2月6號獲得突破。New Hampshire州宣布案件的最終調查結果,Life Corporation公司被認定與使用生成式AI模仿Biden總統聲音的機器語音電話有關,而Lingo Telecom是傳輸機器語音電話的公司,州政府與聯邦通信委員會(Federal Communications Commission, FCC)向該公司發出了停工命令,但類似的案件所衍生的傷害既已造成,對於不可逆的民主選舉制度是否能夠帶來修復,則有待持續觀察。對此,聯邦通信委員會也火速將AI生成的語音用於惡意電話認定為非法行為,《電話消費者保護法》是聯邦通信委員會用來限制垃圾電話的主要法律依據,用以限制推銷電話的撥打、使用自動電話撥號系統、及人工預先錄制的語音信息來騷擾消費者,未來司法單位可據此打擊妨害公正民主選舉的虛假騷擾電話。

對於AI工具可能影響民主選舉的隱憂,科技公司也不斷積極表態表示願意自願採取「合理的預防措施」,來防止AI工具被用來擾亂世界各地的民主選舉。2024年2月18日,來自 Adobe、亞馬遜、Google、IBM、Meta、微軟、OpenAI 和 TikTok 的高層聚集在慕尼黑安全會議上,宣布了一個新框架,用於應對AI生成的故意欺騙選民的深度偽造行為,其中包含安全(Secure)、賦權(Empower)以及進步(Advance)三大面向。雖然該協議在很大程度上象徵意義大於實質效果,但面對日益真實的生成式AI生成圖像、音訊和影片,這些科技公司的自主監管行為確實在整體資訊傳播的機制中扮演關鍵守門員的角色。誠如卡內基美隆大學知情民主與社會安全中心教授Kathleen M. Carley所言,AI語音電話的傳播速度在現代遠不及社群網路,且透過網路惡意傳播的假資訊更難以被即時探知,因此有關社群媒體環境中的社會安全應受到更多關注。

Gen AI衝擊的2024國際選舉年

關於生成式AI對民主制度的影響,仍持續發生,且不僅限於美國本土境內,其他國家在2024的選舉年間,也陸續傳出生成式AI影響民主選舉的案例,如斯洛伐克總統進步派候選人Michal Šimečka遭受到深偽音訊的攻擊輸掉選舉;阿根廷總統候選人Javier Milei運用生成式AI將自己的形象塑造為一頭保護國家的可愛獅子,並將對手塑造為惡棍形象,成功為自己贏得選舉;印尼總統Prabowo Subianto一改過往獨裁將軍形象,透過生成式AI把自己打造成可愛的爺爺,成功扭轉年輕印尼選民的印象並贏得選舉;巴基斯坦前總理Imran Khan雖然目前因案入監服刑,但仍透過深偽技術生成談話影片,並持續向其支持選民喊話,在獄中持續參與選舉活動;在印度甚至出現已故政治明星Muthuvel Karunanidhi透過深偽技術現身為現存政治人物背書的情形。生成式AI的應用五花八門,在2024的全球選舉年以各式不同的形式影響著民主選舉。更甚者,猶如專家所言,隨著生成式AI技術的快速發展,人類可能在2024年見證第一次的客製化投放的政治廣告,並依據受眾的喜好與需求提供不同的資訊,猶如目前的商業廣告模式一般。

另一方面,在美國境內,行政機關對於AI技術的評估階段,仍未達Biden總統要求的180天報告提交期限。各單位也如火如荼地正在搜集各方意見,並整合出具體可用的框架。誠如Allen和Weyl於2024年1月撰寫的文章《生成式AI的真正危險》所言,生成式AI技術對社會的影響帶來基本面上的雙重威脅,大規模欺騙與監控行為侵襲了民主體制、以及權力被少數團體所集中掌握。對此,該研究也據以提出多元視角、去中心化的監管模式來維護民主價值和促進多樣性,藉以消弭AI技術發展所引發的奇異性和社會崩潰風險。

台灣經驗的借鏡與反思

反觀台灣的選舉已於2023年底圓滿完成,過程中發生生成式AI製造虛假影片及音檔企圖影響特定候選人的狀況。但台灣民眾基於長久積累的資訊識讀素養及民主社會韌性,搭配許多自發性的公民團體的公開資訊揭露分享,都能迅速匡正並不致影響人民心中之價值判斷。如此成功的假資訊抵抗亦成為國際媒體及智庫眼中的成功案例。然而,透過世界各國的選舉案例仍可發現隨著生成式AI的技術持續發展,各項應用面持續深化,生成式AI技術對於民主價值的威脅在未來只會不斷提升,並對於接續而來的民主選舉帶來意想不到的衝擊。基之,台灣除應積極觀察世界各國民主選舉之發展及挑戰回應外,面對瞬息萬變的AI乃至於治理監管環境,均應隨時保持科技領域慣用的敏捷(Agile)管理精神,快速評估隨時調整,才能在不斷的創新破壞與秩序建立的平衡間動態維持AI治理的韌性。

資料來源:

分享此文

相關文章

專家評論
國防科技

烏俄戰場上的小型軍民兩用無人機

作者:吳迪

2024 年 6 月 17 日

國際動態專家評論
國際議題

印度大選/莫迪失勢「慘贏」 第三任挑戰大

作者:劉奇峯

2024 年 6 月 15 日

國際動態專家評論
淨零科技

評估中國的綠能力:以電動車為例

作者:施懿倫

2024 年 6 月 14 日