2024年は世界的な選挙イヤーだ。各国で重要な選挙が目白押しで、11月には米国大統領選も控える。生成AI登場後の選挙では、ディープフェイクの拡散を止めることができず、対応が急務となっている。1月に行われた台湾総統選では、多くの有権者が外国からの発信を含む大量の偽コンテンツを目にした。AI市場が活況な日本でも、民主主義の柱である選挙の信頼性を守ることは極めて重要となる。欧州はプラットフォーム事業者などに対して厳しい規制を課すが、日本では法規制(ハードロー)による対応は馴染みにくい。AI技術の選挙への悪用を防ぐために締結された技術協定「ミュンヘン・アコード」を参照し、大手IT企業の連携による研究開発などが求められると考える。

自民党提言「ミュンヘン・アコードと同様の取り組みを」

自由民主党は2024411日、AIに関する政策提言をまとめた「AIホワイトペーパー2024」を公開した(※1)。この中で、AI による選挙への負の影響に適切に対処するため、関係事業者がミュンヘン・アコードと同様の取り組みを日本国内でも実施するべきだとした。

2024年は選挙イヤーであり、既に台湾、インドネシア、ロシア、韓国などで重要な選挙が実施済みで、今後もインド、メキシコ、EU、米国などで行われる。AI技術の急速な発展により、選挙でディープフェイク、偽情報が拡散されることが社会問題となっている。本稿ではミュンヘン・アコードや台湾総統選にみる世界的な動向を概観し、日本での取り組みについて考察する。

ミュンヘン・アコードは、20242月のミュンヘン安全保障会議で発表された、大手IT企業20社が参画し、AI技術の選挙への悪用を防ぐため、偽の画像、映像、音声といった有害コンテンツの検出や対応に共同で取り組む技術協定を指す(※2)。参加企業は、AdobeAmazonAnthropicArmElevenLabsGoogleIBMInflection AILinkedInMcAfeeMetaMicrosoftNotaOpenAISnapStability AITikTokTrendMicroTruepicX(アルファベット順)で、プラットフォーマーや生成AIの有力ベンダーを含むビッグテックが揃った。

協定では、2024年中に「表 ミュンヘン・アコードでの8つのコミットメント」で示す各ステップに取り組むことが示された。SNSでの迅速な検出や削除、AIが生成したコンテンツを識別する電子透かし(ウォーターマーク)技術の研究開発などで連携する。

表 ミュンヘン・アコードでの8つのコミットメント

No

概要

1

生成AIによる偽情報の識別、コンテンツの真正性の証明など、リスクを低減する技術の開発

2

モデル評価によるリスクの理解

3

フェイクコンテンツの検出、一般ユーザへの報告手段の提供

4

風刺的、政治的表現などに留意したフェイクコンテンツへの適切な対応

5

業界横断的なレジリエンスの育成

6

偽情報への対処方針公表など、透明性を高める

7

技術やツールの研究・開発における市民・識者・専門家などとの連携

8

国民がリスクを理解し認識を高める活動やリスク軽減の取組みなどの支援

出所:Munich Security Conference A Tech Accord to Combat Deceptive Use of AI in 2024 Elections

台湾総統選の偽情報拡散、中国の関与が指摘される

2024年1月に行われた台湾の総統選挙では、生成AI登場後の選挙でのリスクが浮き彫りになった。選挙でのAI悪用は、自国内で対抗馬の支持率を下げる目的のみではなく、海外からの干渉という形でも起こる。台湾の非営利民間研究機関であるTaiwan AI Labsは、総統選におけるAI情報操作に関するレポートで、台湾出身以外の集団がAIを使って世論への影響を行使したと指摘した(※3)。総統選は台湾の自治独立を主張し中国に批判的な民進党と、中国との経済関係を重視し融和的な国民党の争いとなったが、中国が民進党の候補者を批判・攻撃する多量の偽コンテンツをSNSで拡散させたとされている。

Microsoftは、公式ブログで、「台湾総統選で、他国の選挙に影響を与える目的でAI コンテンツを使用する国家主体を始めて目撃した」とした上で、米国大統領選への中国の関与にも言及している(※4)。同社は、こうした偽情報が選挙結果に影響を与える可能性はまだ低いものの、より強力な技術の研究が進められているため将来的には効果を発揮するかもしれないと警告する。

法規制の動向 EUは積極推進、台湾では支持を得られず

偽情報への対応には、ハードロー、ソフトロー双方の方向性がある。法規制に積極的なのはEUである。2022年にデジタルサービス法(Digital Service Act, DSA)が施行され、プラットフォーム事業者などに有害コンテンツの削除を義務付け、違反には最大で世界年間売上高の6%にあたる制裁金を科す。20243月には、AIを包括的に規制するAI法(Artificial Intelligence Act)が可決された。生成AIに対しては、コンテンツがAIによって生成されたことを明示するなどの透明性要件に準拠することが求められる。
米国では、通信品位法(Communications Decency Act, CDA)により、プラットフォーマーは第三者が発信する情報に原則として責任を負わず、有害なコンテンツ削除にも責任を問われない。日本はソフトロー路線であり、ファクトチェックや国民のリテラシー向上が重視される傾向がみられる(※5)。20212月に施行された特定デジタルプラットフォームの透明性及び公正性の向上に関する法律では、提供者がデジタルブラットフォームの透明性と公正性を向上させるための取り組みを「自主的かつ積極的に行う」ことを基本とし、「国の関与その他の規制を必要最小限のものとする」と定められている(※6)。2024年4月に公開された「AI 事業者ガイドライン」も、選挙などでAIによる意思決定・感情の操作等に留意することなどが盛り込まれているが、事業者の自主規制に任せるスタンスとなっている(※7)。

生成AIのインパクトの大きさを考えると、今後は欧州以外でも法規制の要請は高まっていくと考える。米国でも、政治的利用に対する政府の規制はまだないものの、通信品位法の改正案提出や州単位での性的コンテンツに関するディープフェイク規制などの動きは起きている。しかし、表現の自由と国家による規制とのバランスは課題となる。外国からの介入の最前線にいる台湾だが、2022年にはEUDSAを参照したDigital Intermediary Service ActDISA)の成立を見送っている。プラットフォーム事業者に透明性レポートの提出や行政の要請による情報提供や情報削除、緊急命令への対応などを求める内容が過度な情報統制になるとして、国民の支持を得られなかったためである。

日本でも、総務省が2024年度中のプロバイダ責任制限法改正を推進している。ネットでの誹謗中傷などを前提に、プラットフォーム事業者に削除申し出への対応迅速化などを求める。欧州のDSAと比較すると緩やかな内容だが、日本が国家権限を行使する規制強化に舵を切る可能性は低いであろう。かといって、個々人のリテラシー向上や限られた範囲でのファクトチェックが実効的な対策になるとは考えにくい。偽情報の判断や削除、悪意の有無の判断などに関しては、詐欺や誹謗中傷など選挙以外のテーマにおいても頻繁に問題になるが解決に至らない。これら以外のアプローチとして、ミュンヘン・アコードと同様の取り組み、つまり主要プレイヤーの連携による業界横断的な対応は有効だと考える。

大型投資が相次ぐ日本 AIの信頼性確保のための企業連携に期待

日本のAI市場は活況である。まず、外資企業が日本のAIやクラウドインフラへの投資を相次いで表明している。OpenAI20244月にアジア初の拠点として日本法人を開設した。2月にはAWS202327年の5年間で22,600億円を投資する計画を発表した。4月には、Microsoftが今後2年間で29億ドル(約4,400億円)、Oracle10年で80億ドル(12,000億円)を投資すると明らかにしている。

国内企業に対しては政府の補助もある。経済産業省は20244月にAI向けスーパーコンピューターの整備に最大725億円を支援すると発表した。対象企業はKDDIGMOインターネット、さくらインターネット、RUTILEA、ハイレゾの5社である。日本のAI市場のプレイヤーには、LLM(大規模言語モデル)の開発元であるNTTNEC、ソフトバンク、LINEヤフーなどの大手企業やスタートアップ、研究所などが名を連ねる。国内外の主要企業が連携すれば大きな力となると期待できる。

AI市場拡大に伴い、安全性や信頼性を確保する重要性は増す。特に、選挙においては、偽情報が有権者の行動を左右するようになれば、民主主義を支えるプロセスを揺るがすことも懸念される。生成AIは、静止画のみではなく動画まで、リアルと見分けがつかないほどのコンテンツを容易に作れるほど高度化しており、技術には技術をもって対抗することが必須である。コンテンツが真正か生成AIによって作られたものかどうかを判別する技術、SNSなどで偽コンテンツを自動検出する技術、コンテンツの信頼性を認証するOriginator Profileなどの技術開発が期待される。あるいは、選挙のような公共性の高い場面においては、プラットフォーム利用やコンテンツ生成に「選挙モード」として技術的制限を設けることも考えられる。公職選挙法は個別訪問の禁止など選挙活動にルールを課しているが、生成AIが活用される時代の変化に追いついてはいない。

日本でも9月の自民党総裁選に絡んで解散総選挙の実施が取りざたされている。有力企業の力を結集することができれば、個社の取り組みの限界を超えた効果的な施策を迅速に打つことが可能になるだろう。AI市場成長のためにも、世界の動向に遅れることなくディープフェイク対策に取り組み、技術やノウハウの高度化を進めることが望ましいと考える。

 

<参考資料・文献>

1 自由民主党「AIホワイトペーパー2024 ステージⅡにおける新戦略 ―世界一AIフレンドリーな国へ―」
https://www.taira-m.jp/2024/04/aiai.html

2  Munich Security Conference A Tech Accord to Combat Deceptive Use of AI in 2024 Elections”(2024216日)
https://securityconference.org/en/aielectionsaccord/

3  Taiwan AI Labs2024 Taiwan Presidential Election Information Manipulation AI Observation Report
https://ailabs.tw/wp-content/uploads/2024/01/2024-Taiwan-Presidential-Election-Information-Manipulation-AI-Observation-Report-2.pdf

4 MicrosoftChina tests US voter fault lines and ramps AI content to boost its geopolitical interests
https://blogs.microsoft.com/on-the-issues/2024/04/04/china-ai-influence-elections-mtac-cybersecurity/

5 総務省「偽情報対策に関する総務省の取組について」(20235月)
https://www.soumu.go.jp/main_content/000882504.pdf

6 「特定デジタルプラットフォームの透明性及び公正性の向上に関する法律」
https://elaws.e-gov.go.jp/document?lawid=502AC0000000038

7 経済産業省、総務省「AI事業者ガイドライン(第1.0版)」(2024年4月)
https://www.meti.go.jp/press/2024/04/20240419004/20240419004-1.pdf

小林 明子 / Akiko Kobayashi

主任研究員

調査会社の主席研究員として、調査、コンサルティング、メディアへの寄稿などに従事。IT業界及びデジタル技術を専門とし、企業及び自治体・公共向けIT市場の調査分析、テクノロジーやイノベーションについての研究を行う。2023年8月にデロイト トーマツ ファイナンシャルアドバイザリー合同会社に入社し、DTFAインスティテュートに参画。

この著者の記事一覧