日進月歩のデジタル技術を、企業はどのように活用し、成長の源泉としていけば良いのか。デジタル政策、安全保障、サイバーセキュリティをそれぞれ専門とする3氏による議論から、その方策を探る。第1回のテーマは「生成AIをどう評価し、活用すべきか」。

■参加者
谷脇康彦
 株式会社インターネットイニシアティブ 取締役副社長
渡部恒雄 公益財団法人笹川平和財団 安全保障研究グループ 上席研究員
神薗雅紀 デロイト トーマツ サイバー合同会社 執行役員 CTO 兼 サイバーセキュリティ先端研究所 所長
酒井綱一郎 DTFAインスティテュート 客員研究員(聞き手)

――「チャットGPT」などの生成AIが世界を席巻しています。生成AIに関する昨今の国内の議論をどのように見ていますか。(以下、敬称略)

谷脇 「チャットGPT」などの生成AIが出てきたことに対して、AIを開発・利用するためのルール確立が必要だという指摘がよく聞かれます。ただ、ルールに関しては、政府は2019年に「人間中心のAI社会原則」※1を公表するなど、既に議論の積み重ねがあり、それらで対応できていると思います。また、法規制の導入についても議論になっています。しかし、AIはどんどん進化を遂げていくムービングターゲットです。それに対する法規制は、本当に必要なミニマムなものは必要だと思いますが、基本は民間の取り組みに任せるべきではないでしょうか。

     

神薗 おっしゃる通りAIに対する原則やそれに対応するリスクは以前からしっかり議論されてきました。生成AIの登場に慌てる必要は全くなく、これまでのルールを着実に守っていくことが重要になってきます。一方で、企業がAIを活用する際に参考になるよう、政府は原則に則ったかたちでルールメイキングする余地はまだあるとも思います。具体的には、AIを活用したオペレーションの手法を明示してあげることなどが想定されます。

     

渡部 法規制についていえば、日本だけが規制をかけて結果的にAI開発で世界に遅れをとってしまえば、安全保障上と経済競争力という両方の点においてディスアドバンテージとなります。今後、AIを活用してゲームチェンジャーとなる軍事能力を獲得する国が現れ、現在の軍事的な優位性をひっくり返すという事態を想像すべきです。国際法や倫理的な規制を受けやすい日米欧という民主主義国が、そうではない国家にAIに関する技術力で後れを取ってしまえば世界の平和はどうなるのか。法規制を考える際は世界の安全保障上のガバナンスについても頭に入れておく必要があります。

谷脇 欧州は今回規制の動きを強めていますが、GDPREU一般データ保護規則)を作ったときの動きとすごく似ていますよね。つまり、対米戦略を念頭に起きつつ、産業政策・貿易政策と法規制の整備が一体化しているわけです。欧州とは視点が異なるかもしれませんが、日本でも産業政策・貿易政策の視点も絡めた議論をする必要があると思います。

「使わない」という選択肢はない

――企業では生産性向上の目的で生成AIを活用する動きがあります。その一方で、活用に躊躇している企業もあります。

谷脇 使わないという選択肢はないと思います。自転車に乗る努力をしなければいつまでたっても自転車には乗れません。AIについては、自分で学ぶ「自助」の部分がすごく大事だと思います。先ほども述べた通り、AIは強烈なムービングターゲットです。そういうものに対して企業は、「これはいいけど、これは駄目」といった決め打ちはしないという姿勢が求められるのではないでしょうか。

神薗 生成AIを使うか使わないで、組織や企業そして国レベルでも大きな差が生じることが想像されます。活用しなかった時にどれだけイノベーション機会を失ってしまうか、事前評価をする必要もあります。

渡部 生成AIをどう活用するかは、職種にもよるし、会社のキャラクターによっても違いは大きいと思います。それを前提にしたうえで、生成AIの活用術の一つとして、賢く質問することが重要という点を指摘したいと思います。しかも日本語と英語で質問した場合では、データの蓄積量の違いもあり、全く回答の質が違ってくると聞いています。回答の精度を上げるために、様々な質問の仕方や多言語でも試しながら、企業も生成AIの賢い使い方を学んでいけば良いと思います。

神薗 一方で、生成AIで得られた回答が必ず正しいとも限りません。米国では、弁護士がチャットGPTを用いて民事裁判の資料を作成したところ、実際には存在しない判例を引用してしまったという事案があり、話題になりました※2。回答が本当に正しいかを判断するための専門性も活用にあたっては必要になります。使い方を間違えると会社にとってもリスクになり得るということはしっかり理解しておくべきです。

企業ごとに活用方針の検討・策定を

――AIをめぐっては、政府は機密情報の漏洩など7つのリスクを示しています。企業はどのようにリスクと向き合うべきでしょうか。

谷脇 リスクとして、例えば個人情報の漏洩問題があります。チャットGPTに個人情報を打ち込むと、それを記憶して別の場面でアウトプットを出した時に個人情報が出てしまう可能性がないとも言えません。ですが、個人情報の取り扱いについては個人情報保護委員会が注意喚起を行っており※3、個人情報を取り扱う事業者に対してしっかりとした対応を求めています。企業もまずはそういったリスクに対する政府の対策をしっかりと確認するところから始めることが良いでしょう。

神薗 メガバンクの海外支社が先物取引にAIへの活用を始めたところ、従来にはないユニークな手法で成功を収めました。ところがここ数年は状況が変わって、AIで導き出した取引について先に買われてしまうケースが出てきたそうです。恐らく自分たちが使っているAIが模倣されてしまった、とおっしゃっていました。これはあくまでも一例ですが、生成AIの登場でAIを活用する企業の活動が先読みされてしまうリスクもあります。

ある生成AIサービスの利用規約を見てみると、プライバシー保護に向けた設定項目が付与されています。生成AIは、General Purpose Technology(汎用技術)としては本当にこれからという段階です。谷脇さんのご提言にも通じますが、まずは現状のサービスに対するルールをしっかりと確認することが有効です。その上で、各企業が正しく、安全に活用するためのルールをそれぞれに作って積極的に活用していくこと望ましいと思います。

※本文中の意見や見解に関わる部分は私見であることをお断りします。

(構成=永田 大・DTFAインスティテュート研究員)

< 参考文献・資料 >
※1 統合イノベーション戦略推進会議「人間中心の AI 社会原則」
https://www8.cao.go.jp/cstp/aigensoku.pdf
※2 日本経済新聞「ChatGPTで資料作成、実在しない判例引用 米国の弁護士」 2023年5月31日
https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/
※3 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等」
https://www.ppc.go.jp/files/pdf/230602_alert_generative_AI_service.pdf



永田 大 / Dai Nagata

研究員

朝日新聞社政治部にて首相官邸や自民党を担当し、政治・政界取材のほか、成長戦略やデジタル分野、規制改革の政策テーマをカバーした。デジタルコンテンツの編成や企画戦略にも従事。2023年5月にデロイト トーマツ ファイナンシャルアドバイザリー合同会社に入社し、DTFAインスティテュートに参画した。
研究・専門分野は国内政治、成長戦略、EBPM(エビデンスに基づく政策形成)。

この著者の記事一覧