目次
2022年11月に「チャットGPT」が公開され、第4次と呼ばれるAIブームが始まった。注目を集めているのは、対話型の生成AI。プログラムの専門知識を持たない人でも、対話によって情報収集や資料作成ができるようになり、ビジネスや社会活動での利用が広がりつつある。政府は生成AIを「デジタル化・デジタル技術の活⽤を加速させ、我が国全体の⽣産性向上のみならず、様々な社会課題解決に資する可能性がある」(AI戦略会議・暫定的な論点整理)と位置付け、開発・利用を促進しようとしている。
一方、生成AIの利用に当たっては、個人情報や機密情報の流出、著作権侵害などに対する懸念も生じており、企業は注意深く対処することが求められている。本稿では、次の三つの留意点を取り上げる。
(1)リスク評価と利用指針の策定
(2)社内の活用推進
(3)生成AI普及を先読みした適切な情報発信
以下、順を追って整理したい。
(1)リスク評価と利用指針の策定
企業として生成AIを使う場合、最初に取り組むべきことは社内の利用指針の策定である。法人としての基本方針を明確にせず、社員やメンバーによるAI利用を無秩序に認めていった場合、さまざまなトラブルを引き起こす可能性がある。
指針策定の前提となるのが、リスクの評価だ。ビジネスに生成AIを活用した場合、どのような危険があるのかを業種、事業の特性に沿った形で確認することが大切になる。
例えば、主要な生成AIは利用者が入力した情報が海外のサーバーに保存されている。また、入力された個人情報や機密情報をAIが学習し、他の利用者の回答に反映する可能性がある。このため、情報が漏洩するリスクは常に存在する。
生成AIを使って作成した文章、デザインが意図せず、他者の著作権や商標権、意匠権などを侵害してしまう可能性もある。また、AIが生成した虚偽の情報をウソと見抜けず、そのままビジネスに使ってしまうリスクも生じ得る。
企業はこうしたリスクを評価したうえで、利用指針を策定することが望ましい。
指針の具体的項目は、
① AIとの対話には個人情報、機密情報を入力しない
② AIによる生成物が著作権などを侵害する可能性があることを理解して利用すること
③ AIによる生成物に虚偽が含まれている可能性があることを理解して利用すること
——などが想定できる。
指針の策定と並行し、利用者が生成AIに個人情報、機密情報を入力した場合、警告・削除するようなシステムを導入することも一案となる。
さらに、AIの活用は企業にとって、ビジネスツールの導入にとどまらず、経営・戦略全般に影響を及ぼす取り組みになる可能性がある。AIを積極的に経営に導入する企業は、利用指針だけではなく、企業としてどのようにAIに向き合うかという倫理方針・倫理原則を設け、AIガバナンスを構築することが期待される。
(2) 社内の活用推進
生成AIに関する事業上のリスクを評価し、指針を定めた後は、社内ルールに適合した形で、生成AIの活用を後押しできるかが焦点になる。社員やメンバーが生成AIを実際に使って業務を効率化したり、新規事業を創出したりできる環境を整えることが重要である。
一部の企業は、AIの活用やビジネス化に関するコンテストを開催し、優良なアイデアに対する報奨金を付与している。社員が自由に発想し、提案できるような環境を整えることが、活用推進につながる。
AIを活用する能力(AIリテラシー)を高めるための研修も有効策となるだろう。企業は社員・メンバーの育成に当たって、どのような作業に対話型生成AIが向いているのか判断し、適切に質問をできるような「使う力」の向上を支援していくことが求められる。
(3)普及を先読みした適切な情報発信
三つ目の留意点は、生成AIの機能向上と普及を先読みしながら、自社の財務情報やブランド、コンテンツを開示・発信していくことである。
生成AIの基盤となる大規模言語モデル(LLM)は大量の公開情報やデータを学習し、機能を向上させていく。企業は開示する情報がLLMの学習対象となっていくことを念頭に置いたうえで、正確な情報やメッセージを発信し、更新していくことが従来以上に大切になる。
情報の開示・発信では、機密情報の漏洩に対策を取ることと同時に、誤った情報やメッセージを拡散させないための工夫が求められる。5Wと呼ばれる「いつ(When)」、「誰が(Who)」、「どこで(Where)」、「何を(What)」、「なぜ(Why)」といった基本的な内容を信頼性が高い形で示していくことが重要だ。発表主体(法人、部署、担当者)や開示・更新の日時などを明記するという初歩的な取り組みを徹底することが欠かせない。
情報の出所を電子的に検証可能な形で付与する「オリジネーター・プロファイル」に代表される新技術にも注意を払いたい。国内では、記事や広告の「真正性」を向上・可視化することを目的として、報道機関や広告会社がオリジネーター・プロファイルを連携して研究しており、2022年12月にCIP(技術研究組合)が設立された。
オリジネーター・プロファイル技術は、電子データの出所を保証することで、①内容の改ざんや変更・混同の抑制、②内容に責任を持つ組織・機関の明確化——などの効果が見込まれている。将来的には、報道、広告分野にとどまらず、正確に開示し、ブランドイメージを守りたい企業にも参考になる可能性がある。AI時代の情報量拡大に適切に対処するため、こうした技術の進展に目配りすることは意義があるだろう。
開示する情報については、AIに学習させるという視点だけではなく、「AIをどのように使ったのか」(How)という視点から透明性を高めることも重要になってくる。欧州連合(EU)が導入を目指すAI規制法案は、23年6月に可決された修正案に「AIを使ってつくった文章や画像、音声などはAIによる生成物だと明示する」という透明性の確保策が盛り込まれた。こうした規制が今後、国際標準となっていく可能性は否定できない。企業は、国内外のルール策定の動向を注視したうえ、AIをどのように利用しているのか積極的に公表していく姿勢が求められる。
<参考資料>
政府AI戦略会議、「AIに関する暫定的な論点整理」、2023年5月26日
デロイト トーマツ ファイナンシャルアドバイザリー合同会社、「AIガバナンスの新潮流」、2022年11月1日
オリジネーター・プロファイル(OP)技術研究組合、「『オリジネーター・プロファイル(OP)技術研究組合』を設立しました」、2023年1月17日
European Parliament, “EU AI Act: first regulation on artificial intelligence”, June 14, 2023, Updated.