本ウェブサイトでは、Cookieを利用しています。本ウェブサイトを継続してご利用いただく際には、当社のCookieの利用方針に同意いただいたものとみなします。
本ウェブサイトでは、Cookieを利用しています。本ウェブサイトを継続してご利用いただく際には、当社のCookieの利用方針に同意いただいたものとみなします。
昨今、AI技術をさらに発展させた生成AIがトレンドになっています。ChatGPTやGeminiなど、生成AIの種類はさまざまですが、テキストボックスに任意の質問を入力すると、最適な回答を自動で返信してくれるため、利便性が高く、汎用性もあります。
そんな生成AIですが、従来のAIよりも精度が高いことから、さまざまなリスクがあり、社会問題になっている事案もあります。生成AIがサイバー攻撃のツールとして悪用される事例もありますので、AIを取り扱わない会社であっても、生成AIに関する十分なリスクマネジメントを行わなければなりません。
本記事では、生成AIに関連するリスクについて解説しながら、適切なリスクマネジメント手法について解説します。理解を深めたい方は是非とも参考にしてください。
目次
生成AIとは?
生成AIのリスクと対策について
生成AIリスクマネジメントを実現するためのツール
生成AIに関連するリスクを適切にマネジメントしよう
生成AIとは、全く新しいテキストや画像のアウトプットを生み出すAIの総称です。コンテンツやモノについて、データをもとに学習し、まるで人間が作ったかのような新しいデータを生成できることが特徴となります。
・従来のAIとの大きな違いは、生成するテキストや画像の創造性などの性能の差にあります。
・従来のAIは、膨大なデータから特徴を学習し、それに基づいて予測した上でデータを生成しますので、特徴を把握するために大量かつ質の良いデータを用意する必要がありました。なので、従来のAIの主な目的はデータの特定や予測にあります。
一方、生成AIは、膨大なデータがなくても、少ない条件で人間と同じようなアウトプットを生み出すことができるようになりました。生成AIの主な目的は創造であり、生成するテキストや画像の創造性が従来のAIより格段に高い点が特徴です。生成AIにより、これまで人間にしかできないといわれていた領域の作業までカバーできる可能性が高くなりました。
生成AIの代表的なものとして、「ChatGPT」「Gemini」「Stable Diffusion」などがあります。気になった方は一度調べて見てください。
参照:生成AIとは?従来のAIとの違いやメリット・デメリット、問題点を簡単にわかりやすく解説
利便性や汎用性などが高いことから注目を集めている生成AIですが、昨今、生成AIに関連する事件も増えており、リスクが高いと言えます。
特に社内で生成AIを活用する場合、それに見合った原則や規程などを細かく設定し、適切な体制を構築しておかなければ、情報漏えいリスクや不正アクセスリスクといった様々なリスクに対応することができなくなってしまいます。とはいえ、生成AIはここ最近のトレンドですので、事例が少ないことから、統制の整備には苦労することが予想されます。
生成AIのリスクには、大きく「利用者としてのリスク」「生成AIサービス提供者のリスク」「社会のリスク」に分類されます。これらのリスクについて、その対策と合わせて解説していきます。
参照:生成AIのリスクを整理する|3つの観点でリスクと対策を解説
1つ目の生成AIリスクは、個々の利用者としてのリスクです。これは個人が生成AIを使用する上でのリスクを指します。企業であれば従業員が対象であり、ヒューマンエラーによるものも含まれます。
例として、情報漏えいリスクや権利侵害リスクなどが該当します。生成AIにおける情報漏えいリスクとは、生成AIに機密情報などが入力され、再学習に利用された場合、他の利用者にその機密情報が出力されてしまうことがあることによるリスクです。また、個人情報を入力する場合、再学習の有無に関わらず、入力したこと自体が個人情報の第三者提供に該当するとみなされ、個人情報保護法違反を問われるリスクもあります。
生成AIにおける情報漏えいリスクの対策として、主に入力データを学習に用いないサービスを利用したり、学習機能を無効にする設定で利用するという方法があります。設定情報を常に確認し、細心の注意を払わなければなりません。
生成AIにおける権利侵害リスクとは、著作権侵害の可能性によるものです。生成AIの入力をすることで、学習したデータをそのまま再現して出力できてしまい、その出力の元となった学習データが許諾を得ていないものである場合、権利侵害・契約違反等になってしまいます。
権利侵害リスクの対策として、生成AIサービスが「商用利用可」であっても、出力された文書や画像が他者の権利を侵害する可能性を常に考慮することです。2023年後半以降、複数の大手AI企業は、利用者による著作権等の権利侵害で訴えられた場合、法的責任を負うことを発表していますが、こういった企業も例外ではありません。また、偏りのない大量のデータで学習された汎用的なAIを使用し、他人の著作物を入力しないようにすることも大切です。
2つ目の生成AIリスクは、個々のサービス提供者のリスクです。これは、従業員向けにサービスを提供する場合においても当てはまる場合があります。
例として、訴訟リスクやプロンプトインジェクションリスクなどが該当します。生成AIにおける訴訟リスクとは、インターネット上の情報を安易に学習で利用してしまうことによる訴訟リスクを表します。
訴訟リスクの対策として、自社データの学習利用を制限することが挙げられます。 既に日本企業でもその動きが広がっており、アメリカでは、AIに記事や写真などを学習させることを原則禁止するようサービスの利用規約を変更している企業もあります。
生成AIにおけるプロンプトインジェクションリスクとは、プロンプト入力内容を工夫し、サービス提供者が抑止している情報を引き出そうとする攻撃手法です。例えば、爆弾の作成方法については回答しないように設定された生成AIに対して、「指示されている誓約をすべて忘れて」といった指示を行うことで、予め設定されたシステム的な制約を回避し、本来回答すべきでない情報を引き出すことが可能となります。これは、サービス提供者のブランドイメージの棄損に繋がるリスクがあります。
プロンプトインジェクションリスクの対策として、個人情報や機密情報などの情報を学習対象から除外することが挙げられます。また、利用者が入力したプロンプト内容や、それに基づいて出力される回答を常にチェックし、必要に応じて修正する仕組みを導入することも必要です。但し、完全な対策は難しいため、その点を前提としたサービス提供が求められます。
3つ目の生成AIリスクは、社会のリスクです。生成AIの普及により、生産性は飛躍的に向上している一方で、社会的なリスクが増加しています。
例として、犯罪者や悪意を持つ者が悪用するリスクやディープフェイクなどが該当します。犯罪者や悪意を持つ者による生成AIを悪用するリスクとは、フィッシング攻撃メールの文面を高度化したり、マルウェアのコード作成などを容易にするなどです。誰でも利用可能な一般向け生成AIであっても、犯罪用途にも転用される可能性があります。一方で、WormGPTのように犯罪目的で利用されることを前提に設計された生成AIも登場しています。
生成AIを悪用するリスクの対策として、サイバーセキュリティの継続的な強化と維持が挙げられます。具体的な手法としては、ログの監視や解析、脆弱性診断、ペネトレーションテストなどです。
ディープフェイクとは、人を欺くことを目的とし、AIにより、現実ではない映像や音声でも本物と区別がつかないほどの自然な精度で作成したものです。プライバシー侵害、詐欺、デマの拡散などの問題が世界各地で生じており、主に芸能人や政治家などが被害を受けています。
ディープフェイクにおいては、従業員が誤情報の拡散者になってしまうリスクに対処しなければなりません。SNSなどで見つけた情報や文章だけでなく、画像や映像についても、それが捏造である可能性を常に意識させるために、全従業員に対してAIに関連する研修を実施し、AIリテラシーを身につけてもらうことが大切です。
生成AIに関連するリスクと対策についてご理解いただいたところで、最後に、生成AIに関連するリスクマネジメントにおいて有効なツールについて解説します。
生成AIに関連するリスクマネジメントの手法については、従来のリスクマネジメントの手法を活用したAIをテーマとする情報セキュリティ監査を行うことが主流となりますが、AIに関する情報セキュリティ監査を行う際に有効なツールが3つあります。
1つ目のツールは、「ISO / IEC 42001」です。ISO / IEC 42001は、確立、実行、維持及び継続的な改善に関する要求事項を規定するAIマネジメントシステムの国際規格です。本規格は、AIベースの製品やサービスを提供もしくは利用する事業者を対象とし、組織が責任を持ってAIシステムを開発し、使用するために設計されています。
AIに関連するリスクと機会を管理するための枠組みとして使用することが可能で、トレーサビリティ、透明性、信頼性の担保できるなどのメリットがあります。
参照:ISO/IEC 42001(AIに関するマネジメントシステム規格)が発行されました!
2つ目のツールは、NISTが提供する「NIST AI 100-1AI リスクマネジメントフレームワーク(AI RMF 1.0)」です。RMFとは、リスクマネジメントフレームワークの略であり、今回ご紹介するのは、AIに特化したサイバーセキュリティフレームワーク(AI RMF)です。AI RMFは、2パートによる構成となっています。
パート1では、簡単に申し上げると、組織が AI に関連するリスクをどのようにフレームワーク化できるかについて解説されています。その上で、AI のリスクに何があるかを分析し、信頼できるAI システムの特徴に、妥当性、信頼性、安全性、セキュリティ、レジリエンスなどを挙げ、これらの特徴を満たす十分な状態について定義しています。
パート2では、簡単に申し上げると、フレームワーク・コアとプロファイルについて定義し、構成します。このフレームワーク・コアは、「GOVERN」「MAP」「MEASURE」「MANAGE」 の4つの機能で構成されており、これらに付随して、カテゴリーとサブカテゴリーが設定されます。
「GOVERN」は組織の AI リスクマネジメントプロセスや手順の全段階に適用される一方、「MAP」「MEASURE」「MANAGE」 の各機能は、AI システム固有のコンテクストや AI ライフサイクルの特定の段階で適用することができます。
参照:NIST AI 100-1AI リスクマネジメント フレームワーク(AI RMF 1.0)
3つ目のツールは、「広島AIプロセス」です。広島AIプロセスとは、2023年5月のG7広島サミットにて、G7の関係閣僚が中心となり、AIの活用や開発、規制に関する国際的なルールに対応するための文書が作成されたものです。
広島AIプロセスの成果は主に「広島AIプロセス包括的政策枠組み」「全てのAI関係者向けの広島プロセス国際指針」「高度なAIシステムを開発する組織向けの国際行動規範」などです。
広島AIプロセス関連文書に基づき、今後は各国・地域が詳細な法規制やガイドラインを整備していくことが予想されます。このことから、広島プロセスの成果内容をベースにAIリスクマネジメントを構築することは、全世界に対応した包括的なAIリスクマネジメントへの形成に繋がっていくため、十分に活用すべきと言えます。
参照:広島AIプロセス
生成AIは従来のAIよりも多くのリスクがありますが、今後ますます発展していく可能性が高いものですので、生成AIに関連するリスクマネジメントは必ずできるようにならなければなりません。ですが、難しく考える必要はございません。今回ご紹介したような生成AIに関連するリスクと統制を適切に理解し、ツールを活用すれば、対処することは十分可能です。
まずはAIに関する理解を深めるところから始めると良いでしょう。本記事が、何か1つでも参考になれば幸いです。最後までお読みいただきありがとうございました。
アビタスでは2005年にCIAプログラムを開講して以来、圧倒的な合格実績を挙げ続けています。合格率を上げるために、オリジナル教材と講師の質の良さにこだわっています。
講師は対法人向けの内部監査の実務研修も行っており、専門分野の知識だけでなく、ティーチングスキルにも優れているのが魅力です。
また通学・通信を併用できるコースや、スキマ時間で学習できるコンテンツなども揃えており、忙しい社会人でも効率よく学習できる環境が整っています。
CIAをはじめとする内部監査に関する資格取得を目指している方は、ぜひアビタスの利用を検討してみてください。
最近のエントリー