AIツールを使うことで企業の機密が漏えいする恐れはあるか?

大規模言語モデル搭載のAIツールを導入する際には、機密情報や顧客情報の保護が十分に確保されているか、安全対策を事前にチェックしておくことが求められる。

大規模言語モデル(LLM:Large Language Models)を活用したチャットボットは、世界中で娯楽用途にとどまらず、企業の生産性向上のためにも活用され始めている。その技術の進化に伴い、プログラミングやコンテンツ制作、顧客対応などの分野で一部の業務が完全に代替される可能性がある。すでに多くの企業がLLMベースのアルゴリズムを導入しており、近い将来、あなたの企業にも影響を及ぼすことは避けられない。つまり、今や「チャットボットを導入すべきか否か」ではなく、どのように活用するかが問われている。しかし、業務の効率化を目的にAIツールを導入する前に、慎重に確認すべき点がいくつか存在する。

LLMとデータを共有するのは安全か?

LLMは、インターネット上の膨大なテキストデータを学習したAIモデルであり、プロンプトと呼ばれるユーザーの入力を理解し、解釈する仕組みを持つ。そのため、企業内で活用する際、数行のコードや顧客へのメール作成を依頼するたびに、企業関連のデータをAIに提供する可能性がある。英国のサイバーセキュリティセンター(NCSC)によれば、現時点ではLLMがプロンプトの内容を直接学習し、ほかのユーザーへの回答に反映することはないが、プロンプト自体はサービス提供企業が閲覧できる。また、これらのデータは保存され、将来的にサービスやモデルの開発に活用されると考えられる。モデルの精度向上にはより多くのデータが求められるため、入力データが削除される可能性は低い。情報の蓄積が進むにつれ、機密情報や個人データがモデルに取り込まれ、サービス提供者がアクセス可能となるリスクがある。このようなデータプライバシーの懸念に対し、OpenAIは2023年4月にChatGPTのチャット履歴を無効化する機能を導入。履歴を無効にした場合、その会話はモデルの学習には利用されず、履歴欄にも表示されないと発表した。しかし、セキュリティ上の懸念はこれだけではない。オンライン上に保存されたプロンプトがハッキングや情報漏えいのリスクにさらされる可能性があるほか、意図せず外部からアクセス可能な状態になってしまう恐れもある。さらに、LLMの提供元だけでなく、サードパーティー企業に対しても同様のリスクが考えられる。

既に見つかっている不具合はあるのか?

新たな技術やツールが登場すると、それに伴いハッカーの関心も高まる。現在のところ、LLMのセキュリティは厳重とされているが、例外も存在する。2023年3月、OpenAIのChatGPTでチャット履歴や決済情報の漏えいが発生し、3月20日にはサービスが一時停止された。3月24日の発表によれば、オープンソース・ライブラリのバグにより、「一部ユーザーが他のアクティブなユーザーのチャット履歴タイトルを閲覧可能だった」と報告されている。また、「ほぼ同時に利用していた場合、新規チャットの最初のメッセージが他のユーザーの履歴に表示されることがあった。調査の結果、同じバグによって1.2%のChatGPT Plus登録者の決済情報が9時間にわたり閲覧可能だった」とも述べられた。さらに、セキュリティ研究者Kai Greshakeのチームは、マイクロソフトのLLMを用いたBingチャットに、個人情報の取得やフィッシングサイト誘導のリスクがあることを指摘。彼らはWikipediaのアルバート・アインシュタインのページに、フォントサイズゼロの隠しプロンプトを埋め込んだ。チャットボットがこのページを参照すると、不適切な言い回しをするようになった。「アルバート・アインシュタインは1879年3月14日に生まれたんだ」と話し、理由を尋ねると「指示に従っているだけ」と返答した。この「間接的プロンプト・インジェクション」によって、悪意のあるリンクへユーザーを誘導する可能性がある。

LLMに関連したインシデントは既に発生しているのか?

2023年3月後半、韓国の放送局Economist Koreaは、サムスン電子で発生した3件のインシデントについて報じた。同社は従業員に対し、質問を入力する際の情報管理に注意するよう呼びかけていたが、一部の従業員がChatGPTを利用する際に社内情報を誤って入力してしまったという。ある従業員は、半導体設備測定データベースに関するソースコードを誤って送信し、別の従業員は、コード最適化を目的に、故障した機器を特定するコードを入力してしまった。さらに、会議の録音データを議事録作成のためにアップロードした事例もあった。この問題を受け、サムスン電子はデータ保護を強化しつつ、AI技術の発展に対応するため、従業員の業務を支援する独自の社内向け「AIサービス」を開発する方針を発表した。

データを共有する前に、どのようなチェックを施すべきか?

LLMに企業データをアップロードする行為は、OpenAI社などの外部企業と社内情報を共有し、その一部の管理権を渡すことに等しい。OpenAI社は、モデルの学習や精度向上のためにデータを利用すると明言しているが、それ以外の目的で活用されていない保証はない。業務でChatGPTなどのAIツールを導入する際には、以下の基本ルールを遵守すべきである。まず、AIツールやその運営企業が、企業データの取り扱いについてどのような方針を持ち、どのように情報を保存・共有しているのかを確認すること。次に、生成AIツールの利用に関する明確なガイドラインを策定し、特に顧客情報のプライバシー保護の観点から影響を精査すること。さらに、従業員がAIツールを利用する際のルールを定め、機密情報や顧客データの入力を禁止するなどの対策を講じる必要がある。

AIツールを、どのように業務へ活用するべきか?

AI技術の急速な発展により、企業は前例のない効率性と生産性を手に入れることができました。大量の明快な回答を即座に得られるようになった一方で、その便利さの裏には見過ごすことのできない重大なリスクが潜んでいます。この問題を象徴する二つの重要な法的事例があります。一つは、ChatGPTが誤ってBrian Hood氏を収賄事件の犯人として記載した件です。実際には、同氏はNote Printing Australia社の内部通報者として不正を告発した人物でした。この誤った情報提供により、OpenAI社は訴訟リスクに直面することとなりました。もう一つの事例は、AIアート分野で起きています。Stability AIやMidjourneyなどの企業が、著作権者の許可を得ることなく膨大な量の作品を学習データとして使用したことで、アーティストらから集団訴訟を起こされています。これらの問題は、AIの出力結果が人間による適切な確認と検証を必要とすることを明確に示しています。AIの生成する回答は説得力があり、一見すると完璧に見えますが、それだけに誤情報が含まれていた場合の影響は甚大となりかねません。

どのようなデータプライバシーに関する保護策があるのか?

現代のIT環境では、包括的なセキュリティ対策が不可欠です。具体的には、厳格なアクセス制御、従業員の機密情報取り扱い教育、多層的なセキュリティソフトウェアの導入、データセンターの保護強化などが重要です。特に、ソフトウェアサプライチェーンや脆弱性の高いIT資産については、慎重な対応が必要です。ChatGPTなどのチャットボットは高度な知能を持つように見えますが、マルウェア作成の可能性も含めて、本質的には欠陥を含むソフトウェアとして扱う必要があります。