文字サイズ

ケーススタディで学ぶ インターネット安心安全ガイド

特集記事

生成AIのリスクについて

生成AIとは

生成AIとは、大量のデータを学習し、そのデータを基にして、新しい作品を自動で生み出すことのできる技術です。従来のAIはパターン化された行動を自動化することが目的でしたが、生成AIは学習データからさまざまな文章、映像、動画などを新たに生み出していくことが可能となっています。

生成AIによって、専門的な知識やスキルのない一般の人であっても、新たな作品を生み出すことができるようになり、作品の幅や生産性が向上したという面もあるようです。

生成AI利用に関連するリスクとは

しかし、そんな便利な生成AIは使い方を間違えてしまうと、企業への損害だけでなく、社会問題につながってしまう可能性もあります。生成AIを利用する際、どのような点に気をつけなければいけないのでしょうか?

入力したデータが漏洩する!?

生成AIで何かを作り出す場合、必要なデータを入力することになりますが、その入力したデータは学習データに組み込まれることがあります。

そのため、内部情報や顧客情報などを入力してしまうと、本来なら公開されてはいけないデータが誰かの生成物に反映され、情報漏洩が起こってしまう可能性も考えられます。

また、入力したデータがどこにどのような形で保存されているのかを確認することは難しく、把握できない場所に情報が保存され続ける状態になってしまうかもしれません。

出力された情報には誤情報や著作権物も含まれているかも

生成AIは膨大な学習データから、指示された資料や画像などを生成しますが、その学習データの中には誤情報が含まれていることもあります。
生成AIは学習データの真偽を精査して生成してくれるわけではありません。生成された情報を鵜呑みにせず、本当に内容があっているのかを調べる必要があります。

また、学習データに含まれている内容によっては、生成した作品に著作権や商標権などの権利侵害が発生する可能性もあります。
利用した生成AIサービスが商用利用可であっても、出力された作品が商用利用可能かどうかは保証されていません。

運用側の情報を狙うプロンプトインジェクション

プロンプトインジェクションとは、チャットボットなどで特定の命令を出すことで、本来なら出力されない機密情報などを無理やり出力させる方法です。

生成AIは本来のルールよりも利用者の指示を優先する場合もあるため、公開されることのない内部情報や保存データを公開してしまう恐れもあります。

質問回答用のbotに生成AIを利用する場合は、企業情報を漏らさないためのプロンプトインジェクション対策が必須です。

リスクを最小限に抑えるために必要な対策は?

生成AIを利用するうえでリスクを抑えるためには、利用する全員での対策が必要となります。

■利用するためのルール作り/入力する情報の精査と周知
生成AIに入力しても問題のない情報(社外に公開可能な情報)と、入力を禁止されている情報(機密情報や顧客情報など)を線引し、利用者全員に周知する

■生成AIの学習データベースの確認/権利侵害の可能性
利用する生成AIの学習データベースに著作物などが含まれていた場合、生成作品が著作権などの権利を侵害している可能性が考えられるため、利用する生成AIがどのような学習データベースを基にしているのかを確認する

■出力された情報の精査/出力結果を鵜呑みにしない
生成AIの作り出した作品の精査は必ず行う必要がある。
学習データベースに誤情報が含まれている可能性や、文字や情報の組み合わせによってはデータベースと生成された作品に齟齬が生じる可能性もあるため、生成された情報を正しい情報と盲信しない

最後に

今までのAIとは異なり、学習データを基に新たな作品を生み出すことが可能になった生成AI。さまざまな作品を生み出すことに力を貸してくれますが、この便利な機能も正しく使わなければ、企業や社会に影響を与える大きなリスクを発生させてしまいます。

仕事やプライベートで生成AIを利用するときには、誰かの権利を侵害していないか、生成された情報は正しいのかなどを確認していくようにしましょう。