では、実際にAIが悪用されている行為にはどのようなものがあるのか、海外での事例を元に解説していきます。
有名ブランドのプレゼントキャンペーンの画像や動画を、有名人の画像や音声を利用してAIで生成することで、個人情報の登録へと誘導する事例がありました。
生成された動画や音声は、実在する人物の情報を利用しているため、見ただけでは偽物かどうかを判断することはかなり難しいでしょう。
また、内容の真偽を確認されていない情報から作成された、偽のニュースサイトなどもあります。こういったサイトは個人情報ではなく、広告収入を目的としているようです。
SNSや動画サイトで投稿されている動画からクローン音声を作成し、家族や友人、上司になりすまして金銭を要求する行為も確認されています。
その中には、子どものクローン音声を使い、誘拐したと見せかけて身代金を要求するパターンもあるようです。
ディープフェイク技術とクローン音声を組み合わせ、会社の責任者になりすまして金銭をだまし取る事例も発生しています。
技術を組み合わせることで、ビデオ通話の画面上には責任者の姿を移すことも、背景を偽装することも可能になっています。
また、同じような手段を使って、有名人になりすまし、偽のインタビュー動画を作成されてしまう事例も発生しています。
世界で大きな災害が発生した際に、AI作成された子供の画像を利用して、寄付金を集める詐欺が横行したこともあります。
画像を見ると、指の本数が異なっていたり、別の災害で撮影された子供の写真が利用されているなど、一部不審な点が確認されていましたが、ネット上での詐欺行為は複数確認されています。
昔からあるロマンス詐欺ですが、この詐欺にもAIが利用されています。
人物プロフィールの作成や、相手のプロフィールなどを学習して行われる会話の自動返答やメッセージの作成などに利用されています。