チャットAIへの攻撃は、AIへの指示によって意図しない動作を行わせる【プロンプト・インジェクション】と呼ばれます。
この【プロンプト・インジェクション】によって、被害をもたらすことが確認されています。
■プロンプトリーク
本来なら隠されている、サービス提供側が設定した指示(プロンプト)を露出させる攻撃。
この指示によって、本来なら公開されることのない機密情報が公開されてしまう恐れがある。
■ジェイルブレイク
出力されないようにされている文章を表示するように変更してしまう指示。
非人道的な内容や武器の作り方などを教えてしまう可能性がある。
■敵対的プロンプティング
サービス提供側が特定の単語を表示しないように設定しているフィルターを
文字の分割や記号の挿入によって回避させる指示。