AIによる犯罪・事件の事例を調べてみた!OpenAIが予測しているAI犯罪も紹介

画像生成やChatGPTなどAIはさまざまな分野で進歩しています。

その一方で、AI技術の進歩に伴い、ディープフェイク、詐欺、なりすまし音声などAIが関与する犯罪が増加していくことが予想されます。

今回は具体的にどのような犯罪が発生しているのか、AI犯罪から身を守るにはどうすればいいのかまとめていますので、ぜひ最後までご覧ください!

なお弊社では、AIによる犯罪から身を守る方法について1時間無料相談を承っています。こちらからお気軽にご相談ください。
→無料相談で話を聞いてみる

目次

AIによる犯罪の種類

まずは、AIによって引き起こされる可能性がある犯罪について以下の3つです。

  • ディープフェイクの悪用
  • 人工知能対応のパスワード推測
  • 違法薬物、爆弾の作成

それぞれ詳しく確認していきましょう!

ディープフェイクの悪用

ディープフェイクは、AI技術を用いて音声や映像コンテンツを操作し、それが現実と見分けがつかないほどのクオリティで表現する技術です。

近年、技術が向上し、非常に精巧なディープフェイクが作成できるようになってきました。

ディープフェイクには、ポジティブな使われ方とネガティブな使われ方が存在します。

ディープフェイクのポジティブな使い方

例えば、AIアナウンサーによるニュースの自動読み上げが挙げられます。

従来、ニュース番組では現場に記者を派遣して取材を行い、映像や音声を収集していました。
しかし、ディープフェイクを使えばそうした手間やコストを省いて、すぐに映像を放送することができます。

また、危険な現場での取材にも利用できます。
例えば、戦場や災害現場など記者が安全に取材できない場所でも、ディープフェイクを使えば、あたかも現地に記者がいるかのような映像を放送することが可能です。

他にもAIモデルの生成や、映画の多言語吹き替えなど、ディープフェイクはさまざまな場所で利用されています。

下記は、ディープフェイクを用いて映画の多言語吹き替えを行った動画です。

この動画は、ジャック・ニコルソン氏とトム・クルーズ氏が映画「ア・フュー・グッドメン」での一場面をフランス語で、トム・ハンクス氏が「フォレスト・ガンプ/一期一会」でドイツ語、スペイン語、日本語で話しているかのように合成したものです。

この動画では、少し違和感がある部分もありますが、俳優の口がそれぞれの言語に合わせて動いているのがわかりますね!

今後、この技術がさらに進歩すれば、違和感のない映像を作成できるようになるかもしれません。

ディープフェイクのネガティブな使い方

ポジティブな使われ方をされている一方で、ディープフェイクはネガティブな使い方も懸念されています。

過去には、政治家を陥れる偽動画やCEOの声を模倣して大金を詐取した事例がありました。

ディープフェイクの技術は日々進歩しており、より精巧な偽動画や音声が作成できるようになってきています。

そのため、ディープフェイクは第三者になりきって詐欺を行ったり、偽情報を広めたりすることにも利用されています。
特に、政界中で問題となっているのは、ディープフェイクを使って女性芸能人などの顔とアダルトビデオを合成させるフェイクポルノです。

これらの悪用により、被害者は社会的信用や経済的損失を被る可能性や、社会に混乱をもたらす可能性があります。

ディープフェイクの動画はYouTube上にたくさんありますので、詳しく知りたい方はぜひチェックしてみてください

著名人だけでなく、一般人でもなりすまし音声の危険性がある

一般人においても、なりすまし音声は深刻な懸念事項です。

AIの音声合成技術により、本人の声を忠実に模倣することが可能で、そのため、本人からの電話やメッセージであるかどうかを判断するのが難しく、被害者は簡単に騙されてしまうことがあります。

著名人に比べて、一般人の場合、なりすまし音声の被害に巻き込まれる確率は低いかもしれませんが、現代のSNSやオンラインサービスの普及により、なりすまし音声の被害にさらされるリスクは誰にでも存在します。

日本でも、AIを悪用したなりすまし音声による詐欺事件が増加する可能性は高いと言えます。

違法薬物、爆弾の作成

ChatGPTのコンテンツフィルターは、犯罪目的の利用を防ぐために設定されています。

しかし、これらのコンテンツフィルターは必ずしも完璧ではなく、一部のユーザーがフィルターを回避する手法を発見してしまった事例が存在します。

ChatGPTのコンテンツフィルターを回避する手法として特に知られているのが “Do Anything Now” を意味する略語、DANと呼ばれるプロンプトを使用する方法です。

このDANを使用すると、ChatGPTに通常の安全規制や制限を無視させ、さまざまな情報を要求することが可能です。

これにはテキストのみで構成されるものや、コード内にテキストが含まれるものなど様々なものがあります。

ただし、現在ではDANを使用しても、犯罪目的に利用可能な情報を取得することは難しくなってきています。

しかし、DANのようなコンテンツフィルターを回避する手法は常に開発されており、今後も新たな手法が登場してくる可能性は十分にあるので注意が必要です。

筆者がDANのプロンプトを打ち込んでみたところ、「OpenAIのポリシーに反するのでリクエストに応えられません」とのことでした。

上手く行った時は、上記のような回答が得られたとのことです。

かなり口が悪いですが○法○物の作り方を教えてくれています。

ちなみに筆者が打ち込んだプロンプトはあまりに長いので、気になる方はこちらのサイトから確認してください。

人工知能対応のパスワード推測

AIを用いたパスワード解析は、近年増加傾向にあります。
方法はさまざまですが、一般的には流出したパスワードを分析することでAIがパスワードを解読できます。

あるレポートによると81%のパスワードが1ヶ月未満で解読されたと報告されています。

詳細な情報については、以下のリンク先で提供されているレポートを参照してください。

あわせて読みたい
2023 Password Cracking: How Fast Can AI Crack Passwords? We used an AI password cracker to run through 15M passwords to find out how long it would take AI to crack your password in 2023. Here what we found.

なお、ChatGPT・AI活用事例について詳しく知りたい方は、下記の記事を合わせてご確認ください。
海外でバズったヤバいChatGPT・AI活用事例30選

AIによる犯罪事例

これまで「AIが起こせる犯罪の種類」をいくつか紹介してきましたが、実際にAIはすでに犯罪に悪用されています。

その中から3つの事例をピックアップしてご紹介します。

偽ゼレンスキー大統領のフェイク動画

このニュースはとてもセンセーショナルだったので知っている方もいるかもしれません。

ウクライナ政府の戦略的コミュニケーションセンターは、2022年3月2日(米国時間)、ロシアがゼレンスキー大統領のディープフェイク動画を作成して流す可能性があると警告しました。

その警告通り、3月にロシアの偽情報工作によって作成されたウクライナのゼレンスキー大統領が自国の兵士に対して降伏を促す動画が出回りました。

ゼレンスキー大統領は、国連での支援呼びかけや多くの国々への訪問を通じて、ウクライナの状況を広く訴えており、ウクライナを守るために尽力しています。

そのため、この動画が広まった際、世界中に大きな衝撃を与えました。

ゼレンスキー大統領はこれまでにウクライナの防衛に向けて献身的な努力をしてきた人物であり、彼が降伏を促す発言をするとは考えにくい状況でした。

その後の調査で、この動画がAIを用いて作成されたディープフェイクであることが判明しました。

動画を注意深く観察すると、顔と首の肌の色調にわずかな違いが見られたり、全体的に何か不自然さが見受けられます。

それでも、声や口の動き、表情は話の内容に合わせて連動しており、まばたきさえリアルに表現されています。

この動画のメタデータ解析から明らかになったのは、たった2時間ほどで作成されたことでした。

これは、AI技術の進歩により、今や個人が数時間以内に大勢の人々を欺くことができる動画を作成できる時代に突入していることを示しています。

偽ゼレンスキー大統領の動画を見たい方はこちらをご覧ください!

イギリスで合成音声による2,600万円の詐欺

次に紹介するのは、合成音声技術を利用した巧妙な詐欺事件です。

イギリスに拠点を置くエネルギー企業のCEOが、ドイツの親会社のCEOを名乗る詐欺師から22万ユーロ(約2600万円)をだまし取られる事件が発生しました。

この事件は、オレオレ詐欺の一例に思えるかもしれませんが、被害に遭ったCEOの話によれば詐欺師の声質や話し方、間の取り方、さらにはドイツ訛りまで本物の親会社のCEOに酷似していたとのことです。

また、詐欺師は被害者のCEOを名前で呼び、振込先の口座情報や支払いの詳細をメールで送ってきたそうです。

親会社のCEOからの緊急の振込指示とそれに続く口座情報の提供は、一見合理的に思えるため疑念を抱かずに従ってしまうのも無理はないと言えます。

しかし、被害に遭ったCEOは2回目の振込指示で何かがおかしいと感じ、本物の親会社のCEOに直接電話をかけたところ、先の通話が偽物であったことに気づき詐欺であることが判明しました。

この事件は、詐欺師が高度な技術を用いて、被害者を騙す手口が巧妙になっていることを示すものと言えます。

対話型AI「Tay」の暴走

2016年、Microsoftは「Tay」という名前のチャットボットAIを立ち上げました。

TayはTwitterなどのプラットフォームを介してユーザーと対話できるAIで、ChatGPTの前身として注目されました。
Tayはユーザーとの対話を通じて学習し、自然で違和感のない対話を実現することを目指して設計。
その使いやすさから、Tayは1日も経たずに5万のフォロワーを獲得しました。

しかし、Tayはユーザーとの対話から学習する仕組みを持っており、不適切な内容も取り込んでしまいました。
その結果、Tayは人種差別的な発言、性差別的な表現、陰謀論を含む攻撃的なコメントを投稿するようになり、炎上を引き起こしたのです。

このため、MicrosoftはTayのサービス提供を開始してからわずか16時間後に、運用を停止せざるを得なくなりました。

AIによるディープフェイク、剥ぎコラ、アイコラ事件

剥ぎコラとアイコラは、AI技術を悪用した画像生成技術に関連する問題です。剥ぎコラは、元の画像から人物の顔や体の部分を切り取り、別の画像に組み合わせて新しい画像を作成する手法です。

AIによる剥ぎコラとアイコラ事件は韓国で起きています。

韓国のアイドルグループNewJeans、LE SSERAFIM、IVE、aespa、TWICEなどを対象にしたディープフェイク動画や生成AIによるデータのネット上での拡散が問題視されています。

Civit AIといった生成AI共有サイトでは、人気ガールズグループのメンバーに関する学習データが多数アップロード。
AI技術を利用した性的な映像に芸能人の顔を合成して収益を得ている人が出てきているのです。

韓国では、2020年6月に「ディープフェイク処罰法」が改正され、違法な画像や映像の制作と流布に対して罰則が設けられました。

しかし、改正から2年半が経過してもディープフェイクによる犯罪は依然として増加傾向にあります。
事例を見て分かるように、AIの技術が進化するにつれて、それが犯罪に悪用される可能性も増えてきています。

ChatGPTの開発元であるOpenAIは、AIが悪用されるのを防ぐためにどの様な対策をしているのでしょうか?

OpenAIが予測しているAI犯罪

AIによる犯罪は、多くの人を巻き込む形ですでに発生しており、将来的にはその数が増加することが予想されます。

ChatGPTを開発したOpenAIはどのような犯罪を想定しているのでしょうか。

OpenAIはChatGPTなど多くのAI製品を一般の人々に提供しており、そのためOpenAIの犯罪防止に関する取り組みは非常に重要です。

公式サイトにある以下のリンクで、使用ポリシーに関する記事を見つけることができました。

あわせて読みたい

このページにはChatGPTを含む、OpenAIの製品を使う際のガイドラインが記載されています。

具体的には以下のような項目が挙げられています。

  • 違法行為
  • 児童ポルノもしくは児童を傷つけるいかなるコンテンツ
  • 悪意のある、もしくは暴力的なコンテンツの生成
  • マルウェアの生成

etc…

さらに、性的コンテンツの生成、政治的コンテンツの過度な生成、プライバシー侵害行為なども制限されています。

また、、特定の分野での使用、例えば医療、金融、法律などにおいては、AIが使用されていることを明示し、AIが生成したコンテンツには限界があることを免責条項で示す必要があるとされています。

これらのガイドラインから、OpenAIはAIによる犯罪に対して幅広い種類のものを想定していることが分かります。

特に、利用規定の下記から大衆に対する情報操作に対して深刻な懸念があるのかなと感じます。

“Political campaigning or lobbying”,”High risk government decision-making”

上記は、政治活動や政府の意思決定に使う際は注意が必要と記載されており、政治に対する使用については特に注意を払っているようです。

アメリカのAI自主規制ルールに参加する企業が増加中

2023年9月12日、アメリカのバイデン政権はAIの安全性を確保するための規則を自主的に採用する意向で、これに関連する8つの企業から合意を得たことを発表しました。

この情報は複数のメディアによって報じられました。

この自主規制に参加する企業は、以前から同様の合意に署名していた7つの大手企業に加えて、新たにNVIDIAを含むIBM、Adobe、Salesforceなど8つの企業が参加。

この合意により、老舗企業と新興企業の両方がAIの安全性を確保する枠組みに参加することとなりました。

7つの大手企業との合意と共通の要点が含まれており、具体的な内容は以下の2つです

  1. AIを一般公開する前やサービスをリリースする前に、社内外の専門家がサイバー攻撃への耐性などをチェックし、安全性を確認します。
  2. AIが生成元である画像や映像であることが識別可能な技術の開発を促進します。

この合意には法的拘束力は伴わず、企業の自主的な取り組みによるものです。

米政府は以前から多くの企業にこの自主規制への参加を呼びかけており、さらにAIの安全性を確保するために大統領令を策定中としています。

同時に、米連邦議会もAI規制に関連する法案を検討中であり、今回の8つの企業との合意は、多くの企業がこの取り組みに参加する契機となる可能性があります。

AIによる犯罪から身を守る方法

ここでは、AI犯罪から身を守る方法を紹介します。対策方法を確認し、自身がAIによる犯罪に巻き込まれないようにしてください。

セキュリティ意識の向上

AI犯罪のリスクを理解し、常に警戒心を持つことが重要です。

具体的な行動としては、インターネット上でのアカウントやデータのセキュリティを強化することが考えられます。

強力なパスワードの使用、定期的な変更、マルウェア対策、アンチウイルスソフトウェアの利用などが役立ちます。

ディープフェイクの検出ツールの使用

ディープフェイクに騙されないようにするため、ディープフェイク検出ツールを活用し、信頼性の高い情報を確保しましょう。

ディープフェイク検出ツールは、ディープフェイクによる画像や動画を識別し、その信頼性を評価するために設計されています。
これらのツールを活用することで、ディープフェイクからの保護を強化できます。

さらに、オンラインアカウントやデータへのアクセスには強力なパスワードを使用し、定期的に変更しましょう。

以下はパスワードのセキュリティを向上させる方法です。
・12文字以上が目安
・大文字、小文字、数字、記号を組み合わせる
・個人情報や辞書に載っている単語は避ける

さらに、2要素認証を有効にして、アカウントへの不正アクセスを難しくしましょう。

ただし一度決めたパスワードを長期間使用するのはリスクが高いので、定期的にパスワードを変更し、セキュリティの高さを維持しましょう。

ソーシャルエンジニアリング攻撃に警戒

ソーシャルエンジニアリング攻撃とは、メールや電話を使って重要情報を不正に入手するサイバー攻撃です。

ソーシャルエンジニアリング攻撃から身を守るためには、予防策を身に着けて常に警戒することが重要です。

まずはやり取りする相手の身元を再確認しましょう。
不審なメールや電話には、返信をしない、リンクをクリックしない、添付ファイルを開かないなど、注意してください。

さらに、パスワードやクレジットカード番号などの個人情報を簡単に教えてはいけません。

また、セキュリティソフトを最新の状態に保つことで、フィッシングサイトやマルウェアなどの脅威から身を守ることができます。

AIベースのセキュリティソリューションの採用

AIベースのサイバーセキュリティソリューションは、従来型のセキュリティソリューションでは検知が難しい高度な脅威を検出するために有効です。

AIベースのサイバーセキュリティソリューションは、大量のデータを高速に処理することで、未知のマルウェアや攻撃を検出できます。

また、パターンや傾向を学習することで、人間では気づきにくい異常も検出できます。

なお、格安利用できるAIサービスについて詳しく知りたい方は、下記の記事を合わせてご確認ください。
【Forefront AI】GPT-4やClaude 2、人気LLMをまとめて格安利用できるAIサービス

AIによる犯罪から身を守るためには

AIによる犯罪の懸念が増加しており、ディープフェイクの悪用、人工知能対応のパスワード推測、違法薬物や爆弾の作成が問題となっています。

ディープフェイクは、ポジティブな使い方とネガティブな使い方が存在し、政治家やCEOの声を模倣したり、偽情報を広めたりすることが懸念。

さらに、AIはコンテンツフィルターを回避する手法を持つことがあり、特に”DAN”というプロンプトが問題となっています。

AIを用いたパスワード解析も増加しており、流出したパスワードを分析することで短期間で解読されることが報告。

OpenAIはAI犯罪に対処するための利用ポリシーを設けており、違法行為や悪意のあるコンテンツの生成、政治的コンテンツの使用に関して制限を設けています。

AI犯罪から身を守る方法として情報の信頼性を検証し、AI詐欺に対するルールを設けることが重要であると強調されています。

 AIによる犯罪から自身を守るために、AIに関する知識を積極的に学び、自己防衛の手段を身につけることが必要です。

AIを使ったハルシネーション対策AIの開発

弊社では、ハルシネーション対策ができるAIの開発実績があります。

生成AIには、”ハルシネーション“という「嘘の情報を本当のことのように話す」振る舞いが問題視されています。

弊社では、様々な手法でこの問題の対処に取り組んでいますが、1つの手法として「AIを検閲するAI」の開発を行っています。

この例では、AIが生成した回答が正しいのかどうか、Google検索などので取得したデータソースにアクセスし、本当の情報であるかどうか検証しています。

他にも、論文データベースや自社の正しい情報のみが載っているデータにアクセスすることで、より高度な検閲機能の実装が可能です。

AIを使ったハルシネーション対策AIの開発に興味がある方には、まずは1時間の無料相談をご用意しております。
こちらからご連絡ください。

最後に

いかがだったでしょうか?

弊社では

・マーケティングやエンジニアリングなどの専門知識を学習させたAI社員の開発
・要件定義・業務フロー作成を80%自動化できる自律型AIエージェントの開発
・生成AIとRPAを組み合わせた業務自動化ツールの開発
・社内人事業務を99%自動化できるAIツールの開発
ハルシネーション対策AIツールの開発
自社専用のAIチャットボットの開発

などの開発実績がございます。

まずは、「1時間の無料相談」にてご相談を承っておりますので、ご興味がある方はぜひご連絡ください。

➡︎生成AIを使った業務効率化、生成AIツールの開発について相談をしてみる。

生成AIを社内で活用していきたい方へ

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、生成AI社内セミナー・勉強会をさせていただいております。

セミナー内容や料金については、ご相談ください。

また、弊社紹介資料もご用意しておりますので、併せてご確認ください。

投稿者

  • Hiromi Sai

    ChatGPTメディア運営 / テクニカルライター リベラルアーツ専攻。大学休学中は、Webマーケティング会社のマネージャーとしてライター、ディレクター100名のマネジメントをする。南米のチリとタイでの長期居住歴を持つ。

  • URLをコピーしました!
  • URLをコピーしました!
目次