Meta、新LLMセキュリティ評価ツールを発表
Metaは、大規模言語モデル(LLM)のセキュリティリスクと能力を評価するための新しいベンチマーク「CyberSecEval 3」を発表しました。
- Metaは新しいLLMセキュリティ評価を発表。
- Llama 3のフィッシング攻撃自動化を確認。
- 人間監視と多層的対策が必要と強調。
このベンチマークは、LLMがサイバー攻撃に利用される可能性が高まっている中で、サードパーティやアプリケーション開発者、エンドユーザーに対するリスクを評価するものです。
Metaの研究チームは、Llama 3を使用して、フィッシング攻撃や自動化された攻撃作戦の脆弱性を検証しました。
その結果、Llama 3は「中程度に説得力のあるマルチターンのスピアフィッシング攻撃」を自動化できることが確認され、今後この脅威がさらに拡大する可能性があると警告されています。
Metaは、Llama 3のようなモデルが攻撃的なサイバー作戦でのエラーを防ぐためには依然として人間の監視が必要であると指摘しています。
特に、フィッシング防御やAIモデルによる攻撃を防ぐために、企業は迅速に対策を講じる必要があると強調。
Metaが推奨する対策として、LlamaGuard 3やPromptGuardといったセキュリティガードレールの導入が挙げられ、これらは悪意のあるコード生成や攻撃プロンプトの成功率を低減するのに役立つとされています。
さらに、MetaはLLMを使用したサイバー攻撃の進化が急速に進んでおり、企業やセキュリティリーダーが追いつけない可能性が高いことを指摘しました。
今後、LLMを利用した攻撃の対策には、継続的なセキュリティトレーニングやAIに依存しない多層的なセキュリティアプローチが重要となると強調しています。
参考記事:Meta
「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。
最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。
また、弊社紹介資料もご用意しておりますので、併せてご確認ください。