MetaがAI安全ツール「Purple Llama」を発表、オープンな生成AIモデルの安全性を高めるツールや評価システムを提供

MetaがAI安全ツール「Purple Llama」を発表、オープンな生成AIモデルの安全性を高めるツールや評価システムを提供 - 画像


開発者がオープンな生成AIを使用して製品を構築する際に、安全性を高めるためのツールや評価のシステムを提供するプロジェクト「Purple Llama」を立ち上げるとMetaが発表しました。
Introducing Purple Llama for Safe and Responsible AI Development | Meta
https://about.fb.com/news/2023/12/purple-llama-safe-responsible-ai-development/

MetaがAI安全ツール「Purple Llama」を発表、オープンな生成AIモデルの安全性を高めるツールや評価システムを提供 - 画像


Announcing Purple Llama: Towards open trust and safety in the new world of generative AI
https://ai.meta.com/blog/purple-llama-open-trust-safety-generative-ai/
サイバーセキュリティの世界では、攻撃者のツールとテクニックをエミュレートしてセキュリティの有効性を確かめるチームのことをレッドチーム、実際の攻撃者やレッドチームからシステムを防御するセキュリティチームのことをブルーチームと呼びます。Metaはこの考え方を生成AIのリスク評価にもちこみ、攻撃と防御が協力してリスクを軽減するアプローチを行うことを明確にするためプロジェクトに「Purple(紫)」という名前をつけたとのこと。
Purple Llamaの目的はMetaのResponsible Use Guideで共有されているベストプラクティスに従って、開発者が責任を持って生成AIモデルを展開できるようにする手助けを行うことです。プロジェクトの立ち上げと同時に「CyberSec Eval」と「Llama Guard」が公開されました。

MetaがAI安全ツール「Purple Llama」を発表、オープンな生成AIモデルの安全性を高めるツールや評価システムを提供 - 画像


CyberSec Evalは大規模言語モデルのサイバーセキュリティ安全性評価ベンチマークのセットで、「大規模言語モデルのサイバーセキュリティリスクを定量化するための指標」「安全でないコードを提案する頻度を評価するツール」「悪意のあるコードの生成やサイバー攻撃の実行を困難にするための評価ツール」が含まれており、ホワイトハウスのファクトシートで概説されているリスクの低減に役立つとされています。
また、Llama Guardは危険な可能性のあるコンテンツや完全にアウトなコンテンツを検出するツールで、大規模言語モデルへの全ての入力・出力をチェックするフィルタリングのサポートができるとのこと。

MetaがAI安全ツール「Purple Llama」を発表、オープンな生成AIモデルの安全性を高めるツールや評価システムを提供 - 画像


Purple Llamaはオープンなアプローチを採用しており、AI Alliance、AMD、AWS、Google Cloud、Hugging Face、IBM、Intel、Lightning AI、Microsoft、MLCommons、NVIDIA、Scale AI、その他多くの企業と連携して改善・開発を行っていくだけでなく、提供されるツールはオープンソースコミュニティで利用できると述べられています。
なお、2023年12月10日から16日にかけて開催されるNeurIPSのワークショップにてパートナーのTogether.AIとAnyscaleがデモを行い、ツールの技術的な詳細を提供する予定となっています。

ジャンルで探す