Meta Llama-3-8B 日本語

Meta Llama-3-8B 日本語 icon

Meta Llama-3-8B 日本語

chatbot日本語

Meta Llama 3:これまでで最も高性能なオープンソースの大規模言語モデルの誕生

Meta AIは、待望の次世代オープンソース大規模言語モデル(LLM)「Meta Llama 3」を発表しました。この画期的なリリースは、人工知能分野における大きな進歩を示すものであり、Llama 3は現在利用可能な最先端の専有モデルと同等、あるいはそれを上回るパフォーマンスと機能を提供することが期待されています。

Llama 3ラインナップ

Llama 3の初回リリースには、8B(80億パラメータ)と70B(700億パラメータ)の2つのモデルが含まれており、それぞれ事前学習済みとインストラクション微調整の2つのバリエーションが用意されています。これにより、幅広い用途やアプリケーションに対応できるようになっています。

8Bモデルは80億ものパラメータを有し、テキスト生成からコード作成まで様々な作業に適した、高性能かつ効率的なモデルとなっています。一方、700億パラメータを誇る70Bモデルは、その膨大な知識とコンピューティングパワーを活かし、より複雑で高度な課題に取り組むことができます。

性能の限界を超えて

Meta AIがLlama 3の開発で目指したのは、現在利用可能な最高の専有モデルと同等、あるいはそれを上回る優れたオープンソースモデルの創出でした。Metaによると、この高い目標を達成したとのことで、Llama 3は幅広い業界ベンチマークで最先端のパフォーマンスを発揮しています。

Meta社内の評価では、8Bモデルと70Bモデルの両方が、Google、Mistral AI、Anthropic のClaude 3シリーズなどの競合他社の同等サイズのモデルを上回る結果が出ています。特に8Bモデルは、MMLU(大学レベルの知識)、GPQA(大学院レベルの質問)、HumanEval(コーディング)、GSM-8K(小学校レベルの数学)などのベンチマークで、Gemma 7BやMistral 7B Instructを凌駕しています。一方の70Bモデルは、GoogleのGemini 1.5 ProやAnthropicのClaude 3 Sonnetなどのフラグシップモデルと伍して実力を発揮しています。

推論能力と指示実行能力の向上

Llama 3の大きな特長は、その優れた推論能力と向上した指示実行能力にあります。Metaはこれらの進歩を、事前学習と事後学習の手順の改善によるものだと説明しています。具体的には、誤った拒否率(LLMが正当なプロンプトを拒否する事態)を大幅に低減し、アラインメント(LLMに人間の価値観や目標を組み込む)を改善し、モデルの応答の多様性を高めることに成功しています。

さらにMetaは、Llama 3が推論やコーディングなどの作業で大幅な進歩を遂げたと主張しており、これは学習プロセスに選好ランキングを取り入れた結果だと言います。人間の正解フィードバックから学ぶことで、Llama 3は最初は答えを生成できなくても、正しい答えを選択する能力を身につけたのです。

大規模で多様な学習データセット

Llama 3の卓越したパフォーマンスの鍵となったのが、その規模と多様性に富む学習データセットです。Metaは15兆トークンを超えるデータでLlama 3を学習させており、これはLlama 2で使用したデータセットの7倍の規模になります。このデータセットには、前作の4倍のコードデータが含まれているほか、30以上の言語をカバーする高品質な非英語データが全体の5%以上を占めています。

データの品質を確保するため、Metaはヒューリスティックフィルター、NSFWフィルター、意味的重複除去アプローチ、テキスト分類器などから成るデータフィルタリングパイプラインを開発しました。興味深いことに、Metaは高品質データの特定にLlama 2の能力を活用し、Llama 3のテキスト品質分類器の学習データ生成にLlama 2を使用しています。

規模の拡大と将来への最適化

8Bと70Bモデルは今回のLlama 3リリースの第一弾にすぎず、Metaは現在4000億を超えるパラメータを持つ大規模モデルの学習を進めています。これらの新モデルでは、以下の新機能が期待されています。

  • 多モーダル対応(テキストと画像の両方を生成できる)
  • 複数言語対応
  • より長いコンテキストウィンドウ

こうした大規模モデルの学習には、データ並列化、モデル並列化、パイプライン並列化などの高度な手法が用いられています。Metaは24,000GPUを備えた2つのカスタムクラスターを活用し、最大400TFLOPSを超えるGPU利用効率を実現しています。また、エラー検出、ハンドリング、メンテナンスを自動化する高度な新しいトレーニングスタックを開発し、ハードウェアの信頼性と無音データ破損の検出メカニズムを大幅に改善しました。さらに、チェックポイントとロールバックのオーバーヘッドを削減する新しい拡張性の高いストレージシステムも開発されました。これらの改善により、Llama 3の学習効率はLlama 2に比べて約3倍向上しています。

責任あるインストラクション微調整

事前学習モデルの可能性を最大限に引き出すため、Metaはインストラクション微調整のアプローチにも革新を加えました。事後学習のアプローチは、教師あり微調整(SFT)、リジェクションサンプリング、近接ポリシー最適化(PPO)、直接ポリシー最適化(DPO)を組み合わせたものです。SFTで使用されるプロンプトの質と、PPOおよびDPOで使用される選好ランキングの質が、アラインされたモデルのパフォーマンスに大きな影響を与えます。人間の評価者による注釈のデータを慎重に選別し、複数回の品質保証を行ったことで、モデル品質が大幅に向上しました。

PPOとDPOを通じた選好ランキングから学ぶことで、Llama 3の推論とコーディングタスクにおける性能も大きく向上しました。モデルが答えられない推論問題を出した場合、モデルは時折正しい推論の過程を生成することがわかりました。つまり、モデルは正解を生成する方法を知っているものの、それを選択する方法を知らないのです。選好ランキングを学習することで、モデルは正解を選択する方法を身につけたのです。

Llama 3を使ったビルディング

Metaのビジョンは、開発者がLlama 3をカスタマイズし、関連する用途に対応させることを可能にすること、そしてベストプラクティスの採用を容易にし、オープンエコシステムを改善することです。今回のリリースでは、Llama Guard 2とCyberSec Eval 2の更新コンポーネントに加え、LLMが生成する不安全なコードをフィルタリングするためのインファレンスタイムのガードレール「Code Shield」を新たに導入しています。

また、Metaは torchtune という新しいPyTorch ネイティブライブラリと協力し、LLMの作成、微調整、実験を簡単に行えるようにしました。torchtune は、メモリ効率が良く、ハッキングしやすいPyTorchで書かれたトレーニングレシピを提供しています。このライブラリはHugging Face、Weights & Biases、EleutherAIなどの人気プラットフォームと統合されており、Executorchによる効率的なインファレンスにも対応し、さまざまなモバイルやエッジデバイスで実行できます。プロンプトエンジニアリングからLlama 3をLangChainで使用するまで、包括的な「スタートガイド」があり、Llama 3のダウンロードから、ジェネレーティブAIアプリケーションへの本格的な展開まで案内します。

責任あるシステムレベルのアプローチ

Metaは、Llama 3モデルが最大限の役立ちを発揮しながらも、業界をリードする責任あるデプロイメントアプローチを確保できるよう設計しています。そのために、Llama の責任あるモデル開発とデプロイメントに向けた新しいシステムレベルのアプローチを採用しました。Metaは、Llamaモデルを開発者が独自の目標に合わせてデザインするより大きなシステムの一部と位置づけています。

インストラクション微調整も、モデルの安全性を確保する上で重要な役割を果たしています。Metaの微調整済みモデルは、内部および外部の取り組みを通じて、安全性に関するレッドチームテスト(テスト)を受けています。このレッドチームアプローチでは、人間の専門家と自動化された手法を活用し、問題のある応答を引き出そうとする攻撃的なプロンプトを生成しています。例えば、化学、生物、サイバーセキュリティなどのリスク分野における悪用リスクを包括的に評価するテストを実施しています。これらの取り組みはすべて反復的に行われ、リリースされるモデルの安全性微調整に役立てられています。詳細はモデルカードをご覧ください。

Llama Guardモデルは、プロンプトと応答の安全性の基盤となるものです。アプリケーションのニーズに応じて、新しいタクソノミーに微調整することが可能です。スタート地点として、新しいLlama Guard 2はMLCommonsタクソノミーを採用しており、この重要な分野での業界標準の確立を支援することを目指しています。さらに、CyberSecEval 2は前作に加えて、LLMのコードインタープリターの悪用許容度、攻撃的なサイバーセキュリティ機能、プロンプト挿入攻撃への感受性を測定する指標を追加しています(詳細は技術論文をご覧ください)。最後に、LLMが生成する不安全なコードをインファレンスタイムでフィルタリングするCode Shieldを導入しました。これにより、不安全なコード提案のリスク、コードインタープリター乱用の防止、セキュアなコマンド実行が可能になります。

ジェネレーティブAI分野が急速に進化する中、Metaはオープンアプローチがエコシステムを結集し、潜在的な危害を軽減する重要な方法だと考えています。その一環として、LLMを使った責任あるモデル開発の包括的なガイドである「Responsible Use Guide(RUG)」を更新しました。RUGで概説したとおり、すべての入力と出力をアプリケーションに適したコンテンツガイドラインに従って確認およびフィルタリングすることを推奨しています。さらに、多くのクラウドサービスプロバイダーがコンテンツ調整APIなどの責任あるデプロイ用ツールを提供しており、開発者にはこれらのオプションの利用も検討いただきたいと考えています。

Llama 3の大規模デプロイ

Llama 3は間もなく、主要なクラウドプロバイダー、モデルAPIプロバイダーなど、あらゆるプラットフォームで利用可能になります。Llama 3はどこにでもあるでしょう。

当社のベンチマークでは、トークナイザーがトークン効率を改善し、Llama 2に比べて最大15%少ないトークンで済むことがわかっています。また、Group Query Attention(GQA)がLlama 3の8Bにも追加されました。その結果、パラメータ数が7Bを1億上回るものの、改良されたトークナイザー効率とGQAによって、Llama 2 7Bと同等のインファレンス効率を維持できることがわかりました。

これらの機能を活用する方法の例については、Llama Recipesをご覧これらの機能を活用する方法の例については、Llama Recipesをご覧ください。Llama Recipesには、ファインチューニングからデプロイ、モデル評価に至るまで、私たちのオープンソースコードがすべて含まれています。

Llama 3の次のステップ

Llama 3の8Bと70Bモデルは、Llama 3のリリース計画の始まりに過ぎません。そしてこれからもっと多くのものが控えています。

私たちの最大規模のモデルは4000億を超えるパラメータを持ち、これらのモデルはまだ学習中ですが、私たちのチームはその傾向に興奮を隠せません。今後数か月のうちに、多モーダル対応、複数言語での会話能力、はるかに長いコンテキストウィンドウ、そして全体的な能力の強化など、新機能を備えた複数のモデルをリリースする予定です。また、Llama 3の学習が完了次第、詳細な研究論文も公開します。

これらのモデルの現在の進捗状況を少しだけお見せしましょう。ただし、これはまだ学習中の初期チェックポイントに基づくデータであり、今回リリースされるモデルではこれらの機能はサポートされていないことにご注意ください。

*評価の設定とパラメータの詳細については、こちらをご覧ください。

私たちは、責任を持ってモデルをリリースし、オープンなAIエコシステムの成長と発展に貢献することを約束します。長年にわたり、オープンさがより良く、より安全な製品、より速いイノベーション、より健全な市場全体につながると信じてきました。これはMetaにとって良いことであり、社会にとっても良いことです。Llama 3では、コミュニティ主導のアプローチを採用しています。そして本日から、これらのモデルが主要なクラウド、ホスティング、ハードウェアプラットフォームで利用可能になり、さらに多くのプラットフォームが追加される予定です。

今すぐMeta Llama 3を試してみましょう

私たちは最新のモデルをMeta AIに統合しました。Meta AIは世界有数のAIアシスタントであり、Llama 3テクノロジーを搭載し、より多くの国でご利用いただけるようになりました。

FacebookやInstagram、WhatsApp、Messenger、Webで、Meta AIを使ってタスクを処理したり、学習したり、コンテンツを作成したり、大切なものとつながることができます。Meta AIの体験についてはこちらをご覧ください。

Llama 3のWebサイトにアクセスして、モデルをダウンロードし、利用可能なプラットフォームの最新リストを参照してGetting Started Guideをご覧ください。

また、間もなくRay-Ban Meta スマートグラスでマルチモーダルのMeta AIをテストできるようになります。

いつものように、Meta Llama 3を使ってみなさんが作り出す素晴らしい製品やエクスペリエンスを楽しみにしています。