ChatGPT に匹敵する性能を持つオープンソースのチャットボット
52,000件の指示例で訓練されたAlpaca 7Bモデル
お気に入りのLLaMA LLMモデルとチャットしましょう
hathibelagal
SamastamはSarvam-1モデルの初期ガイドバリアントで、Alpaca-cleanedデータセットでファインチューニングされ、多言語命令応答をサポートします。
Aculi
Tinyllama-2Bは、KobbleTinyV2-1.1Bをベースに融合最適化され、マージと微調整を経て作成された小型で非常に実用的な言語モデルで、優れた性能を発揮します。このモデルはAlpacaプロンプトテンプレートを採用しており、様々なテキスト生成タスクに適しています。
ViraIntelligentDataMining
PersianLLaMAは、ペルシャ語用に特別に設計された最初の大規模言語モデルで、130億のパラメータを持ち、ペルシャ語のAlpacaデータセットを使用して微調整され、ペルシャ語の命令タスクの実行に優れた性能を発揮します。
paloalma
ECE-TW3-JRGL-V5は、mergekitを通じてMoMo-72B-lora-1.8.7-DPOとalpaca-dragon-72b-v1モデルをマージして得られた新しいモデルで、複数のモデルの長所を融合しています。
CreitinGameplays
GPT-3アーキテクチャに基づくフィンランド語大規模言語モデルで、Alpacaデータセットを使用してファインチューニングされ、フィンランド語テキスト生成タスクをサポートします。
Sao10K
Solarアーキテクチャベースの11Bパラメータ大規模言語モデル、AlpacaとVicunaプロンプト形式をサポート
recogna-nlp
Bodeは70億パラメータのポルトガル語大規模言語モデルで、Llama 2アーキテクチャに基づき、ポルトガル語Alpacaデータセットで微調整され、ポルトガル語の自然言語処理タスクに特化しています。
Epiculous
Crunchy-onionは、LimaRP、メンタル理論、霊知などのデータセットでMixtral基礎モデルを微調整することで得られた命令調整モデルで、特定の命令形式で優れた性能を発揮します。このモデルは4ビットQLoRA技術を用いて訓練され、最終的にMixtral Instructに統合され、Alpaca Instruct形式で最適な結果が得られます。
snorkelai
チャットシーンに特化して最適化された言語モデルで、DPO手法でアライメントを行い、Alpaca-Eval 2.0ベンチマークテストで優れた成績を収めています。
SanjiWatsuki
Kunoichi-DPO-7Bは、Kunoichi-7Bモデルをベースに、インテルのOrcaデータを使用してAlpacaテンプレートに対して直接嗜好最適化(DPO)微調整を行ったモデルで、主に汎用シーンを対象とし、より強力な推論と命令遵守能力を持っています。
TheBloke
Velara 11B v2はMistralアーキテクチャに基づく大規模言語モデルで、テキスト生成タスクに特化しており、Alpaca-InstructOnly2プロンプトテンプレートを採用しています。
MaralGPT
Maralはペルシャ語に特化した大規模言語モデルで、Mistralアーキテクチャを基にペルシャ語Alpacaデータセットで訓練され、英語生成もサポートしています。
malhajar
epfl-llm/meditron-7bをベースにAlpacaデータセットを使用してSFTトレーニングを行ったファインチューニング版で、医学分野のQ&Aタスクに特化
ceadar-ie
金融経済対話専用に設計されたオープンソースチャットモデル。Llama2-13Bアーキテクチャを基盤とし、FinTalk-19kとAlpacaデータセットで微調整
Rose 20BはLLaMAアーキテクチャに基づく20Bパラメータの大規模言語モデルで、Alpacaスタイルの命令テンプレートを採用し、テキスト生成タスクに適しています。
blueapple8259
TinyLlamaはLLaMAアーキテクチャに基づく小型言語モデルで、パラメータ規模は11億、alpaca-cleanedデータセットを使用してファインチューニングされています。
maywell
koOpenChat-sftはOpenChat3.5を最適化した韓国語会話モデルで、ChatMLとAlpaca形式の命令インタラクションをサポートしています。
Undi95
no_robots-alpacaは、Llama-2-13BモデルをベースにLoRA技術を使用して微調整された対話モデルで、no-robots-sharegptデータセットで訓練され、Alpacaプロンプト形式を採用し、さまざまな自然言語理解タスクで良好な性能を発揮します。
Synatra-7B-v0.3-dpoはMistral-7B-Instruct-v0.1をベースに訓練された韓国語最適化大規模言語モデルで、複数の基準テストで優れた性能を発揮し、ChatMLとAlpaca指令形式をサポートし、様々な自然言語処理タスクに適しています。
afrideva
TinyLlama-1.1Bをファインチューニングした軽量対話モデルで、Alpacaデータセットを使用して訓練され、英文テキスト生成タスクに適しています
Alpaca MCPサーバーは、Alpaca取引APIのモデルコンテキストプロトコル(MCP)サービスを実装しており、大規模言語モデルが自然言語でAlpaca取引システムとやり取りできるようにします。株式/オプション取引、投資ポートフォリオ管理、リアルタイム市場データの取得をサポートしています。
アルパカMCPサーバーは、ClaudeなどのLLMとAlpaca取引APIを接続するプロトコルサービスで、自然言語による株式取引、アカウント管理、市場データの照会をサポートしています。
これはAlpaca取引プラットフォーム用に設計されたMCPサーバーで、自然言語でLLM(Claudeなど)と対話し、株式取引、口座管理、市場データの照会などの機能を実現します。
Alpaca MCPサーバーは、LLM(Claudeなど)が自然言語でAlpaca取引APIと対話するためのサービスで、株式取引、保有株照会、市場データ取得、口座管理をサポートします。
Alpaca APIをベースとした暗号通貨市場データのリアルタイムアクセスサービスで、標準化された暗号通貨データインターフェースを提供し、過去のローソク足、リアルタイムレートなどの機能を備えています。
このプロジェクトはALPACA APIに基づく仮想通貨価格照会サービスを構築し、MCP(マルチエージェント制御プロトコル)統合用に設計され、リアルタイムの仮想通貨価格と市場データを提供します。
Pythonで実装されたAlpaca取引MCPサーバーで、大規模言語モデル(Claudeなど)が標準化されたModel Context Protocolを通じてAlpaca取引APIとやり取りできるようにします。口座管理、市場データ照会、取引操作などの機能をサポートしています。