autobots
このモデルはGPTQ-v2とGGML形式に変換されており、CPUでの実行をサポートし、量子化推論タスクに適しています。
heegyu
GPT-Jアーキテクチャに基づく韓国語生成モデルで、3.5億のパラメータを持ち、さまざまな韓国語テキスト生成タスクに適しています。
togethercomputer
GPT-JTはGPT-J(6B)をファインチューニングした大規模言語モデルで、UL2訓練目標を採用し、分類タスクで優れた性能を発揮
architext
Architext GPT-J-162Mは、Transformerアーキテクチャに基づくテキスト生成モデルで、建築設計分野に特化しており、自然言語プロンプトから多様な設計案を生成できます。
addy88
GPT-J-6Bの8ビット量子化バージョン、bitsandbytesライブラリで変換、VRAM要件を大幅に削減、シングルGPUファインチューニングに適しています
flyhero
GPT-J 6BはGPT-3アーキテクチャに基づいて設計されたTransformerモデルで、60億のパラメータを持ち、テキスト生成タスクをサポートします。
hivemind
これはEleutherAI GPT-Jの60億パラメータモデルの8ビット量子化バージョンで、Colabや1080Tiなどの限られたGPUリソースでの実行と微調整に最適化されています。
baffo32
GPT-J 6BをファインチューニングしたPythonコード生成モデルで、Pythonプログラミング支援に特化
VietAI
これはGPT-Jアーキテクチャに基づく60億パラメータのベトナム語因果言語モデルで、特にベトナムのニュースコンテンツ向けにトレーニングされています。
PhilSad
SCPウィキデータを基に微調整されたテキスト生成モデルで、架空のSCP財団ドキュメントエントリの生成に特化しています。
Milos
GPT-Jアーキテクチャに基づく4億500万パラメータのスロバキア語生成モデル。訓練データには様々なタイプのテキストが含まれています。
14億のパラメータを持つ大型スロバキア語生成モデル。GPT-Jアーキテクチャに基づいています。
KoboldAI
GPT - J 6Bを微調整したSF・ファンタジー題材の言語モデルで、20%の多ジャンル内容を拡張しました。
EleutherAI
GPT-J 6BはMesh Transformer JAXフレームワークに基づいて訓練された60億パラメータの自己回帰言語モデルで、GPT-2/3と同じトークナイザーを採用しています。
GPT-J-6Bをベースに最適化されたクリエイティブストーリー生成モデルで、インタラクティブ小説スタイルのテキスト生成に長けています。