ジョンズ・ホプキンス大学がEGO-Promptフレームワークを開発。プロンプト設計を最適化し専門知識を組み込むことで、医療・交通などの専門タスクにおいて小型言語モデルの性能を約50%向上、コストを83%削減。小型モデルが大規模推論モデルに匹敵する性能を実現。....
百川大モデルが医療向け大規模モデル Baichuan-M2Plus を発表し、アプリケーション「百小応」をアップグレードし API インターフェースを公開しました。評価結果によると、このモデルの医療における幻覚率は汎用的な大規模モデルよりも顕著に低く、DeepSeek と比べて約3倍低いことが判明し、米国の OpenEvidence アプリケーションよりも優れた性能を示しています。
百川科技が医療大規模モデル「Baichuan-M2Plus」を発表。医師向けChatGPTとして、六源エビデンス推論により精度と信頼性を向上、医療AIの重要な進展。....
JDがオープンソースの大規模モデルセキュリティフレームワーク「JoySafety」を発表。AI買い物案内、物流カスタマーサポート、医療相談などの業務シーンで広く活用されており、企業向けに無料で信頼性の高いセキュリティソリューションを提供。1日1億回以上の呼び出しに対応し、精度は95%以上。....
百川智能が開発した、医療現場向けに最適化されたオープンソースの大規模言語モデルです。優れた汎用性と医療分野での高い性能を備えています。
医療分野における高度な大規模言語モデル
高度な医療推論を目的とした医療分野の大規模言語モデル
高度な医療分野向けの大規模言語モデル
fiqqy
これはMedGemma-4B-ITモデルをベースに、Unslothフレームワークを使用して微調整された医療分野の大規模言語モデルで、トレーニング速度が2倍に向上し、テキスト生成タスクに特化し、英語の言語処理をサポートしています。
Mungert
Lingshu-32B GGUFモデルは医療分野に適したマルチモーダル大規模言語モデルで、複数の医学画像モードをサポートし、医療質問応答とレポート生成タスクで優れた性能を発揮します。
lingshu-medical-mllm
霊枢は医療分野の最先端の多モーダル大規模言語モデルで、医療ビジュアル質問応答とレポート生成タスクで卓越した性能を発揮します。
霊枢は医療分野で卓越した性能を発揮する多モーダル大規模言語モデルで、医学画像とテキスト情報を効果的に処理でき、医療質問応答とレポート生成タスクでトップレベルの性能を示します。
MedGemma-27B-Text-ITはGemma 3アーキテクチャに基づく医療専用の大規模言語モデルで、医療テキスト処理に最適化されており、さまざまな量子化バージョンを提供して異なるハードウェア環境に対応します。
mlx-community
MedGemma-27B-Text-IT-BF16は、MLX形式に変換された大規模言語モデルで、医療健康分野のテキスト処理タスクに特化しています。
MedGemmaはGoogleが開発した医療分野の大規模言語モデルで、臨床推論と医療テキスト生成タスクに特化しています。
DevQuasar
MedGemma-27B-Text-ITはGoogleが開発した大規模言語モデルで、医療分野のテキスト生成タスクに特化しています。
Intelligent-Internet
II-Medical-8Bはインテリジェントインターネットが開発した次世代医療大規模言語モデルで、AI医療推論能力を強化するために設計され、医療質問応答能力において大きなブレークスルーを実現しました。
mlxha
このモデルは、Qwen/Qwen3-4Bをベースに、medmcqa-grpoデータセットでGRPO方法を用いて微調整した医療質問応答大規模言語モデルです。医学選択問題のシナリオに特化して最適化されており、強力な医学的推論能力を備えています。
Joker-sxj
医療データセットでファインチューニングされた大規模言語モデルで、初歩的な推論能力を備え、基本的な問診タスクを実行可能。生成テキストのBLEUスコアはオリジナルモデルより優れています。
lintw
HealthGPTは統一されたマルチモーダル医療タスクのために特別に開発された大規模言語モデルです。
hongzhouyu
FineMedLM-o1は高度な医学推論のために特別に設計された専門医療大規模言語モデルで、多段階推論メカニズムを採用し、最終回答を出す前に思考プロセスを繰り返し推敲・改善します。
JerrryNie
ConceptCLIPは医学的概念を強化した大規模視覚言語事前学習モデルで、様々な医療画像モダリティに対応し、多様な医療画像タスクで堅牢な性能を発揮します。
tensorblock
HuatuoGPT-o1-70Bは70Bパラメータ規模の大規模言語モデルで、医療分野に特化して最適化されています。このモデルはGGUF形式で量子化されており、様々なハードウェアでのデプロイと実行が容易で、医療関連のテキスト生成と推論タスクをサポートします。
HPAI-BSC
オープンソース医療大規模言語モデル、複数の医療タスクで最先端レベルを達成、Qwen2.5-72Bを基に開発
Qwen2.5-Aloe-Beta-7Bはオープンソースの医療用大規模言語モデルで、複数の医療タスクにおいて最先端の性能を達成しています。Qwen2.5-7Bアーキテクチャを基に微調整され、18億トークンの多様な医療タスクデータでトレーニングされています。
mav23
アロエ(Aloe)は、モデル融合と高度なプロンプト戦略を通じて、同タイプのオープンソースモデルの中でも非常に競争力のある、全く新しい医療用大規模言語モデルファミリーです。
Llama3.1-Aloe-Beta-8Bはオープンソースの医療大規模言語モデルで、多くの医療タスクにおいて最先端の性能を達成しています。
cgus
Apollo2-7Bは多言語対応の医療用大規模言語モデルで、生物学と医学分野のQAタスクに特化しています。