上海市人工智能実験室が公開し、オープンソース化した1兆パラメータの科学マルチモーダル大規模モデル「書生 Intern-S1-Pro」は、「通専融合」アーキテクチャとSAGEを基盤としており、オープンソースコミュニティにおけるパラメータ規模の記録を更新し、多くの科学的な能力において突破を遂げ、総合的な学問評価ではAI4S分野で国際的に先進的地位を維持しています。
上海AI实验室が世界最大のオープンソース科学多モーダルモデル「书生 Intern-S1-Pro」を発表。1兆パラメータを有し、SAGEアーキテクチャに基づき、科学的評価で国際トップレベル、特に複雑な論理推論に優れる。....
Stability AIの元CEO Emad Mostaque氏は、AIが1000日以内に大規模な雇用代替と経済構造の変革を引き起こすと予測。著書『最後の経済』では、AIの発展により人間の労働価値がゼロまたはマイナスになる可能性を示唆。金融業界から転身しIntelligent Internetを設立。....
上海AI研、多モーダル大規模モデル「InternVL3.5」をオープンソース化。階層型強化学習や動的視覚解像度ルーティングなどの新技術を採用し、推論能力や汎用性能を向上。1B~241Bの全サイズ版を提供し、オープンソースモデルの性能基準を更新。....
InternVL3オープンソース:テキスト、画像、ビデオ処理に対応する7種類のサイズ、マルチモーダル機能は工業用画像分析まで拡張
InternLM3は、テキスト生成に特化したモデル群であり、様々なニーズに対応するため複数の最適化バージョンを提供しています。
これは、優れた総合性能を示す高度なマルチモーダル大規模言語モデルシリーズです。
InternLM3-8B-Instructは、汎用目的と高度な推論を目的とした、80億パラメーターのオープンソース指令モデルです。
Shanghai-ai-lab
$2
入力トークン/百万
-
出力トークン/百万
8
コンテキスト長
bartowski
JanusCoderV-7BはInternLMによって開発された7Bパラメータのコード生成モデルです。このプロジェクトでは、llama.cppを使用してimatrix量化を行った複数のバージョンを提供し、さまざまなハードウェア要件を満たすための複数の量化レベルをサポートしています。
これはinternlmのJanusCoder-14Bモデルの量化バージョンで、特定のツールとデータセットを使用して量化処理が行われ、低品質から高品質までの複数の量化タイプのファイルを提供し、LM Studioまたはllama.cppベースのプロジェクトで実行できます。
これはinternlmのJanusCoder-8Bモデルを量子化処理したバージョンで、llama.cppのimatrix量子化技術を採用し、性能を保証しながらもモデルの保存と計算リソースの要件を大幅に削減し、モデルがより多くのデバイスで効率的に動作できるようにします。
noctrex
これはIntern-S1モデルに基づくMXFP4ハイブリッドエキスパート量子化バージョンで、画像テキストからテキストへのタスクに特化して最適化されており、量子化技術によって推論効率が向上しています。
gwkrsrch2
これはHugging Faceモデルセンターに公開されたTransformerモデルで、モデルカードは自動生成されています。具体的な情報が不足しているため、詳細なモデル紹介を提供することができません。
Guilherme34
Qwen2.5-14B-Instructは140億パラメータの大規模言語モデルで、チャットとテキスト生成シーン向けに設計されています。このモデルはtransformersライブラリに基づいて構築され、内部テストと軽量アプリケーションのデプロイに適しています。
OpenGVLab
InternVL3.5-4Bはオープンソースのマルチモーダルモデルシリーズの中規模バージョンで、汎用性、推論能力、推論効率の面で顕著な進歩を遂げ、GUIインタラクションなどの新機能をサポートしています。このモデルはカスケード強化学習フレームワークと視覚解像度ルーター技術を採用し、効率的なマルチモーダル理解と推論を実現しています。
InternVL3_5-38Bは、オープンソースのマルチモーダルモデルInternVL3.5シリーズの一員で、機能性、推論能力、推論効率の面で著しい進歩を遂げています。多言語をサポートし、画像テキストからテキストへのタスクに適用でき、カスケード強化学習フレームワークとビジュアル解像度ルーター技術を用いて性能を最適化しています。
InternVL3.5-4Bはオープンソースのマルチモーダルモデルシリーズの中規模版で、4.7億のパラメータを含み、先進的なカスケード強化学習フレームワークとビジュアル解像度ルーター技術を採用しており、マルチモーダル推論能力と効率を大幅に向上させています。
InternVL3.5はオープンソースのマルチモーダルモデルファミリーの新メンバーで、InternVLシリーズの汎用性、推論能力、推論効率を大幅に向上させ、GUIインタラクションなどの新機能をサポートし、オープンソースのマルチモーダル大規模言語モデルの先進水準に達しています。
InternVL3.5-1BはInternVLシリーズのオープンソースマルチモーダルモデルで、パラメータ数は11億で、そのうちビジュアルパラメータが3億、言語パラメータが8億を含んでいます。このモデルは汎用性、推論能力、推論効率を大幅に向上させ、GUIインタラクションなどの新機能をサポートしています。
InternVL3.5-14BはInternVLシリーズのオープンソースのマルチモーダルモデルで、汎用性、推論能力、推論効率が大幅に向上し、GUIインタラクションなどの新機能をサポートし、商用モデルとの性能差を縮小しました。
brandonbeiler
これはOpenGVLab/InternVL3_5-8Bのfp8動的(w8a8)量子化バージョンで、vLLMの高性能推論に対して最適化されています。FP8動的量子化技術を採用し、ビジュアル理解能力を維持しながら、メモリ使用量を大幅に削減し、推論速度を向上させます。
これはInternVL3_5-GPT-OSS-20B-A4B-PreviewモデルのFP8動的量子化バージョンで、w8a8技術を用いて最適化され、vLLMに特化した高性能推論デプロイが可能です。このモデルは、視覚言語理解能力を維持しながら、推論速度とメモリ効率を大幅に向上させています。
これはOpenGVLab/InternVL3_5-30B-A3Bのfp8動的(w8a8)量子化バージョンで、vLLM高性能推論に最適化されており、FP8動的量子化技術を採用しており、メモリ使用量が約50%削減され、推論速度が大幅に向上します。
KnutJaegersberg
InternVL3_5-38B-Q8_0-GGUFは、OpenGVLabのInternVL3_5-38Bモデルをllama.cppを使って変換したGGUF量子化バージョンです。このモデルは38Bパラメータのマルチモーダル視覚言語モデルで、画像とテキストの連合理解と生成をサポートし、推論効率を最適化するためにQ8_0量子化形式を採用しています。
lmstudio-community
これはOpenGVLabのInternVL3_5 14Bモデルの量子化バージョンで、画像テキストからテキストへの変換タスクをサポートし、量子化技術によりモデルの実行効率を向上させ、関連アプリケーションにより効率的な解決策を提供します。
これはOpenGVLabが公開したInternVL3_5 8BモデルのGGUF量子化バージョンで、画像テキストからテキストへの変換タスクに特化しており、量子化技術によりより効率的な推論ソリューションを提供します。
Koitenshin
これはInternVL3アーキテクチャに基づくマルチモーダルビジュアル言語モデルで、GGUF形式に量子化処理され、画像テキストからテキストへの変換をサポートし、多言語能力を備えています。
これはInternVL3-8Bを微調整した制限解除バージョンのモデルで、GGUF形式に変換され、多言語の画像テキストからテキストへのタスクをサポートし、より広範な使用シーンに適しています。
MCPインターネット速度テストは、標準化されたMCPプロトコルを通じてAIモデルにネットワーク性能テストツールを提供する実験的なプロジェクトです。ダウンロード/アップロード速度、遅延、ジッター測定などの機能が含まれています。
これはInternet Archive Wayback MachineにアクセスするためのMCPサーバーで、ウェブページのアーカイブバージョンの検索とURLの利用可能なスナップショットの確認をサポートしています。
Internet Computer上のDAOとやり取りするためのTypeScriptベースのMCPサーバー
博查検索APIに基づくMCPサーバーで、インターネット検索機能を提供します。博查AIのサービスキーを設定する必要があります。
博查検索APIに基づくMCPサーバーで、インターネット接続による検索サービスを提供します。