AIスタートアップFriendliAIが2000万ドルのシード拡張ラウンドを調達。調達資金は推論最適化技術プラットフォームの開発加速に充てられる。このプラットフォームはAIモデルの推論段階に焦点を当て、計算リソース要件を大幅に削減し、展開効率を向上させコスト削減を実現。....
著名なAI開発プラットフォームHugging Faceは、韓国のAIスタートアップFriendliAIと、約2年にわたる特許侵害訴訟で和解した。FriendliAIはHugging Faceが「反復的スケジューリングのバッチ処理」技術に関する特許を侵害したと主張。両社はデラウェア州北地区連邦地方裁判所の文書で、1月8日に「秘密保持契約」を締結し、訴訟を取り下げたことを確認した。画像出典:A
FriendliAI
Llama-3.1-8B-Instructベースの多言語音声テキスト変換モデル、40以上の言語処理をサポート
meta-llama/Llama-3.2-1B-Instructの重みを事前ロードした多言語テキスト変換モデル
MetaのLlama-3.3-70B-Instructモデルを基に構築された多言語テキスト処理モデルで、音声からテキストへの変換タスクをサポート
InternVL3-38Bは、高度なマルチモーダル大規模言語モデルであり、マルチモーダル感知や推論などの能力において卓越した性能を発揮し、前代のモデルと比較して著しい向上が見られます。また、ツール使用やGUIエージェントなどのマルチモーダル能力も拡張されています。
InternVL3-8Bは、高度なマルチモーダル大規模言語モデルで、卓越したマルチモーダル感知と推論能力を備え、ツール使用、GUIエージェント、産業用画像分析などの多くの分野で優れた性能を発揮します。
InternVL3-1BはInternVL3シリーズの10億パラメータ規模のマルチモーダル大規模言語モデルで、InternViTビジョンエンコーダーとQwen2.5言語モデルを統合し、優れたマルチモーダル知覚と推論能力を備えています。
UltravoxはLlama3.1-8B-InstructとWhisper-smallをベースとしたマルチモーダル音声大規模言語モデルで、音声とテキスト入力を同時に処理できます。
InternVideo2.5は、長く豊富な文脈(LRC)モデリングを強化したビデオマルチモーダル大規模言語モデル(MLLM)で、InternVL2.5上に構築されています。
Qwen2-VL-2B-Instruct はマルチモーダル視覚言語モデルで、画像テキストからテキストへのタスクをサポートします。
Qwen2-VL-72B-Instruct はマルチモーダル視覚言語モデルで、画像とテキストのインタラクションをサポートし、複雑な視覚言語タスクに適しています。
MiniCPM-V 2.6は強力なマルチモーダル大規模言語モデルで、スマートフォンなどのデバイスで高効率に動作し、単一画像、複数画像、動画の理解タスクをサポートします。
Metaが発表したカメレオンシリーズ7Bパラメータ規模のマルチモーダルモデルで、画像テキストからテキストへのタスクをサポート
LLaVA-NeXT-Video-7B-hf は動画ベースのマルチモーダルモデルで、動画とテキスト入力を処理し、テキスト出力を生成できます。
Phi-3.5-visionは、軽量で先進的なオープンソースのマルチモーダルモデルで、128Kのコンテキスト長をサポートし、高品質で推論に富んだテキストとビジュアルデータの処理に特化しています。
Qwen2-VL-7B-InstructをファインチューニングしたドキュメントOCRモデルで、多言語ドキュメント認識とメタデータ抽出をサポート
Meta Llama 3 70BはMetaが開発した大規模言語モデルで、700億のパラメータを持ち、8kのコンテキスト長をサポートし、英語のビジネスや研究用途に適しています。
C4AI Command R+ は、オープンウェイトの1040億パラメータ研究モデルで、検索拡張生成(RAG)や複雑なタスクを自動化するツール使用などの高度な機能を備えています。
FriendliAIによってFP8精度に量子化されたMistral-7B-Instruct-v0.2モデルで、高精度を維持しながら推論効率を大幅に向上させています。