スイスの研究機関は、大規模言語モデルのブラックボックス状態に挑戦しています。スイス連邦工科大学ローザンヌ校(EPFL)、**スイス連邦工科大学チューリッヒ校(ETH Zurich)およびスイス国家スーパーコンピューティングセンター(CSCS)** は最近、Apertusと呼ばれる大規模なオープンソース言語モデルをリリースしました。このモデルは名前の意味からも明らかですが、ラテン語で「開かれた」という意味を持ち、そのコア理念を表現しています。実際には、「開かれた」ことを最も徹底して実践しています。OpenAIのGPTシリーズやMetaとは異なり、
最近、スイス連邦工科大学ローザンヌ校(EPFL)、スイス連邦工科大学チューリッヒ校(ETH Zurich)、およびスイス国家スーパーコンピューティングセンター(CSCS)は、名前が「Apertus」という大規模なオープンソース言語モデルを共同で発表しました。このモデルの名称はラテン語で「開かれた」という意味を持ち、その開発理念はまさにこの精神を体現しています。現在の市場におけるOpenAIのGPTシリーズやMetaのLlama、AnthropicのClaudeなどとは異なり、このモデルはこのような精神に基づいて構築されています。
スイス初のオープンソース大規模言語モデル「Apertus」を発表。連邦工科大学などが共同開発し、1000言語以上を処理可能。非英語データ40%含む多言語対応で、AI自主開発力を示す。....
bartowski
これはswiss-aiのApertus-70B-Instruct-2509モデルに基づいて量子化処理を行ったバージョンで、llama.cppのimatrix技術を使用して複数の量子化モデルファイルを生成し、モデルの実行効率とリソース利用率を向上させ、さまざまなハードウェア条件で適切な量子化レベルを柔軟に選択できるようにしています。
これはswiss-aiのApertus-8B-Instruct-2509モデルを量子化処理したバージョンで、llama.cppツールとimatrixデータセットを使用して、さまざまな量子化タイプのGGUFファイルを生成し、さまざまなハードウェア環境で高効率に実行できるようにします。
unsloth
Apertusは、パラメータ規模が70Bと8Bの全オープン多言語言語モデルで、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスが取れたオープンなトレーニングデータのみを使用し、性能はクローズドソースモデルと匹敵します。
Apertusは、パラメータ規模が70Bと8Bの完全オープンな多言語言語モデルで、1000種以上の言語と長文脈をサポートし、完全にコンプライアンスが取れたオープンな学習データのみを使用し、性能はクローズドソースで学習されたモデルと匹敵します。
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
DevQuasar
Apertus-70B-Instruct-2509は、swiss-aiに基づいて開発された700億パラメータの大規模言語モデルの量子化バージョンで、指令追従とテキスト生成タスクに特化しています。このプロジェクトは、知識を無料で共有することに取り組んでおり、実験的な性質を持ち、計算リソースの要件を軽減するために最適化された量子化モデルを提供しています。
このプロジェクトは swiss-ai/Apertus-8B-Instruct-2509 の量子化バージョンで、量子化技術を通じて知識モデルをよりアクセスしやすく、使いやすくすることを目指しています。現在、このプロジェクトは実験段階にあり、GGUF 形式を用いて最適化されています。
llmat
Apertus-8B-Instruct-2509-NVFP4は、swiss-ai/Apertus-8B-Instruct-2509に基づくNVFP4量子化バージョンで、llmcompressorツールによって生成されました。このモデルは、性能を維持しながら、大幅に記憶領域と計算リソースの要件を削減し、推論効率を向上させます。
mlx-community
これはMLXフレームワークに基づく4ビット量子化大規模言語モデルで、スイスの人工知能研究所によって開発され、多言語テキスト生成タスクをサポートし、Apache - 2.0ライセンスで公開されています。
Apertus-8B-Instruct-2509-4bitは、swiss-ai/Apertus-8B-Instruct-2509を基に変換された4ビット量子化バージョンで、MLXフレームワーク用に最適化されています。このモデルは多言語命令追従大規模言語モデルで、複数の言語のテキスト生成タスクをサポートし、Apache-2.0ライセンスで公開されています。