华硕推出UGen300 AI加速卡,采用USB接口设计,无需拆机或占用PCIe插槽,通过USB 3.1 Gen2线缆即可为PC、工控机等设备提供40 TOPS的本地AI推理能力。核心搭载Hailo-10H NPU芯片,功耗仅2.5瓦,板载8GB内存,支持直接运行大型预训练模型。
Meta计划于2026年上半年发起AI全面反攻,由首席AI官Alexandr Wang领导,将推出多款下一代智能模型。核心包括统一图像与视频生成理解的多模态模型Mango,以及下一代大型语言模型Av。
Zoom AI在“人类最后考试”测试中以48.1%的最高分超越谷歌Gemini3Pro,引发技术界关注。Zoom采用“联合AI”方法,结合OpenAI、谷歌和Anthropic的技术,而非自行训练大型语言模型。
南洋理工大学推出首个全面评测大型语言模型处理电子病历能力的基准EHRStruct,涵盖11项核心任务、2200个样本,旨在评估模型在医疗数据理解、信息提取等方面的表现,推动医疗AI发展。
一个支持DeepSeek R1的AI驱动研究助手,结合搜索引擎、网络爬虫和大型语言模型进行深度研究。
LG AI Research开发的多语言、高性能大型语言模型
自动化AI网络研究助手,利用本地大型语言模型进行深入研究。
开源代码生成与推理的大型语言模型
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
DevQuasar
这是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在为大众提供免费的知识获取途径。该模型是一个大型语言模型,专注于文本生成任务。
nineninesix
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,采用两阶段管道结合大型语言模型和高效音频编解码器,实现卓越的速度和音频质量。该模型支持西班牙语,具有4亿参数,采样率为22kHz。
mistralai
Devstral是一款专为软件工程任务设计的智能大型语言模型,由Mistral AI和All Hands AI合作开发,擅长代码探索、编辑和驱动软件工程代理。
Salesforce
xLAM-2是Salesforce研发的大型动作模型系列,专注于多轮对话和函数调用能力,可作为AI代理的核心组件。
xLAM-2是Salesforce推出的新一代大型动作模型,专注于多轮对话和函数调用能力,能够将用户意图转化为可执行动作,作为AI代理的核心组件。
xLAM-2系列是基于APIGen-MT框架训练的大型动作模型,专注于多轮对话和函数调用能力,适用于AI代理开发。
xLAM-2是SalesforceAIResearch开发的大型动作模型(LAM)系列,专注于将用户意图转化为可执行动作,增强AI代理的决策能力。
xGen-MM是Salesforce AI Research开发的一系列最新基础大型多模态模型(LMMs),在BLIP系列成功设计的基础上进行了改进,通过基础性增强确保了更强大和卓越的模型基础。
xGen-MM是Salesforce AI Research开发的一系列最新基础大型多模态模型,基于BLIP系列的成功设计进行了改进,提供更强大的多模态处理能力。
qwp4w3hyb
Codestral-22B-v0.1是Mistral AI开发的大型代码生成模型,支持80多种编程语言,适用于代码生成、解释和重构任务。
bullerwins
Codestral-22B-v0.1是由Mistral AI开发的大型语言模型,支持80多种编程语言,能够执行代码生成、解释和重构等任务。
xGen-MM是Salesforce AI Research开发的最新基础大型多模态模型系列,基于BLIP系列改进,具有强大的图像理解和文本生成能力。
AI-Sweden-Models
GPT-SW3是由AI瑞典开发的大型北欧语言模型,支持5种北欧语言和英语的文本生成任务。
GPT-SW3是由AI Sweden开发的大型北欧语言模型,支持5种北欧语言和英语的文本生成任务
poisson-fish
基于《星空》游戏中瓦斯科角色语音训练的派珀文本转语音模型,适用于AI伙伴模组和本地大型语言模型聊天
GPT-SW3是由AI Sweden联合RISE和WASP WARA for Media and Language开发的大型预训练Transformer语言模型,在包含北欧语言和英语的3200亿令牌数据集上训练,支持多语言文本生成和编程代码生成。
nvidia
这是一个用于转录普通话语音的大型Conformer-Transducer模型,参数约1.2亿,在AISHELL-2数据集上训练。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
Unity MCP服务器是一个基于C#的模型上下文协议(MCP)服务,用于连接Unity编辑器与外部大型语言模型(LLM)或云端AI代理,实现实时自动化与智能交互。
这是一个基于MCP协议的代码执行服务器原型,结合大型语言模型的代码生成能力和MCP工具集成,使AI代理能够在隔离沙箱中运行Python代码并调用外部工具。
Unity-MCP是一个连接大型语言模型(LLM)与Unity编辑器的桥梁工具,通过暴露Unity编辑器功能给AI客户端,实现AI驱动的自动化开发流程。它支持自定义工具扩展,目前提供游戏对象管理、场景操作、资产处理等核心功能,主要适用于Unity编辑器环境。
OLS MCP服务器是一个为大型语言模型提供本体查询服务的工具,通过连接EBI本体查询服务API,帮助AI助手准确获取生物医学领域的本体术语、概念和层次结构。
Firebolt MCP Server是一个实现模型上下文协议的服务,可将LLM(大型语言模型)与Firebolt数据仓库连接,使AI助手能够直接查询数据、生成洞察并访问文档资源。
该项目集成Graphistry的GPU加速图可视化平台与模型控制协议(MCP),为AI助手和大型语言模型提供先进的图分析能力,支持多种数据格式和网络分析功能。
CTX是一款连接代码库与大型语言模型(LLM)的工具,通过自动化生成结构化上下文文件,解决AI开发中代码上下文传递效率低下的问题。支持从代码文件、Git仓库、网页等多种来源收集信息,并可通过MCP服务器直接为AI助手提供项目上下文。
Wanaku MCP路由器是一个基于模型上下文协议(MCP)的AI应用路由器,旨在标准化应用程序向大型语言模型(LLM)提供上下文的方式。
OmniLLM是一个MCP服务器,作为Claude与其他大型语言模型(如ChatGPT、Azure OpenAI和Google Gemini)之间的桥梁,提供统一的AI访问接口。
该项目实现了一个ClickHouse的MCP服务器,用于将ClickHouse数据库与大型语言模型(LLMs)等AI应用无缝集成,支持查询数据库、获取表结构等功能。
Okta MCP Server 是一个基于 Model Context Protocol 的服务器,允许大型语言模型和AI代理通过自然语言指令管理Okta组织,支持用户、群组、应用程序、策略和日志等管理操作。
BeeMCP是一个非官方的MCP服务器,用于连接Bee可穿戴设备的数据与大型语言模型(如Claude),让AI助手能够访问和操作用户的对话、事实记录、待办事项和位置历史等个人数据。
MCP Crew AI Server是一个基于Python的轻量级服务器,用于运行和管理CrewAI工作流,支持通过MCP协议与大型语言模型通信。
MetaMask MCP是一个模型上下文协议服务器,允许大型语言模型通过MetaMask与区块链交互,确保私钥安全存储在用户钱包中,不与AI代理共享。
Clockify MCP服务是一个与AI工具集成的服务器,用于管理Clockify中的时间记录,用户可以通过向大型语言模型发送提示来记录时间条目。
Meta API MCP Server是一个支持多API的网关服务器,通过Model Context Protocol (MCP)协议连接各类API与大型语言模型(如Claude、GPT等),使AI助手能够直接与API交互并访问真实数据源。支持从JSON配置文件或Postman集合快速添加API,提供HTTP方法全面支持和多种认证方式。
NetBrain MCP是一个开源网络运维平台,通过Model Context Protocol连接大型语言模型与网络设备,实现AI驱动的网络配置、诊断和管理,并提供专业的Web终端界面和网络拓扑可视化功能。