字节跳动AI核心部门Seed团队近一年流失近70名技术人才,流向头部大厂及AI初创公司,反映国内大模型人才竞争白热化。该团队成立于2023年,专注LLM、语音、视觉及世界模型等前沿研究,其豆包大模型已支持豆包、扣子等50多个应用场景。
近日,“OpenClaw AI Agent 小龙虾能力排行榜”在AI圈引发关注。该榜单聚焦真实场景,通过统一任务集测试主流大模型在OpenClaw框架下的编码任务成功率,为开发者提供参考。评测采用自动化代码检查与LLM智能评审相结合的方式,确保结果客观、可复现且无人工干预。
大模型风口已过,布局AI能力的企业面临新挑战:如何低成本、稳定高效地将大模型集成到产品中。这不仅关乎技术,更是决定企业成败的商业命题。API接口的选择直接影响项目迭代速度、盈利能力和市场竞争力。
Meta首席AI科学家杨立昆离职后首次公开表示,大公司重金投入大型语言模型是战略错误,无法实现真正智能。他指出LLM仅能统计补全文本,缺乏物理世界理解、长期推理和规划能力,注定无法达到人类智能水平。他认为下一代突破应依靠“世界模型”。
一切龙虾的始祖,支持多平台和大模型,完全开源。
统一大语言模型API网关,支持超30家提供商,价优稳定免订阅
Respan是统一可观测性、评估、提示优化和LLM网关的工程平台。
开源LLM路由器,路由请求到最具成本效益模型,节省70% AI令牌成本。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
lapa-llm
Lapa LLM v0.1.2是基于Gemma-3-12B开发的乌克兰语处理开源大语言模型,专注于乌克兰语的自然语言处理任务,在乌克兰语处理方面表现出卓越性能。
RESMP-DEV
这是使用LLM Compressor和NVFP4格式对Qwen/Qwen3-Next-80B-A3B-Thinking进行量化后的版本,采用FP4微缩放技术,在保持高精度的同时大幅减少模型存储和计算需求。
DragonLLM
LLM Pro Finance是一款专为金融和经济专业人士设计的多语言人工智能模型,基于大量高质量的金融和经济数据训练,能够针对复杂的金融问题生成准确且贴合上下文的回应。
Lapa LLM 12B PT是基于Google Gemma 3-12B开发的开源大语言模型,专门针对乌克兰语处理优化。由乌克兰多所高校研究团队开发,在乌克兰语处理方面表现卓越,具备高效的指令微调和多模态能力。
DevQuasar
这是LLM360/K2-Think模型的量化版本,致力于让知识更加自由地传播,秉持'让知识为每个人所用'的理念。该版本通过量化技术优化了模型大小和推理效率。
sugoitoolkit
Sugoi LLM 32B Ultra是基于Qwen2.5-32B-Instruct优化的高性能大语言模型,充分释放了前作Sugoi 32B模型的全部潜力。该模型采用GGUF格式,专注于翻译任务,具有出色的多语言处理能力。
skt
A.X 3.1 Light 是一款专为韩语理解和企业部署优化的轻量级大语言模型(LLM),由SKT完全自主研发。
llm-jp
由日本国立情报学研究所开发的大语言模型,基于LLM-jp-3构建,通过指令预训练技术显著提升了遵循指令的能力。
LLM-jp-3.1-1.8b是由日本国立情报学研究所开发的大语言模型,基于LLM-jp-3系列,融入指令预训练增强指令遵循能力。
LLM-jp-3.1-13b-instruct4是由日本国立情报学研究所开发的大语言模型,通过指令预训练显著提升了指令遵循能力,支持日语和英语等多种语言。
unsloth
Spark-TTS是一款基于大型语言模型(LLM)的高效文本转语音系统,支持中英文双语合成和零样本语音克隆。
JetBrains
JetBrains首个开源大语言模型(LLM)的微调版本,专为Python代码相关任务优化,支持8192 token上下文窗口。
arshiaafshani
Arsh LLM是为科研设计的开源大语言模型,基于olmo混合数据集在T4 GPU上完成预训练,总耗时约4-5天。
Meta Llama 3.1系列是多语言大语言模型(LLMs)的集合,包括8B、70B和405B大小的预训练和指令调优生成模型。8B版本针对多语言对话用例进行了优化,在常见基准测试中表现优异。
leolee99
InjecGuard是一款针对大型语言模型(LLM)的提示注入攻击防护模型,能有效识别并防御恶意指令,同时减少过度防御问题。
thinhkosay
Spark-TTS 是一个先进的文本转语音系统,利用大语言模型(LLM)的强大能力,实现高准确度和自然流畅的语音合成。
nvidia
NVIDIA Nemotron-H-47B-Base-8K 是由 NVIDIA 开发的大型语言模型(LLM),设计用于对给定文本进行补全。该模型采用混合架构,主要由 Mamba-2 和 MLP 层组成,并仅包含五个注意力层。
fushh7
LLMDet是基于大语言模型监督的强开放词汇目标检测器,CVPR2025亮点论文成果
LLMDet是一个基于大语言模型监督的开放词汇目标检测器,能够实现零样本目标检测。
LLMDet是基于大语言模型监督的强开放词汇目标检测器,能够实现零样本目标检测。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
MCPEngine是一个生产级的Model Context Protocol (MCP)实现,为大型语言模型(LLM)提供标准化接口,支持OAuth认证、资源管理、工具调用等功能,旨在成为'LLM界的REST'框架。
LLM Context是一个帮助开发者快速将代码/文本项目内容注入大型语言模型聊天界面的工具,支持智能文件选择和多种集成方式。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
Azure影响报告MCP服务器是一个让大型语言模型(LLM)能够自动向Azure报告资源问题的工具。它通过自然语言处理用户请求,自动认证Azure账号,并通过管理API提交资源影响报告。
该项目通过Model Context Protocol(MCP)让大型语言模型直接理解和生成Max音频处理软件中的音效模块,支持解释、修改和创建音效模块,并提供与LLM的交互界面。
Unity MCP服务器是一个基于C#的模型上下文协议(MCP)服务,用于连接Unity编辑器与外部大型语言模型(LLM)或云端AI代理,实现实时自动化与智能交互。
一个专为大型语言模型优化的MCP服务器,用于反混淆、解包和导航经过压缩与打包的JavaScript代码,帮助LLM理解复杂代码结构并节省上下文窗口。
SingleStore MCP Server是一个基于Model Context Protocol(MCP)的服务,用于在大型语言模型(LLM)和外部系统之间管理上下文。它支持通过自然语言与SingleStore交互,简化复杂操作。
MCP字符工具是一个为大型语言模型提供字符级文本分析能力的服务器,解决LLM因分词而难以处理单个字符的问题,提供14+种字符计数、拼写分析和文本比较工具。
Firebolt MCP Server是一个实现模型上下文协议的服务,可将LLM(大型语言模型)与Firebolt数据仓库连接,使AI助手能够直接查询数据、生成洞察并访问文档资源。
Unity-MCP是一个连接大型语言模型(LLM)与Unity编辑器的桥梁工具,通过暴露Unity编辑器功能给AI客户端,实现AI驱动的自动化开发流程。它支持自定义工具扩展,目前提供游戏对象管理、场景操作、资产处理等核心功能,主要适用于Unity编辑器环境。
这是一个基于Ruby的MCP服务器框架,实现了模型上下文协议(MCP),允许大型语言模型调用工具(如生成随机数)。项目包含协议处理、工具管理、日志记录等功能,支持与Claude等LLM集成。
MCP Tools是一个实现Model Context Protocol(MCP)的服务器项目,为Claude Desktop等LLM客户端提供文件系统和命令执行工具,扩展了大型语言模型的本地系统交互能力。
Binance MCP Server是一个为大型语言模型(LLM)提供币安交易所数据的标准化接口服务,支持实时行情、历史数据、订单簿查询和WebSocket推送等功能。
该项目是一个专为DevOps工具和平台设计的Model Context Protocol (MCP)服务器集合,通过标准化方式让大型语言模型(LLM)直接与主流DevOps系统交互,实现基础设施、部署流水线、监控等操作的自动化控制。
Astra DB MCP服务器是一个为大型语言模型(LLM)提供与Astra数据库交互能力的服务,扩展了LLM作为代理与外部系统交互的功能。