全球科技行业裁员潮背后,是企业将员工薪酬预算大规模转向购买AI芯片和建设数据中心。甲骨文计划裁员3万人,核心逻辑是资金挪移而非AI完全替代人力。
腾讯电脑管家推出本地AI助手QClaw,已开放内测申请。该产品基于OpenClaw开发,主打数据本地处理,保障用户隐私安全。支持Mac和Windows双平台,适应多样办公场景。
“薇光点亮”公司近日完成超1亿元Pre-A轮融资,由红杉中国与蓝驰创投领投,蚂蚁战投等跟投。该公司专注于“AI+时尚”赛道,其核心技术“时尚大脑”能通过AI分析用户数据,提供个性化穿搭建议,并已与多家品牌合作,旨在革新传统时尚零售模式。
人工智能数据中心建设热潮催生临时工人营地市场,私营运营商借机进入。开发商为快速在偏远地区部署设施,采用类似油田的“工人营地”模式提供住宿,引发对劳工条件及社区影响的关注。
AI表单构建器,用于注册、调查、测验等,含自助数据查询,免费试用
企业级AI基础设施,可实现生产就绪的RAG管道和数据编排。
AI驱动的GTM工作流平台,助力销售团队找客户、丰富数据、快速成交
全栈平台,内置身份验证、数据库和LLM集成,助您10倍速交付AI应用。
Xai
$1.4
输入tokens/百万
$3.5
输出tokens/百万
2k
上下文长度
Openai
-
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$6
$24
256
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
$2
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUF是基于Allen Institute for AI开发的Olmo-3-7B-Instruct模型的GGUF量化版本。这是一个70亿参数的自回归语言模型,通过监督微调和直接偏好优化在Tulu 2和UltraFeedback等数据集上训练,在问答和指令遵循方面表现出色。
allenai
Olmo 3是由Allen Institute for AI开发的新一代语言模型系列,包含7B和32B两种规模,有指令和思考两种变体。该模型基于Dolma 3数据集进行预训练,在Dolci数据集上进行后训练,具备长链式思维能力,在数学和编码等推理任务上表现优异。
Olmo 3 7B RL-Zero Math是Allen AI开发的专为数学推理任务优化的70亿参数语言模型,采用RL-Zero强化学习方法在数学数据集上进行训练,能有效提升数学推理能力。
Olmo 3 7B RL-Zero Mix是Allen AI开发的7B参数规模的语言模型,属于Olmo 3系列。该模型在Dolma 3数据集上进行预训练,在Dolci数据集上进行后训练,并通过强化学习优化数学、编码和推理能力。
DakkaWolf
Trouper-12B GGUF是由DarwinAnim8or基于原始模型开发的文本生成模型,专门针对角色扮演和创意写作场景进行了优化。该模型从Mistral-Nemo-Base-12B微调而来,使用了自定义的'Actors'数据集进行训练,生成的文本更加自然,避免了常见的'AI语言'特征。
Olmo 3是Allen Institute for AI (Ai2)开发的全新32B参数语言模型家族,包含Base、Instruct和Think等变体。该模型基于Dolma 3数据集训练,支持65,536的长上下文处理,旨在推动语言模型科学发展。模型完全开源,遵循Apache 2.0许可证。
ss-lab
EXAONE-4.0-1.2B 是一个由 LG AI Research 开发的文本生成模型。它基于 EXAONE-4.0-1.2B 基础模型,使用 tatsu-lab/alpaca 数据集进行了微调,支持英文和韩语两种语言的文本生成任务。模型已转换为 GGUF 格式,便于在本地部署和运行。
Olmo-3-7B-Think-SFT是Allen Institute for AI开发的7B参数语言模型,具有长链式思考能力,在数学和编码等推理任务中表现优异。该模型基于Dolma 3数据集预训练,并在Dolci数据集上进行了后续训练。
abhi099k
基于DeBERTa-v3-large微调的AI文本检测模型,能够准确识别文本是由人类撰写还是AI生成,在自定义数据集上训练达到约97%的准确率。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
Granite-4.0-Micro是IBM开发的具有30亿参数的长上下文指令模型,基于Granite-4.0-Micro-Base微调而来。该模型使用了开源指令数据集和内部合成数据集,具备增强的指令遵循和工具调用能力,支持多语言任务,可作为各领域AI助手的基础模型。
ShantanuT01
基于BERT-tiny架构的轻量级AI生成文本检测模型,专门用于从RAID数据集中识别AI生成的文本内容。模型输出分数表示文本是人类生成的可能性。
Olmo 3是由Allen Institute for AI开发的全新7B参数语言模型系列,基于Transformer架构,在Dolma 3数据集上训练,旨在推动语言模型科学发展。模型提供Base、Instruct和Think等多种变体,支持最长65,536的上下文长度。
nvidia
NVIDIA Qwen3-32B FP4模型是阿里云Qwen3-32B模型的量化版本,使用优化的Transformer架构,通过将权重和激活量化为FP4数据类型实现高效推理。该模型支持商业和非商业用途,适用于各种AI应用场景。
NVIDIA Qwen3-14B FP4模型是阿里巴巴Qwen3-14B模型的量化版本,采用FP4数据类型进行优化,通过TensorRT-LLM进行高效推理。该模型专为NVIDIA GPU加速系统设计,适用于AI Agent系统、聊天机器人、RAG系统等多种AI应用场景,支持全球范围内的商业和非商业使用。
UsefulSensors
Moonshine Tiny是由Moonshine AI(原有用传感器公司)开发的轻量级越南语自动语音识别模型,仅有27M参数,专为资源受限平台设计,在Fleurs和Common Voice 17数据集上表现出色。
kurakurai
Luth-LFM2-700M 是基于 Liquid AI 的 LFM2-700M 模型进行法语微调的版本。该模型在 Luth-SFT 数据集上训练,显著提升了法语指令遵循、数学和常识推理能力,同时保持了原有的英语能力。
Luth-LFM2-350M 是与 Liquid AI 合作开发的法语优化语言模型,基于 LFM2-350M 在 Luth-SFT 数据集上进行法语微调。该模型在保持英语能力的同时,显著提升了法语指令遵循、数学推理和常识问答能力。
Claude Context是一个MCP插件,通过语义代码搜索为AI编程助手提供整个代码库的深度上下文,支持多种嵌入模型和向量数据库,实现高效代码检索。
Genkit是一个用于构建AI驱动应用的开源框架,提供Node.js和Go库,支持多种AI模型和向量数据库集成,包含开发工具和插件生态系统。
PG-MCP是一个为PostgreSQL数据库设计的模型上下文协议服务器,提供AI代理发现、连接、查询和理解数据库的API,支持多数据库连接、丰富的目录信息和查询解释功能。
Cognee是一个为AI代理提供记忆功能的开源项目,通过模块化ECL管道构建动态知识图谱,支持多种数据源和格式,减少幻觉并降低成本。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
一个为AI工作流提供shadcn/ui组件集成的MCP服务器,支持React、Svelte和Vue框架,包含组件源码、示例和元数据访问功能。
OpenDia是一款开源浏览器扩展工具,允许AI模型直接控制用户浏览器,利用现有登录状态、书签等数据进行自动化操作,支持多种浏览器和AI模型,注重隐私保护。
Supermemory是一个AI驱动的记忆引擎,旨在通过整合个人数据为LLM提供上下文知识,实现信息的智能管理和检索。
微软官方MCP服务器集合,提供Azure、GitHub、Microsoft 365、Fabric等多种服务的AI助手集成工具,支持本地和远程部署,帮助开发者通过标准化协议连接AI模型与各类数据源和工具。
Framelink Figma MCP Server是一个为AI编程工具(如Cursor)提供Figma设计数据访问的服务器,通过简化Figma API响应,帮助AI更准确地实现设计到代码的一键转换。
Redis MCP Server是一个为Redis设计的自然语言接口服务,支持AI代理通过自然语言查询和管理Redis数据,集成MCP协议,提供多种数据结构和搜索功能。
Coco AI是一个统一搜索平台,集成了企业应用和数据(如Google Workspace、Dropbox、GitHub等),提供跨平台搜索和AI驱动的团队聊天功能,旨在提升工作效率和协作体验。
这是一个关于Web3 Model Context Protocol (MCP) 服务器的精选列表,涵盖了链交互、交易、DeFi、市场数据、工具和社交等多个类别。MCP是一个开放协议,标准化了应用程序如何向LLM提供上下文,类似于AI应用程序的USB-C端口。DeMCP是第一个去中心化的MCP网络,专注于为代理提供自研和开源的MCP服务,支持加密支付,并结合TEE和区块链注册表重新定义了MCP的安全性和可靠性。
MCP Notes是一个基于MCP协议的智能笔记应用,支持AI驱动的笔记管理和网页界面操作,使用DynamoDB存储数据。
Wren Engine是一个为MCP客户端和AI代理设计的语义引擎,提供语义层支持,使AI能准确理解企业数据模型和业务逻辑。它支持多种数据源,嵌入MCP客户端,确保数据交互的精确性和治理。
微信读书MCP服务器是一个桥接微信读书数据和AI客户端的轻量级服务,实现阅读笔记与AI的深度交互。
Awesome MCP Servers 是一个全面的Model Context Protocol (MCP)服务器集合,涵盖了7158个MCP服务器,分为33个类别,包括AI集成、艺术媒体、浏览器自动化、云服务、数据库、开发者工具、文件系统、金融、游戏、硬件、医疗、基础设施、知识管理、位置地图、市场营销、监控、多媒体处理、操作系统、项目管理、科学研究、安全、社交媒体、旅行交通、实用工具和版本控制等。
HowToCook-MCP Server是一个让AI助手变身私人大厨的项目,基于HowToCook菜谱数据,通过MCP协议为AI客户端提供菜谱查询、膳食推荐等功能,解决'今天吃什么'的难题。
HOPX MCP服务器是一个基于模型上下文协议的服务,允许AI助手在隔离的云容器中执行Python、JavaScript、Bash和Go代码,支持数据分析和文件操作。
Apify MCP服务器是一个实现Model Context Protocol(MCP)的服务,允许AI助手通过SSE或Stdio与Apify平台上的各种Actor交互,执行数据抓取、网页搜索等任务。