机器人公司1X与瑞典EQT达成战略合作,计划在2026-2030年间向EQT旗下300多家公司提供最多1万台人形机器人Neo。这标志着1X从家庭消费市场转向工业应用,如制造、仓储和物流。Neo原定位为家用机器人,售价2万美元,具备家庭任务执行能力。
1X公司宣布与EQT合作,计划在2026至2030年间向300多家企业批量投放至多1万台Neo人形机器人,重点应用于制造、仓储与物流领域。这标志着Neo从家用转向工业场景,公司将与每家企业单独商定价格和条款,具体售价未公开。
AI专家Ilya Sutskever指出,单纯扩大模型规模的时代已结束,未来突破将依赖更智能的架构设计。这标志着AI发展从“唯规模论”转向新路径。在此背景下,中国团队推出了开源原生多模态架构NEO,为领域创新提供新方向。
诺顿推出全球首款免费“安全AI原生浏览器”Norton Neo,旨在应对AI技术快速发展带来的在线安全挑战,为用户提供更智能、可信的浏览体验。
Luminar Neo是一款先进的图像处理程序,借助AI轻松完善创意摄影作品。
NeoAgent提供24/7 AI客户服务,支持WhatsApp、网页和电话,智能自动化业务。
NeonLights AI是先进AI创意平台,可从文本或内容创建图、视频和动画。
Neocal是一款AI智能日历应用,帮助您有效管理时间和计划日程。
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
基于Qwen 3微调的12B参数大语言模型,具备256k超长上下文处理能力,专门针对长文本生成任务进行优化。该模型结合了VLTO 8B模型基础、Brainstorm 20x调优和NEO Imatrix数据集量化技术,能够生成高质量的长文本内容。
这是一个增强版的多模态视觉语言模型,基于Qwen3-VL-8B-Thinking模型,通过Brainstorm 20x技术扩展至12B参数,采用NEO Imatrix增强的GGUF量化。模型具备强大的图像理解、文本生成和多模态推理能力,在视觉感知、文本质量和创意场景方面都有显著提升。
基于OpenAI的gpt-oss-120b模型优化的大型语言模型,使用NEO数据集进行性能提升,支持多场景应用,可在CPU、GPU或部分卸载模式下运行,具有128k上下文长度和最多128个专家的混合专家架构。
mradermacher
这是chandar-lab/NeoBERT模型的静态量化版本,旨在减少模型存储空间和计算资源需求。
基于Mistral的推理模型,通过NEO Imatrix量化和MAX输出张量优化推理和输出生成能力
基于Qwen3-30B-A3B混合专家模型的GGUF量化版本,上下文扩展至128k,采用NEO Imatrix量化技术优化,支持多语言和多任务处理。
这是Qwen3-32B模型的NEO Imatrix量化版本,采用BF16格式最大化输出张量以提升推理/生成能力,支持128k上下文长度。
基于Qwen3-8B模型的NEO Imatrix量化版本,支持32K长上下文和增强推理能力
这是基于Qwen3-4B模型的NEO Imatrix量化版本,采用BF16格式的MAX输出张量以提升推理和输出生成能力,支持32k上下文长度。
基于谷歌Gemma-3-4b-it模型,通过Neo Horror Imatrix技术和极致量化方案增强的恐怖题材专用大语言模型
neo4j
Gemma 3 27B Instruct 是由 Google 开发的大型语言模型,基于 neo4j/text2cypher-2025v1 数据集微调,专注于将自然语言转换为 Cypher 查询语言。
Gemma 3.4B IT 是一个基于文本到文本生成的大语言模型,专门用于将自然语言转换为Cypher查询语言。
基于Google Gemma-3模型,通过9种Neo和恐怖Imatrix方法微调,专注于恐怖和虚构内容生成
Spestly
基于transformers库的模型,可能使用了unsloth和trl进行优化,适用于监督式微调(SFT)任务
NEOAI
基于深度学习的投资预测系统,采用Transformer架构,融合DeepSeep-V3和LLama3设计结构,用于股价走势预测和技术分析。
Mistralai推出的24B参数指令微调模型,支持128k上下文长度和多语言处理,采用Neo Imatrix技术和MAX量化方案提升性能
基于Llama 3.2架构的3B参数推理增强模型,采用Neo Imatrix技术和极致量化方案,支持128k长文本处理,具备卓越的指令跟随和输出生成能力。
基于谷歌Gemma-3模型的恐怖风格指令微调版本,采用Neo Imatrix技术和极致量化方案,支持128k上下文长度
基于谷歌Gemma-3模型的极致量化版本,采用NEO Imatrix技术增强性能,支持128k上下文长度,适用于全场景任务
Neon MCP Server是一个开源工具,允许用户通过自然语言与Neon Postgres数据库交互,简化数据库管理任务。
ATLAS是一个基于TypeScript和Neo4j构建的智能任务与知识管理系统,专为LLM代理设计,提供项目、任务和知识的三层管理架构。
Neovim与Claude集成的MCP服务器,实现AI辅助文本编辑
MCP Neo4j服务器是一个连接Neo4j图数据库与Claude桌面的中间件,支持通过自然语言进行图数据库操作,包括查询、创建节点和关系等功能。
一个基于Neo4J数据库的知识服务MCP服务器原型,可从Neo4J中提取知识回答问题,支持通过Cursor等客户端使用。
这是一个基于Cloudflare Workers的轻量级Model Control Protocol (MCP)服务器,用于连接代理(如Cursor)与Neon REST API,支持开发者通过工具扩展功能。
一个基于模型上下文协议(MCP)的服务器,通过构建代码知识图谱为大型语言模型提供TypeScript代码库的深度上下文理解。它使用AST分析解析代码,在Neo4j中构建全面的图表示,并通过语义搜索和图遍历提供智能查询能力。
一个用于威胁信息收集的MCP服务器项目,支持通过命令行工具收集指定时间范围内的威胁情报,并可集成Neo4j知识图谱。
一个轻量级的模型控制协议(MCP)服务器,用于通过Cursor等代理工具与Neon REST API交互,部署在Cloudflare Workers上。
一个基于Neo4j的知识图谱服务器,集成AI模型与MCP协议,支持动态知识管理和语义搜索。
该项目实现了Typecast API的MCP服务器,为MCP客户端提供标准化的语音合成服务交互方式。
NeoDB MCP服务器实现,提供与社交书籍编目服务NeoDB交互的工具
NeoCoder是一个基于Neo4j知识图谱的AI编程辅助系统,通过MCP服务器实现AI助手与知识图谱的交互,提供标准化编码工作流程、动态指令手册和项目记忆功能。系统支持多种操作模式(incarnations),包括基础编程、科学研究、决策分析、复杂系统建模、知识图谱管理和代码分析等,通过Neo4j存储工作流模板和执行记录,确保编码过程的可追溯性和标准化。
MCP Neo4j知识图谱记忆服务器是基于Neo4j图数据库的增强版记忆存储系统,为AI助手提供高性能的知识图谱存储和检索能力。
Neo4j MCP服务器实现,通过Model Context Protocol管理图数据库操作,兼容Cursor和Claude Desktop,支持Cypher查询执行。
一个基于Neo4j的知识图谱存储与检索服务,作为MCP协议的服务器实现,支持通过环境变量配置数据库连接,提供项目专属知识图谱管理功能。
一个完整的Todo管理系统MCP服务器,集成了Kinde身份验证、Neon数据库和计费系统,支持通过Cursor AI进行交互,包含免费用户5条待办事项限制和付费升级功能。
Neo4j MCP服务器是一个支持环境变量配置的知识图谱存储服务,兼容模型上下文协议。
GraphRAG MCP是一个结合Neo4j图数据库和Qdrant向量数据库的混合检索系统,为大型语言模型提供语义和图关系结合的文档检索服务。
Adaptive Graph of Thoughts是一个基于Neo4j图数据库的智能科学推理框架,通过图结构实现复杂的科学推理任务,支持与Claude Desktop等AI应用集成。