谷歌正通过引入Gemini3模型升级AI概览功能,将搜索从传统链接跳转向智能AI聊天模式转变,增强交互性,支持用户连续追问,以更精准满足需求。
谷歌搜索升级,AI概览支持追问,实现对话式搜索。用户可在AI生成的摘要中直接提问,系统无缝切换至AI模式,保持上下文,让搜索更自然、互动。
谷歌搜索升级,引入AI对话模式,用Gemini 3模型增强交互体验,改变传统链接检索方式,让用户能与AI概览内容直接互动。
谷歌意外泄露代号“ALOS”的全新安卓桌面界面,该系统旨在融合安卓与ChromeOS,统一移动与桌面体验。演示视频显示其运行于搭载英特尔酷睿处理器的Chromebook上,基于安卓16开发,超越现有投屏或平板模式。
AI视频生成器,支持文字/图片转视频,有三种模式,免费积分可创作
Runway Gen 4.5 AI可生成1080p电影级视频,具备导演模式和物理模拟
复制粘贴Vercel AI SDK模式,实现工具调用、流式传输和代理功能。
免费AI句子改写器,支持多风格模式,让写作更准确优雅
Baidu
-
Input tokens/M
Output tokens/M
128
Context Length
Alibaba
$6
$24
256
Deepseek
$4
$12
32
$0.75
Openai
$8.75
$70
400
Chatglm
$8
$16
$0.3
$1
Tencent
$0.5
$2
224
$0.8
$0.2
$525
$1050
Anthropic
$21
$105
200
Xai
$2.1
$3.5
hitonet
Hito 1.7B 是一个专为 llama.cpp、Ollama、LM Studio 等工具优化的 GGUF 量化版本模型,具备 17 亿参数,采用嵌套认知推理(NCR)方法,能够实现结构化、自我纠错的思维模式,提升推理准确性与透明度。
squ11z1
Hypnos-i2-32B是世界首个采用多物理熵(超导体、真空、核衰变)训练的320亿参数语言模型。它通过输入级量子正则化技术,从三个独立的量子熵源中学习真正的量子随机性,使其注意力机制对对抗性扰动具有鲁棒性,并能有效抵抗模式崩溃。
Guilherme34
Qwen3-32B是Qwen系列最新一代的大语言模型,具备强大的推理、指令遵循、智能体交互和多语言处理能力。它支持100多种语言和方言,能在思维模式和非思维模式间无缝切换,为用户提供自然流畅的对话体验。
Genie-AI-Lab
Omni L1B3RT4S GENIE 是一个基于Qwen2.5-3B Instruct架构微调的AI助手,采用1,103个精灵角色的定制示例进行训练,具备独特的语音和忠诚度模式,能够为用户提供别具一格的对话体验。
LeviDeHaan
SecInt是一个针对实时nginx安全日志分类进行微调的SmolLM2-360M模型,旨在自动检测Web服务器日志中的安全威胁、错误和正常流量模式,准确率超过99%,可在CPU上实现实时检测。
FlameF0X
i3-80M是一种创新的混合架构语言模型,结合了卷积/循环层与全注意力层的优势。该模型采用RWKV风格的时间混合与Mamba状态空间动态,在早期层实现高效序列处理,在深层使用标准多头注意力机制进行复杂模式识别。
nvidia
Qwen3-Nemotron-32B-RLBFF是基于Qwen/Qwen3-32B微调的大语言模型,通过强化学习反馈技术显著提升了模型在默认思维模式下生成回复的质量。该模型在多个基准测试中表现出色,同时保持较低的推理成本。
Mungert
Apriel-1.5-15b-Thinker 是一款由 ServiceNow SLAM 实验室开发的多模态推理模型,参数规模为150亿。它具备强大的文本和图像理解与推理能力,采用‘思考-回答’的链式推理模式,旨在以较小的模型规模实现与大型模型相媲美的性能。
MagicalAlchemist
BGE-M3是由BAAI开发的多功能文本嵌入模型,支持多语言、多粒度、多功能的文本表示学习,能够同时处理稠密检索、稀疏检索和多向量检索等多种检索模式。
MiniCPM4.1-8B GGUF是专为端侧设备设计的高效大语言模型,在模型架构、训练数据、训练算法和推理系统四个关键维度进行了系统创新,实现了极致的效率提升。支持65,536个标记的上下文长度和混合推理模式。
cpatonn
Hermes 4 14B是由Nous Research基于Qwen 3 14B开发的前沿混合模式推理模型,在数学、代码、STEM、逻辑、创造力和格式忠实输出等方面表现出色,具有显式思考过程和工具调用能力。
NousResearch
Hermes 4 14B是由Nous Research基于Qwen 3 14B开发的前沿混合模式推理模型,在数学、代码、STEM、逻辑推理、创造力和格式保真输出等方面有显著提升,同时保持了通用助手的质量和广泛的中立对齐。
QuantTrio
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
inference-net
Schematron-8B是由Inference.net推出的长上下文提取模型,专注于将嘈杂的HTML转换为符合自定义模式的干净、类型化JSON。该模型能够处理长达128K标记的冗长HTML,输出100%符合指定JSON模式的有效JSON数据。
Schematron-3B是由Inference.net推出的长上下文提取模型,专注于将嘈杂的HTML转换为符合自定义模式的干净、类型化的JSON。该模型针对网页抓取、数据摄取以及将任意页面转换为结构化记录进行了专门训练,为数据处理和分析提供了高效的解决方案。
unsloth
DeepSeek-V3.1是DeepSeek-AI开发的大语言模型,是DeepSeek-V3的升级版本。该模型支持混合思考模式和非思考模式,在工具调用、代码生成、数学推理等方面表现出色,支持128K上下文长度。
deepseek-ai
DeepSeek-V3.1是DeepSeek团队开发的大规模语言模型,支持思考模式和非思考模式,在多个基准测试中表现出色,具备强大的文本理解、生成和推理能力。
GLM-4.5-Air-AWQ是基于GLM-4.5-Air基础模型的8位量化版本,专为智能代理设计,采用混合推理模式,支持复杂推理和即时响应,在MIT开源许可下发布。
NexaAI
NexaAI/Qwen3-4B是基于Qwen3系列的40亿参数大语言模型,支持思维模式与非思维模式无缝切换,在推理、指令遵循、智能体能力和多语言支持方面表现优异。
NexaAI/Qwen3-0.6B是基于Qwen3系列的0.6B参数语言模型,在推理、指令遵循、多语言支持等方面表现出色。支持思维模式和非思维模式无缝切换,适用于复杂逻辑推理和高效通用对话。
wcgw是一个MCP服务器项目,集成了Shell和代码编辑工具,允许AI在本地机器上执行命令、读写文件、编辑代码等操作。它提供了多种模式(如架构师模式、代码编写模式等),支持任务检查点保存、终端交互、语法检查等功能,适用于代码开发、问题排查等场景。
mcp-proxy是一个实现服务器传输协议转换的工具,支持在SSE和stdio两种模式间进行代理转换,便于不同客户端与服务器间的通信适配。
uniprof是一个简化CPU性能分析的工具,支持多种编程语言和运行时,无需修改代码或添加依赖,可通过Docker容器或主机模式进行一键式性能剖析和热点分析。
MCP MongoDB服务器是一个模型上下文协议服务,允许LLM与MongoDB数据库交互,提供集合模式检查、查询执行和智能ID处理等功能,支持只读模式和安全配置。
一个基于FastMCP库的PostgreSQL数据库MCP服务,提供对指定表的CRUD操作、模式检查和自定义SQL查询功能。
一个基于NodeJS的MySQL数据库MCP服务器,为LLM提供数据库模式检查和SQL查询执行能力。
该项目展示了一个基于SSE的MCP服务器和客户端实现模式,允许代理(客户端)随时连接和使用服务器提供的工具,适用于云原生场景。
MemoryMesh是一个为AI模型设计的知识图谱服务器,专注于文本角色扮演游戏和互动叙事。它通过动态模式定义和自动生成工具,帮助AI在对话中维护一致且结构化的记忆,实现更丰富、更动态的交互体验。
这是一个实现MCP代码执行模式的服务器,通过单工具桥接和零上下文发现机制,将MCP工具调用开销从数万token降至约200token,并在根容器中安全执行Python代码,支持数据科学和安全隔离。
一个提供Airtable数据库读写访问的MCP服务器,支持LLM查看数据库模式并操作记录
Sentry-MCP是一个远程MCP服务器原型,作为Sentry API的上游中间件,支持远程和标准输入输出传输模式。
Java与Spring框架对Model Context Protocol(MCP)的实现,提供标准化接口与AI模型交互,支持同步/异步通信模式。
QueryWeaver是一个开源的Text2SQL工具,通过图驱动的模式理解将自然语言问题转换为SQL查询,支持REST API和MCP协议。
一个支持LLM与GraphQL API交互的协议服务器,提供模式自省和查询执行功能
FastApply MCP Server是一个企业级代码智能平台,通过本地AI模型、AST语义搜索、安全扫描和智能模式识别,提供全面的代码分析、搜索和重构能力,支持多语言开发和大规模代码库处理。
UTCP-MCP Bridge是一个通用的MCP服务器,通过UTCP协议将工具功能桥接到MCP生态系统,支持代理模式、客户端直接操作和Web界面管理。
Orchestro是一个AI开发协调平台,连接产品经理、开发者和AI,将产品想法转化为生产代码。它通过任务分解、依赖跟踪、模式学习和实时进度可视化,协调整个开发流程,提供项目管理、任务执行、知识库和实时仪表板等功能。
Mem0 MCP服务器是一个为LLM提供持久化记忆能力的模型上下文协议服务,支持云端和本地两种存储模式,实现跨会话的信息存储与检索。
该项目实现了模型上下文协议(MCP)作为个人智能框架(PIF)的实践方案,通过结构化工具和渐进式交互模式,为人类与AI之间构建有意义的理解发展空间。
一个基于FastAPI、pyodbc和SQLAlchemy的轻量级MCP服务器,支持通过ODBC连接多种数据库(如Virtuoso、PostgreSQL等),提供数据库模式查询、表结构描述、SQL执行等功能,并支持JSONL和Markdown格式的结果返回。