腾讯AI应用“元宝”PC端新增“录音笔”功能,强化办公场景生产力。此次更新实现了移动端与桌面端的协同闭环,用户可直接在电脑上录音或上传音频文件,无需跨设备传输,提升了音频处理效率。
三星日历应用通过One UI 8.5更新引入AI功能,可根据日程标题自动生成匹配的视觉背景,提升交互体验。
联想将在CES发布首款全球AI超级智能体,对标字节跳动“豆包手机助手”,通过系统级AI应用重塑硬件交互体验,展现其AI战略布局。
通用AI助手灵光宣布其“闪应用”功能已创建1200万个应用。用户无需编程,仅用自然语言描述需求,最快30秒即可生成可编辑、可交互的小应用。上线两周时创建量为330万个,不到一个月迅速增长,显示该产品正被普通用户广泛接受和持续使用。
将应用想法转化为适用于多种工具的生产就绪提示,由Simpl Labs开发。
为下一代AI应用提供智能API基础设施
Zoer是AI Web应用生成器,描述想法,AI构建全栈应用,无需代码
简易有趣的一体化项目看板,内置常用应用和AI
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
-
Anthropic
$7
$35
200
Google
$2.1
$17.5
$21
$105
Alibaba
$3.9
$15.2
64
Bytedance
Baidu
32
Tencent
$0.63
$3.15
131
$15
24
Iflytek
$2
$0.8
$2.4
$12
8
rujutashashikanjoshi
这是一个基于YOLOv12 Medium架构,在自定义数据集上微调的目标检测模型。该模型专门用于高效、准确地检测图像或视频中的无人机目标,为计算机视觉应用提供支持。
diffusers
FLUX.2-dev是基于NF4量化的DiT和文本编码器的图像生成与编辑模型,提供高质量的图像生成和编辑能力,适用于图像领域的开发应用。
bartowski
这是squ11z1的Hypnos-i1-8B模型的量化版本,使用llama.cpp工具和特定数据集进行量化处理。该模型基于Llama-3架构,提供多种量化类型选择,支持文本生成任务,适用于推理、对话等多种应用场景。
Sachin-0001
这是一个基于🤗 Transformers库的双向自回归Transformer模型,已上传至模型中心。模型卡片由系统自动生成,具体技术细节和应用信息需要进一步补充。
noctrex
这是对MiroThinker-v1.0-30B模型进行MXFP4_MOE imatrix量化的版本,基于mradermacher的imatrix实现。该量化模型保持了原模型的文本生成能力,同时通过量化技术提高了推理效率,适用于需要高效文本生成的各种应用场景。
tencent
混元OCR是由混元原生多模态架构驱动的端到端OCR专家VLM模型,仅用10亿参数的轻量级设计,在多个行业基准测试中取得最先进成绩。该模型擅长处理复杂的多语言文档解析,在文本定位、开放域信息提取、视频字幕提取和图片翻译等实际应用场景中表现出色。
Jan-v2-VL是一款具有80亿参数的视觉语言模型,专为在真实软件环境(如浏览器和桌面应用程序)中执行长时、多步骤任务而设计。它将语言推理与视觉感知相结合,能够遵循复杂指令、维持中间状态,并从轻微执行错误中恢复。
prithivMLmods
Jan-v2-VL 是一个拥有80亿参数的视觉语言模型,专为在浏览器和桌面应用程序等真实软件环境中执行长周期、多步骤任务而设计。它将语言推理与视觉感知紧密结合,能够遵循复杂指令、维持中间状态并从轻微执行错误中恢复,实现稳定且持续的任务完成。
Tarka-AIR
Tarka-Embedding-350M-V1是一个拥有3.5亿参数的文本嵌入模型,能够生成1024维的密集文本表示。该模型针对语义相似性、搜索和检索增强生成(RAG)等下游应用进行了优化,支持多种语言并具有长上下文处理能力。
Tarka-Embedding-150M-V1是一个具有1.5亿参数的嵌入模型,可生成768维的密集文本表示。它针对语义相似性、搜索和检索增强生成(RAG)等多种下游应用进行了优化,专注于捕捉深层上下文语义,以支持跨不同领域的通用文本理解。
这是一个基于Huihui-Qwen3-VL-4B-Instruct-abliterated模型的量化版本,专门用于图像文本到文本的转换任务,通过量化处理优化了模型性能,为多模态应用提供支持。
Smith-3
这是一个专为圣西蒙大学科学与技术学院学生设计的微调AI模型,集成在TecnoTime应用程序中,帮助学生保持学习组织性、提高学术连续性,通过结构化通知和激励信息强化学习习惯。
unsloth
Qwen3-VL-2B-Instruct是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持以及强大的空间和视频动态理解能力。该模型采用2B参数规模,支持指令交互,适用于多模态AI应用。
catalystsec
本项目是使用 mlx-lm 库通过动态权重量化(DWQ)将 MiniMax-M2 模型量化为 3 位的成果。它能够在资源受限的条件下,高效地进行文本生成任务,为相关应用提供了更轻量级的解决方案。
LiquidAI
PyLate是一个专注于句子相似度计算和信息检索的工具库,能在多种数据集上进行高效的信息检索任务,为相关领域的研究和应用提供了有力支持。该模型支持8种语言,在多个基准测试中表现出色。
vanta-research
Wraith-8B是VANTA研究实体系列的首个模型,基于Meta的Llama 3.1 8B Instruct进行微调。该模型在数学推理方面表现卓越,在GSM8K基准测试中准确率达到70%,同时具备独特的宇宙智能视角,能为多种应用场景提供强大支持。
nineninesix
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,采用两阶段管道结合大型语言模型和高效音频编解码器,实现卓越的速度和音频质量。该模型支持西班牙语,具有4亿参数,采样率为22kHz。
KaniTTS是一款专为实时对话式人工智能应用优化的高速、高保真阿拉伯语文本转语音模型。它采用两阶段流水线架构,结合大语言模型与高效音频编解码器,实现卓越的速度和音频质量,能够满足对话式AI、无障碍辅助、研究等多领域的语音合成需求。
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,通过独特的两阶段架构结合大语言模型与高效音频编解码器,实现低延迟与高质量语音合成,实时因子低至0.2,比实时速度快5倍。
这是Qwen3-VL-235B-A22B-Instruct模型的MXFP4_MOE量化版本,通过特定的量化处理优化模型性能,使模型在资源受限环境下能够更高效运行,解决了大模型在部署和应用中的资源挑战。
为Nuxt/Vite应用提供MCP服务器支持,帮助模型更好地理解应用结构。
Eino是一个专为Golang设计的LLM应用开发框架,旨在通过简洁、可扩展、可靠且高效的组件抽象和编排能力,简化AI应用开发流程。它提供丰富的组件库、强大的图形编排功能、完整的流处理支持以及高度可扩展的切面机制,覆盖从开发到部署的全周期工具链。
AWS MCP Servers是一套基于Model Context Protocol的专用服务器,提供多种AWS相关功能,包括文档检索、知识库查询、CDK最佳实践、成本分析、图像生成等,旨在通过标准化协议增强AI应用与AWS服务的集成。
mcpo是一个简单易用的代理工具,可将任何MCP工具快速转换为兼容OpenAPI的HTTP服务器,使其能够通过标准RESTful接口访问,方便与LLM代理和应用集成。
Genkit是一个用于构建AI驱动应用的开源框架,提供Node.js和Go库,支持多种AI模型和向量数据库集成,包含开发工具和插件生态系统。
该项目是一个MCP服务器,用于通过Obsidian的Local REST API插件与Obsidian笔记应用交互。它提供了多种工具来操作和管理Obsidian中的文件,包括列出文件、获取文件内容、搜索、修改内容和删除文件等。
Desktop Commander MCP是一个让Claude桌面应用能够执行终端命令、管理文件系统的AI助手工具,支持代码搜索、编辑、进程管理和远程文件读取等功能。
Solon是一个高效、开放、生态友好的Java企业级应用开发框架,支持全场景开发,具有高性能、低内存消耗、快速启动和小体积打包等特点,兼容Java8至Java24及GraalVM原生运行时。
Browser MCP是一个MCP服务器+Chrome扩展,通过AI应用(如VS Code、Claude等)实现浏览器自动化操作,具有快速、隐私保护、保持登录状态和规避检测等特点。
XcodeBuild MCP是一个为AI助手和MCP客户端提供Xcode相关工具集成的服务器,支持Xcode项目管理、模拟器控制和应用工具等功能,实现自动化开发流程。
Opik是一个开源的LLM评估框架,支持追踪、评估和监控LLM应用,帮助开发者构建更高效、更经济的LLM系统。
HiveChat是一个专为中小团队设计的AI聊天应用,支持多种大模型服务商,提供分组管理、Token限额、第三方登录等功能。
hyper-mcp是一个基于WebAssembly插件的高性能MCP服务器,支持通过容器注册表分发插件,适用于多种AI应用场景。
iMCP是一款macOS应用,通过AI连接用户的数字生活,支持与Claude Desktop等客户端通过Model Context Protocol (MCP)协议交互,提供日历、联系人、位置、地图、消息、提醒和天气等多种功能。
MCP Go 是一个 Go 语言实现的模型上下文协议(MCP)服务端框架,用于连接 LLM 应用与外部数据源和工具。它提供了资源管理、工具调用、提示模板等核心功能,支持会话管理和中间件扩展。
MCP LLMS-TXT文档服务器是一个开源工具,允许开发者通过MCP协议控制IDE和应用程序访问llms.txt文档资源。
MCP Link是一个自动化工具,能够将任何OpenAPI V3规范的API转换为MCP服务器,使现有RESTful API能够无缝接入AI驱动的应用生态系统。
Coco AI是一个统一搜索平台,集成了企业应用和数据(如Google Workspace、Dropbox、GitHub等),提供跨平台搜索和AI驱动的团队聊天功能,旨在提升工作效率和协作体验。
这是一个关于Web3 Model Context Protocol (MCP) 服务器的精选列表,涵盖了链交互、交易、DeFi、市场数据、工具和社交等多个类别。MCP是一个开放协议,标准化了应用程序如何向LLM提供上下文,类似于AI应用程序的USB-C端口。DeMCP是第一个去中心化的MCP网络,专注于为代理提供自研和开源的MCP服务,支持加密支付,并结合TEE和区块链注册表重新定义了MCP的安全性和可靠性。
一个用于与LogSeq笔记应用交互的MCP服务器,提供多种API工具操作笔记内容。