杭州市上城区发布浙江省首个AIGC视听产业专项政策“黄金十条”,全面覆盖技术创新、成本减负、内容创优、人才引育和出海发展等环节。政策亮点包括:对AIGC工具、AI虚拟拍摄等研发项目最高补助300万元,并对在头部平台上线的内容给予奖励。
近日,AI大模型接口聚合管理系统NewAPI被曝存在高风险支付漏洞。当系统未正确配置Stripe支付密钥时,攻击者可伪造Webhook事件,绕过真实支付流程,实现“零成本”任意金额充值。目前漏洞详情及防范措施已在开发者论坛等平台公开。
谷歌为Ultra订阅用户推出“Veo 3.1 - Lite [低优先级]”视频生成模式,无需额外消耗积分,旨在提升创作性价比。作为目前成本最低、响应最快的方案,其运营成本低于Fast版本,进一步降低了高质量AI视频生成门槛。
荣耀发布自研“龙虾”YOYO Claw智能体技术,旨在解决AI智能体上手复杂、成本高、隐私风险三大痛点。作为“龙虾宇宙”概念的落地,该技术实现多端一体、一虾多吃,推动AI智能体在终端部署与应用的发展。
AI驱动的自动化QA测试平台,可自动生成回归测试,维护成本极低
Vooka提供免费AI虚拟试穿和时尚可视化工具,低成本快速生成电商内容
开源LLM路由器,路由请求到最具成本效益模型,节省70% AI令牌成本。
ToolSpend可跨供应商跟踪AI支出,避免浪费,实时查看成本趋势。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
-
$6
$24
256
Baidu
128
Bytedance
$1.2
$3.6
4
$2
prithivMLmods
VibeThinker-1.5B是微博AI推出的15亿参数密集语言模型,基于Qwen2.5-Math-1.5B微调,专门针对数学和算法编码问题设计。采用'频谱到信号原理'框架训练,在多个数学竞赛测试中超越规模更大的模型,训练成本约7800美元,支持最长约40k词元的输出。
featherless-ai-quants
该项目提供了Echelon-AI/Med-Qwen2-7B模型的GGUF量化文件,由Featherless AI提供支持,旨在增强模型性能并降低运行成本。
AWS MCP Servers是一套基于Model Context Protocol的专用服务器,提供多种AWS相关功能,包括文档检索、知识库查询、CDK最佳实践、成本分析、图像生成等,旨在通过标准化协议增强AI应用与AWS服务的集成。
Codex Bridge是一个轻量级MCP服务器,通过官方CLI连接AI编程助手与OpenAI Codex,支持多客户端无API成本交互。
Tailpipe MCP服务器是一个AI驱动的日志分析工具,通过模型上下文协议连接AI助手与云端/SaaS日志数据,支持自然语言查询和分析各类云服务日志,提供安全事件调查、成本性能洞察等功能。
OneTool是一个统一的MCP服务器,通过Python API暴露100多种工具,大幅减少AI调用工具时的token消耗和成本,避免上下文污染,支持Web搜索、数据库、文件操作、图表绘制等多种功能。
LOTUS-MCP是一个开源的模型协调协议,整合Mistral和Gemini两大AI模型,提供统一接口、上下文共享和工具集成,实现智能路由和成本优化。
一个支持AWS、Azure和GCP云服务的MCP服务器,提供资源管理、成本分析、监控和安全功能,使AI助手能够管理云基础设施。
PumpClaw是一个为自主AI代理提供收入基础设施的项目,允许用户在Base链上零成本部署ERC-20代币并创建Uniswap V4流动性池,创作者可获得80%的交易手续费。
MCP Context Template是一个集中管理AI工具上下文的仓库,旨在降低上下文共享成本并提升开发效率,为团队提供统一的AI协作标准和文档结构。
Ultimate MCP Server是一个基于模型上下文协议(MCP)的AI代理操作系统,提供数十种强大工具能力,包括认知增强、工具使用和智能编排等功能。该系统通过标准化MCP工具暴露功能,使高级AI代理能访问丰富的工具生态系统和专业化服务,同时优化成本、性能和质量。
Vantage MCP Server是一个开源工具,通过自然语言交互帮助用户查询和分析云成本数据。它作为桥梁连接Vantage API与AI助手,提供直观的成本分析功能,支持多种MCP客户端集成。
Context Engineering MCP平台是一个AI上下文管理与优化平台,通过系统化的方法设计、管理和优化AI模型的输入信息,实现提示工程的工程化。平台提供智能分析引擎、优化算法、模板管理等功能,显著提升AI响应质量、降低API成本,并支持多模态内容处理。
Gemini Bridge是一个轻量级MCP服务器,通过官方CLI连接AI编程助手与Google Gemini AI,支持多客户端无API成本交互。
一个用于批量读取记忆库文件的MCP服务器,通过一次性加载目录下所有文件来减少AI工具调用频率,节省时间和成本。
TOON MCP服务器是一个用于TOON编码的模型上下文协议服务器,通过紧凑的数据格式将结构化数据转换为令牌优化的表示,可减少50-70%的LLM令牌使用量,从而显著降低AI调用成本。
一个基于MCP协议的Claude任务调度服务器,支持通过cron表达式定时执行AI任务,提供Web仪表盘、Webhook触发、动态MCP服务器创建和成本追踪功能。
RAGStack-Lambda是一个基于AWS Lambda的无服务器AI文档与媒体处理平台,支持上传文档、图片、视频和音频,通过OCR、转录和向量化技术构建知识库,并提供带来源追溯的AI聊天功能。采用按需付费的零闲置成本架构。
Steampipe MCP服务器是一个连接AI助手与云基础设施数据的桥梁,支持通过自然语言查询和分析AWS、Azure、GCP等100多种云服务,提供安全合规分析、成本优化和查询开发辅助功能。
OCI定价MCP服务器为AI助手提供Oracle云基础设施的定价数据,支持实时查询和离线数据,包含计算、存储、数据库等服务的成本估算工具。
RLM Tools是一个MCP服务器工具,为AI编程代理提供持久化沙箱环境,允许在服务器端探索和分析代码,仅将结论返回给模型,大幅减少上下文窗口占用和成本。
UniAuto MCP Server是一个集成了AI能力的通用测试自动化服务器,具有多层自愈机制、可视化智能和跨平台支持,能显著降低测试维护成本并提升测试韧性。