微软Azure ND GB300v6虚拟机在Llama270B模型上创下每秒110万token推理速度新纪录。该成就基于与英伟达的深度合作,采用配备72个Blackwell Ultra GPU和36个Grace CPU的NVIDIA GB300NVL72系统,突显微软在规模化AI运算领域的专业实力。
Qwen3-Coder系列迎来了新成员——Qwen3-Coder-Flash,这款被开发者亲切称为“甜品级”的编程模型以其卓越的性能和高效的运行速度,为编程领域带来了新的惊喜。 Qwen3-Coder-Flash的全称为Qwen3-Coder-30B-A3B-Instruct,它在性能和效率方面表现出色,特别是在代理式编程(Agentic Coding)、浏览器使用(Agentic Browser-Use)和工具调用(Tool Use)等领域,展现了超强的Agent能力。这一能力不仅超越了当前的顶级开源模型,仅略逊于顶配版
B站AI内容生态爆发:2025年Q1数据显示,平台AI相关内容日均播放时长增长超100%,投稿量增长130%,1.4亿月活用户中95后占比超80%。平台首发TOP30AI应用榜单,Deepseek等产品位居前列,并催生趣味创作内容。头部创作者效应显著,全网AI领域前十UP主均来自B站。视频播客成新增长点,消费时长同比增长270%。B站通过开放AI体验区和播客间,持续引领AI内容传播新趋势。
AI编码工具Windsurf宣布重新上线Anthropic的Claude Sonnet4模型,为Pro用户提供每月250次调用权限(2倍信用消耗)。该模型以72.7%的SWE-bench测试表现著称,支持200K token上下文窗口,能实现代码生成、复杂重构等功能。此前因Anthropic限制直接访问,Windsurf曾推出BYOK方案应对。此次恢复合作被视为市场竞争下的重要突破,但2倍计费模式可能增加用户成本。未来平台或将进一步优化模型集成与定价策略。
Nav ai助您发现最佳AI工具,提升生产力,提供专家指南。
OpenAI 提供的内置工具,用于扩展模型的能力,如网络搜索和文件搜索。
Tolan: Alien Best Friend 是一款以聊天和情感陪伴为核心功能的社交类APP。
基于AI生成图像的3D渲染模型
EightiesPower
bl00dsqibWan22-lora是一个基于AI Toolkit by Ostris训练的LoRA模型,专门用于图像到视频处理任务,为图像和视频处理领域提供了新的解决方案。
bartowski
这是ToastyPigeon的i-added-glitter模型的量化版本,使用llama.cpp的imatrix选项进行量化处理,提供多种量化级别选择,旨在在不同硬件条件下实现高效运行。
rhysjones
该模型源自karpathy的llm.c项目,为研究bfloat16性能而转换为HuggingFace格式,训练过程消耗了1500亿token。
Trendyol
Trendyol LLM v4.1.0 是一款基于 Trendyol LLM base v4.0(在130亿token上继续预训练的Qwen2.5 7B版本)的生成模型,专注于电商领域和土耳其语理解。
makiart
由Algomatic团队开发的多语言大型BERT模型,支持8192上下文长度,训练约600亿token,适用于填充掩码任务。
speakleash
Bielik-11B-v2 是一个拥有110亿参数的生成式文本模型,专为波兰语文本开发训练,基于Mistral-7B-v0.2初始化,训练了4000亿个token。
akiFQC
基于tohoku-nlp/bert-base-japanese-v3训练的日语自然语言推理交叉编码器,支持蕴含、中立、矛盾三类判断
1bitLLM
BitNet b1.58是一种1位大语言模型,参数规模为30亿,使用RedPajama数据集训练了1000亿个token。
BitNet b1.58 3B是一种1位量化的大型语言模型,使用RedPajama数据集训练了1000亿token,在保持性能的同时显著降低了计算资源需求。
BitNet b1.58是一种1.58位量化的大语言模型,通过量化权重到{-1,0,1}三值实现高效推理。该模型复现了原论文结果,在RedPajama数据集上训练了1000亿token。
cerebras
BTLM-3B-8k-base是一个具有8k上下文长度的30亿参数语言模型,基于6270亿token的SlimPajama数据集训练而成,性能可媲美开源70亿参数模型。
TurkuNLP
面向芬兰语的15亿参数生成式预训练Transformer模型,基于BLOOM架构训练3000亿token
Bingsu
基于kss数据集训练的Tacotron2韩语文本转语音模型
Toshifumi
基于bert-base-multilingual-cased在emotion数据集上微调的多语言情感分类模型
tohoku-nlp
基于日语文本预训练的BERT模型,采用字符级分词和全词掩码技术,适用于日语自然语言处理任务。
基于日语文本预训练的BERT模型,采用IPA词典分词和全词掩码技术
基于日语维基百科预训练的BERT大型模型,采用Unidic词典分词和全词掩码策略
针对日语文本预训练的BERT模型,采用字符级分词和全词掩码机制,基于日语维基百科2020年8月31日版本训练
基于日语维基百科预训练的BERT模型,采用Unidic词典进行词汇级分词和整词掩码训练
基于日语文本预训练的BERT模型,采用字符级分词处理,适用于日语自然语言处理任务。
Maven Tools MCP Server是一个基于Spring Boot的MCP协议服务器,为JVM构建工具(Maven、Gradle、SBT、Mill等)提供Maven中央仓库依赖智能分析服务。它通过直接读取Maven Central的元数据文件,提供快速、准确的依赖版本查询、批量分析、版本比较和项目健康评估等功能,并集成了Context7文档服务。
MCPilot是一个在ETHGlobal黑客松上开发的项目,通过MCP服务器让LLM能安全地与区块链交互,用户无需暴露私钥即可通过MetaMask钱包完成操作。
MCP Web Search Tool是一个为AI助手提供实时网络搜索能力的服务器工具,支持可插拔的搜索引擎集成,目前主要使用Brave Search API。
Alterx MCP是一个连接Alterx子域名置换工具与MCP生态系统的桥梁,支持通过标准化协议将子域名生成功能集成到自动化工作流中。
MCP BatchIt是一个MCP工具调用批处理服务器,通过聚合多个MCP工具调用到一个请求中,显著减少AI代理的通信开销和token消耗。
该项目是一个基于TypeScript的MCP服务器实现,使用Server-Sent Events (SSE)进行实时消息传输,并通过Bearer Token进行安全认证。它支持与LLM主机等客户端的实时通信,并提供了四个基础数学工具作为示例。
BrowserTools MCP是一个强大的浏览器监控与交互工具,通过Chrome扩展实现AI应用对浏览器数据的捕获与分析,支持多种审计和调试功能。