国家数据局通过官方渠道将大模型计量单位“Token”正式定名为“词元”,并披露我国AI行业日均词元调用量已超140万亿次。此举统一了长期存在的译名争议,标志着大模型技术标准在国家层面进一步规范化。
上海黄浦法院一审判决首例AI提示词著作权侵权案。原告美术公司起诉两名被告,称其2022年创作的六组提示词(涉及艺术风格、主体元素等)被侵权。案件凸显AI生成内容的法律属性问题,特别是提示词在著作权中的保护争议。
Anthropic公司宣布其Claude Sonnet4语言模型现支持100万个上下文词元,成为继谷歌Gemini后第二家提供此功能的主流供应商。相比之前20万词元的限制,此次扩展提升至五倍,开发者可一次性提交超过7.5万行代码的完整代码库,极大提升开发便利性。
Anthropic公司宣布其Claude Sonnet4LLM模型上下文词元容量从20万扩展至100万,支持单请求传输超7.5万行代码,显著提升使用灵活性。该功能已在Anthropic API和Amazon Bedrock开放测试,Google Cloud Vertex AI即将上线。
Anthropic
$7
Input tokens/M
$35
Output tokens/M
200
Context Length
Bytedance
-
Tencent
$1
$4
32
Alibaba
24
$0.7
$1.95
16
$0.8
$2
$0.5
224
$3
$9
4
$8
28
$2.4
$9.6
$1.5
$6
128
prithivMLmods
VibeThinker-1.5B是微博AI推出的15亿参数密集语言模型,基于Qwen2.5-Math-1.5B微调,专门针对数学和算法编码问题设计。采用'频谱到信号原理'框架训练,在多个数学竞赛测试中超越规模更大的模型,训练成本约7800美元,支持最长约40k词元的输出。
mideind
IceBERT-PoS是一个专门用于冰岛语词性标注的预训练模型,基于IceBERT架构构建。该模型能够对冰岛语句子中的每个单词进行词性标注,并输出详细的语法属性信息,支持多种输出格式,包括可读性强的结构化元组格式和与MIM-GOLD评估标准兼容的IFD格式。
Goraint
Qwen3-8B的4位AWQ量化版本,专为MLX库优化,支持19.2万词元长上下文处理,适用于边缘设备部署。
dnotitia
顺滑Qwen是一款轻量级的调整工具,能够平滑Qwen及类似模型中的词元概率,增强多语言的平衡生成能力。
轻量级调整工具,可对Qwen及类似模型中的词元概率进行平滑处理,增强多语言的平衡生成能力。
一款轻量级的调整工具,能够平滑Qwen及类似模型中的词元概率,增强多语言生成的平衡能力。
Smoothie Qwen 是一款轻量级调整工具,可平滑通义千问(Qwen)及类似模型中的词元概率,增强多语言的平衡生成能力。
Smoothie Qwen 是一款轻量级调整工具,专门用于对通义千问(Qwen)及类似模型的词元概率进行平滑处理,旨在增强模型的多语言平衡生成能力。
Smoothie Qwen 是一款轻量级的调整工具,能够平滑通义千问(Qwen)及类似模型中的词元概率,增强多语言的均衡生成能力。
songhieng
基于mT5-small改进的高棉语文本摘要模型,支持最长1024词元的输入,适用于高棉语文章、段落或文档的摘要生成。
hashu786
混元奖励模型包含HPS与MPS两种LoRA模型,分别侧重美学表现和提示词贴合度,适用于文本生成图像任务。
KRLabsOrg
LettuceDetect 是一个基于 ModernBERT 的幻觉检测模型,专为 RAG 应用设计,能够识别答案中未被上下文支持的词元。
thefrigidliquidation
针对轻小说及网络小说进行日译英微调的大语言模型,支持32K词元的长文本翻译
facebook
MEXMA是一种创新的跨语言句子编码器,通过整合句子级和词元级双重目标提升句子表征质量。
TJUNLP
FuxiTranyu-8B是一个从头开始训练的开源多语言大语言模型,在6000亿个词元上进行训练,专注于多语言能力,支持43种自然语言和16种编程语言。
rasyosef
基于bert-medium架构预训练的阿姆哈拉语模型,参数量4050万,在2.9亿词元上训练,性能媲美更大规模的多语言模型。
DavidLanz
这是专为繁体中文优化的Tinyllama持续预训练版本,基于TinyLlama-1.1B模型,持续预训练数据集包含约20亿个词元。
mistralai
Mistral-7B-v0.3是基于Mistral-7B-v0.2升级的大语言模型,主要改进是扩展了词汇表至32768个词元。
Tweeties
针对鞑靼语开发的跨词元大语言模型,基于Mistral-7B-Instruct-v0.2转换而来
ezelikman
基于Mistral-7b模型,采用Quiet-STaR方法进行持续预训练,在生成每个输出词元前会先生成8个思维词元,提升推理能力。
这是一个基于MCP协议的《古兰经》搜索引擎服务器,旨在为AI助手提供准确、无幻觉的《古兰经》经文查询服务。它利用专门的搜索引擎处理阿拉伯语标准化、词根和词元匹配,确保返回的经文文本绝对准确,而AI仅负责理解用户的自然语言查询意图。
一个基于Model Context Protocol (MCP)的提示词管理服务器,支持通过Markdown文件和YAML元数据存储、检索和管理提示词模板。