谷歌CEO承认对AI系统运作机制不完全掌控,揭示AI黑箱谜团。大型语言模型通过海量数据训练展现出“涌现行为”,如谷歌PaLM模型仅少量数据即可处理孟加拉语翻译,体现AI从训练到“自学”的跃迁。
腾讯搜狗输入法发布20.0版本,宣布全面AI化,从工具升级为智能助手。新版本基于大模型重塑交互逻辑,在语音、打字、翻译三大高频场景实现底层技术升级,核心提升在于更准、更快、更聪明。
腾讯搜狗输入法发布20.0.0纪念版,全面AI化升级。依托腾讯混元大模型,重点提升AI语音、翻译和打字功能。AI语音识别延时降低40%,准确率达98%,方言识别准确率提升30%。
谷歌发布基于Gemma3架构的TranslateGemma翻译模型系列,提供4B、12B、27B三种参数规模,支持55种核心语言翻译,并具备多模态图像翻译能力,实现文本与图片文字的无缝翻译。
基于DeepSeek R1和V3模型的浏览器侧边栏AI工具,提供问答、创作、翻译等功能
基于LLM的文章翻译工具,自动翻译并创建多语言Markdown文件。
为Firefox浏览器翻译功能优化的CPU加速神经机器翻译模型。
Hibiki 是一款用于流式语音翻译(即同声传译)的模型,能够实时逐块生成正确翻译。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
128
$2
$20
OpenOranje
TweeTaal-nl-en-0.6B 是一个专门针对荷兰语-英语双向翻译任务进行微调的语言模型,基于Qwen3-0.6B架构开发。该模型在资源受限环境下仍能提供准确流畅的翻译服务,支持荷兰语与英语之间的互译。
tencent
混元OCR是由混元原生多模态架构驱动的端到端OCR专家VLM模型,仅用10亿参数的轻量级设计,在多个行业基准测试中取得最先进成绩。该模型擅长处理复杂的多语言文档解析,在文本定位、开放域信息提取、视频字幕提取和图片翻译等实际应用场景中表现出色。
Foshie
这是一个基于Google mT5-small模型在亚马逊数据集上微调的英西翻译模型,专门用于文本摘要生成任务。模型在评估集上取得了Rouge1: 16.44, Rouge2: 8.04的评分。
ilyasaqit
这是Helsinki-NLP/opus-mt-en-ber模型的微调版本,专门用于英语到阿特拉斯塔马齐格语的翻译。模型基于MarianMT架构,使用48.6万对合成句子对进行训练,支持塔马齐格语、塔什利特语和中阿特拉斯塔马齐格语的翻译任务。
mradermacher
这是yanolja/YanoljaNEXT-Rosetta-27B-2511模型的加权/矩阵量化版本,支持32种语言的翻译任务。提供了多种量化版本,用户可根据需求在模型大小、速度和质量之间进行平衡选择。
这是yanolja/YanoljaNEXT-Rosetta-27B-2511模型的静态量化版本,提供了多种量化类型的权重文件,支持多语言翻译任务。该模型专门针对32种语言进行优化,包括中文、英语、日语、韩语等主要语言。
本项目提供了 `yanolja/YanoljaNEXT-Rosetta-4B-2511` 模型的 GGUF 量化版本。该模型是一个专注于多语言翻译任务的大语言模型,支持包括中文、英语、日语、韩语、法语、德语等在内的 33 种语言。量化版本由 mradermacher 创建,提供了多种不同精度和文件大小的量化选项,便于在资源受限的环境下部署和使用。
yanolja
YanoljaNEXT-Rosetta-27B-2511是基于Gemma3架构微调的270亿参数解码器语言模型,专门为结构化数据翻译设计,能在保留数据结构的同时实现多语言间的高效准确翻译。
thenexthub
这是一个支持多语言处理的多模态模型,涵盖自然语言处理、代码处理、音频处理等多个领域,能够实现自动语音识别、语音摘要、语音翻译、视觉问答等多种任务。
kmonis48
这是一个基于T5-small架构微调的英语到梵语翻译模型,在50轮训练后验证损失达到0.1564,能够高效准确地将英语文本翻译为梵语。
Minibase
这是一个紧凑的西班牙语到英语翻译模型,针对准确性和效率进行了优化。模型大小为386MB,支持4096个令牌的上下文长度,能够高效精准地完成翻译任务,平均响应时间约245ms。
deepseek-ai
变换器库是一个强大的自然语言处理工具库,提供丰富的预训练模型和便捷的使用接口,广泛应用于文本生成、分类、翻译等NLP任务,极大提升开发效率。
Sunbird
Sunflower-32B是由Sunbird AI开发的多语言大语言模型,专门针对乌干达地区语言优化。基于Qwen 3-32B架构构建,支持31种乌干达语言及英语的翻译和文本生成任务,在乌干达语言翻译准确率方面表现优异。
Sunflower-14B是由Sunbird AI开发的多语言大语言模型,专门针对乌干达语言设计。该模型基于Qwen 3-14B架构构建,支持31种乌干达语言以及英语的翻译和文本生成任务,在多项评估中表现出色。
这是一个基于Qwen-7B的梵文翻译和转写模型的量化版本,专门用于梵文与英语之间的翻译以及天城体与IAST转写体之间的转换。通过量化技术减小模型大小,提高推理效率。
openchs
这是一个基于Helsinki-NLP的opus-mt-mul-en模型进行微调的斯瓦希里语-英语翻译模型。该模型专门针对儿童热线服务场景进行了优化训练,采用合成的热线对话数据进行训练,具备防止生成幻觉的机制,并通过早停策略监控BLEU分数来保证翻译质量。
Mungert
Hunyuan-MT-7B是腾讯推出的7B参数翻译模型,支持33种语言的互译,包括5种中国少数民族语言。该模型在WMT25比赛中表现出色,在31个语言类别中的30个类别获得第一名,提出了从预训练到集成优化的完整翻译模型训练框架。
这是慧慧混元MT奇美拉7B消融版模型的量化版本,专门针对翻译任务优化,提供多种量化选项以满足不同硬件需求。模型支持英语,采用GGUF格式,适用于资源受限环境。
这是LiquidAI/LFM2-350M-ENJP-MT模型的静态量化版本,支持英语和日语的双向翻译任务,专为边缘计算场景优化,提供多种量化选项以适应不同硬件需求。
混元翻译模型是由腾讯开发的先进机器翻译系统,包含翻译模型混元-MT-7B和集成模型混元-MT-Chimera。该模型支持33种语言的互译,包括中文、英语、法语等主流语言以及中国的五种少数民族语言,在WMT25竞赛中表现优异。
TranslationX MCP Server是一个基于Python的模型上下文协议服务器,用于支持TranslationX的翻译服务,可通过Cursor集成使用。
Lara Translate MCP Server是一个基于模型上下文协议(MCP)的翻译服务中间件,为AI应用提供与Lara Translate API的桥梁连接。
i18n MCP Server 是一个强大的国际化工具,通过服务器接口利用语言模型自动翻译JSON语言文件,简化多语言项目管理流程。
POEditor MCP服务器是一个用于与POEditor翻译管理API交互的模型上下文协议服务器,提供术语管理、翻译更新和多语言支持功能
MCP-Serve是一个基于MCP协议的多语言翻译服务,提供文本翻译和资源管理功能,支持与AI模型交互扩展能力。
基于大语言模型的多语言本地化翻译工具,支持多种文件格式的智能处理和批量翻译