HeyGen发布新一代视频翻译引擎,通过上下文感知翻译、语音情感迁移和口型同步三大技术,实现跨语言视频本地化。外国演讲者不仅能说地道中文,连语气、表情和唇动都自然逼真,达到“以假乱真”效果,推动“一人拍摄,全球共鸣”。
阿里巴巴达摩院联合魔搭社区ModelScope近期宣布开源一项新的多语言基准测试集P-MMEval,旨在全面评估大型语言模型(LLM)的多语言能力,并进行跨语言迁移能力的比较分析。这一测试集覆盖了基础和专项能力的高效数据集,确保了所有挑选的数据集中多语言覆盖的一致性,并提供了跨多种语言的并行样本,最高支持来自8个不同语族的10种语言,包括英语、中文、阿拉伯语、西班牙语、日语、韩语、泰语、法语、葡萄牙语和越南语。
Openai
$7.7
Input tokens/M
$30.8
Output tokens/M
200
Context Length
Alibaba
$1
$10
256
$2
$20
-
$3.9
$15.2
64
Bytedance
$0.8
$0.15
$1.5
128
Baidu
32
$8
$1.6
$4
$8.75
$70
400
Tencent
24
Xai
Iflytek
8
$3
$9
Google
tartuNLP
Llammas是基于Llama-2-7B模型适配爱沙尼亚语的开源对话模型,通过两阶段训练实现跨语言知识迁移
facebook
X-MOD是基于81种语言的多语言掩码语言模型,采用语言特定模块化组件进行预训练,支持跨语言迁移学习。
benjamin
采用WECHSEL方法训练的GPT-2法语版本,通过子词嵌入的有效初始化实现单语语言模型的跨语言迁移。
使用WECHSEL方法训练的德语RoBERTa模型,通过子词嵌入的有效初始化实现单语语言模型的跨语言迁移。
lwachowiak
基于XLM-RoBERTa微调的多语言模型,用于词汇级隐喻检测,支持零样本跨语言迁移
通过WECHSEL方法训练的RoBERTa中文模型,实现从英文到中文的高效跨语言迁移
采用WECHSEL方法训练的中文GPT-2模型,通过子词嵌入的有效初始化实现单语语言模型的跨语言迁移。
该模型采用WECHSEL方法训练,通过子词嵌入的有效初始化实现单语语言模型的跨语言迁移,特别针对德语优化。
使用WECHSEL方法训练的RoBERTa基础模型,专门针对斯瓦希里语进行优化,实现高效跨语言迁移。
EMBEDDIA
FinEst BERT 是一个基于bert-base架构的三语种模型,专注于芬兰语、爱沙尼亚语和英语的处理,其表现优于多语言BERT模型,同时保留跨语言知识迁移的能力。
KETI-AIR
KE-T5是由韩国电子技术研究院开发的基于T5架构的韩英双语文本生成模型,支持跨语言知识迁移的对话生成任务。