Broadcom获Anthropic价值210亿美元AI芯片订单,其中100亿美元已确认,110亿美元预计2026年底交付。公司AI产品总订单额达730亿美元。
IBM以110亿美元收购数据流处理公司Confluent,每股31美元。Confluent基于Apache Kafka平台,助力企业实时处理数据。此举凸显科技巨头在强化AI数据基础设施方面的竞争加剧。IBM CEO克里希纳称,这是构建智能数据平台的重要一步。
上海交通大学无锡光子芯片研究院推出全球首个光子芯片全链路专业大模型LightSeek。该模型基于千亿参数多模态架构,结合自建110nm中试线真实工艺数据,将芯片研发周期从6-8个月缩短至1个月,效率提升7倍,标志着光子芯片进入AI垂直模型时代。
IBM以110亿美元现金收购数据基础设施公司Confluent,旨在增强云端数据管理和AI能力。这是IBM近年最大并购之一,顺应企业数字化转型和AI部署趋势。收购价每股31美元,较前一周收盘价溢价约50%。Confluent平台帮助企业实时管理数据流。
MuLan:为110多种语言适配多语言扩散模型
使用AI技术在110秒内验证创业想法。
Qwen1.5系列首个千亿参数开源模型,多语言支持,高效Transformer解码器架构。
智能对话助手,高效沟通新体验
Xai
$1.4
输入tokens/百万
$3.5
输出tokens/百万
2k
上下文长度
Google
$0.7
$2.8
1k
Alibaba
$2
-
256
$3.9
$15.2
64
Bytedance
$0.15
$1.5
Baidu
32
$10.5
Tencent
Openai
$0.4
128
$0.75
$0.63
$3.15
131
$1
$4
Chatglm
$8
$16
mamei16
Chonky 是基于 DistilBERT 的多语言段落分割模型,在 3400 多万篇维基百科文章的近 110 亿个标记上微调训练而成,能够将任意自然语言文本分割成语义块,支持 104 种语言。
rasyosef
这是一个基于BERT-Mini(1100万参数)的SPLADE稀疏检索模型,通过在MSMARCO数据集上对交叉编码器进行知识蒸馏训练得到。该模型比官方splade-v3-distilbert小6倍,但能达到其85%的性能,可在CPU上处理数千个文档。
UW
110亿参数大语言模型,采用创新的SuperBPE分词器训练,支持超词单元识别和子词分词能力。
IPEC-COMMUNITY
SpatialVLA是基于110万真实机器人操作片段训练的空间增强视觉语言动作模型,专注于机器人控制任务
speakleash
Bielik-11B-v2.3-Instruct 是一款拥有110亿参数的生成式文本模型,专为波兰语设计,由SpeakLeash与ACK Cyfronet AGH合作开发。
Bielik-11B-v2.2-Instruct是一个拥有110亿参数的波兰语生成式文本模型,是SpeakLeash与ACK Cyfronet AGH合作的成果。该模型基于精选的波兰语文本语料库开发,经过指令微调优化,在波兰语处理方面表现出色,同时在英语任务上也有显著提升。
Bielik-11B-v2 是一个拥有110亿参数的生成式文本模型,专为波兰语文本开发训练,基于Mistral-7B-v0.2初始化,训练了4000亿个token。
yam-peleg
Hebrew-Gemma-11B-V2 是一个开源的希伯来语/英语预训练生成文本大语言模型,拥有110亿参数,基于Google的Gemma-7B架构。
基于谷歌Gemma-7B架构的开源大语言模型,专为希伯来语/英语生成文本预训练,拥有110亿参数。
IDEA-CCNL
基于LLaMa架构的130亿参数大规模预训练模型,针对中文分词进行优化,完成1100亿token的中英文增量预训练,显著提升中文生成与理解能力
facebook
Facebook大规模多语言语音项目中的自动语音识别模型,支持1107种语言,基于Wav2Vec2架构并利用适配器技术实现多语言转录。
二郎神 - Roberta - 110M - NLI 是基于中文RoBERTa-wwm-ext-base在多个自然语言推理数据集上微调得到的模型,专门用于中文自然语言理解任务,在多个NLI基准测试中表现优异。
bigscience
T0pp是基于T5架构的110亿参数编码器-解码器模型,在英语自然语言提示的零样本任务泛化上表现优异,超越GPT-3且体积更小。
google-t5
T5-11B是谷歌开发的文本到文本转换Transformer模型,具有110亿参数,支持多种NLP任务。