Broadcom獲Anthropic價值210億美元AI芯片訂單,其中100億美元已確認,110億美元預計2026年底交付。公司AI產品總訂單額達730億美元。
IBM以110億美元收購數據流處理公司Confluent,每股31美元。Confluent基於Apache Kafka平臺,助力企業實時處理數據。此舉凸顯科技巨頭在強化AI數據基礎設施方面的競爭加劇。IBM CEO克里希納稱,這是構建智能數據平臺的重要一步。
上海交通大學無錫光子芯片研究院推出全球首個光子芯片全鏈路專業大模型LightSeek。該模型基於千億參數多模態架構,結合自建110nm中試線真實工藝數據,將芯片研發週期從6-8個月縮短至1個月,效率提升7倍,標誌着光子芯片進入AI垂直模型時代。
IBM以110億美元現金收購數據基礎設施公司Confluent,旨在增強雲端數據管理和AI能力。這是IBM近年最大併購之一,順應企業數字化轉型和AI部署趨勢。收購價每股31美元,較前一週收盤價溢價約50%。Confluent平臺幫助企業實時管理數據流。
MuLan:為110多種語言適配多語言擴散模型
使用AI技術在110秒內驗證創業想法。
Qwen1.5系列首個千億參數開源模型,多語言支持,高效Transformer解碼器架構。
智能對話助手,高效溝通新體驗
Xai
$1.4
輸入tokens/百萬
$3.5
輸出tokens/百萬
2k
上下文長度
Google
$0.7
$2.8
1k
Alibaba
$2
-
256
$3.9
$15.2
64
Bytedance
$0.15
$1.5
Baidu
32
$10.5
Tencent
Openai
$0.4
128
$0.75
$0.63
$3.15
131
$1
$4
Chatglm
$8
$16
mamei16
Chonky 是基於 DistilBERT 的多語言段落分割模型,在 3400 多萬篇維基百科文章的近 110 億個標記上微調訓練而成,能夠將任意自然語言文本分割成語義塊,支持 104 種語言。
rasyosef
這是一個基於BERT-Mini(1100萬參數)的SPLADE稀疏檢索模型,通過在MSMARCO數據集上對交叉編碼器進行知識蒸餾訓練得到。該模型比官方splade-v3-distilbert小6倍,但能達到其85%的性能,可在CPU上處理數千個文檔。
UW
110億參數大語言模型,採用創新的SuperBPE分詞器訓練,支持超詞單元識別和子詞分詞能力。
IPEC-COMMUNITY
SpatialVLA是基於110萬真實機器人操作片段訓練的空間增強視覺語言動作模型,專注於機器人控制任務
speakleash
Bielik-11B-v2.3-Instruct 是一款擁有110億參數的生成式文本模型,專為波蘭語設計,由SpeakLeash與ACK Cyfronet AGH合作開發。
Bielik-11B-v2.2-Instruct是一個擁有110億參數的波蘭語生成式文本模型,是SpeakLeash與ACK Cyfronet AGH合作的成果。該模型基於精選的波蘭語文本語料庫開發,經過指令微調優化,在波蘭語處理方面表現出色,同時在英語任務上也有顯著提升。
Bielik-11B-v2 是一個擁有110億參數的生成式文本模型,專為波蘭語文本開發訓練,基於Mistral-7B-v0.2初始化,訓練了4000億個token。
yam-peleg
Hebrew-Gemma-11B-V2 是一個開源的希伯來語/英語預訓練生成文本大語言模型,擁有110億參數,基於Google的Gemma-7B架構。
基於谷歌Gemma-7B架構的開源大語言模型,專為希伯來語/英語生成文本預訓練,擁有110億參數。
IDEA-CCNL
基於LLaMa架構的130億參數大規模預訓練模型,針對中文分詞進行優化,完成1100億token的中英文增量預訓練,顯著提升中文生成與理解能力
facebook
Facebook大規模多語言語音項目中的自動語音識別模型,支持1107種語言,基於Wav2Vec2架構並利用適配器技術實現多語言轉錄。
二郎神 - Roberta - 110M - NLI 是基於中文RoBERTa-wwm-ext-base在多個自然語言推理數據集上微調得到的模型,專門用於中文自然語言理解任務,在多個NLI基準測試中表現優異。
bigscience
T0pp是基於T5架構的110億參數編碼器-解碼器模型,在英語自然語言提示的零樣本任務泛化上表現優異,超越GPT-3且體積更小。
google-t5
T5-11B是谷歌開發的文本到文本轉換Transformer模型,具有110億參數,支持多種NLP任務。