初創公司Luminal完成530萬美元種子輪融資,由Felicis Ventures領投,多位知名投資人蔘與。公司由前英特爾芯片設計師聯合創立,專注於優化計算資源,提升基礎設施效率,解決軟件易用性對開發者的制約問題。
日本軟銀集團擬以53.75億美元收購ABB集團機器人業務,預計2026年完成。ABB機器人部門現有員工約7000人,主營揀選、清潔等工業機器人,2024年收入23億美元,佔ABB總收入的7%。交易尚待監管審批。
2025人工智能產業大會發布數據顯示,預計2024年中國AI產業規模超9000億元,同比增長24%。截至2025年9月,國內AI企業將超5300家,佔全球市場15%,展現我國人工智能領域快速發展態勢。
Superpanel創始人Julien Emery基於家庭與法律系統打交道的痛苦經歷,創建了幫助律所無縫接納新客戶的平臺。作爲加拿大人,他深感法律服務獲取困難且昂貴,尤其是母親車禍後的遭遇更堅定了其創業決心。該平臺旨在解決行業痛點,提升客戶體驗。
覆蓋534種語言的大型語言模型
mistral
$0.72
輸入tokens/百萬
$2.16
輸出tokens/百萬
256k
上下文長度
pytorch
這是由PyTorch團隊使用torchao進行量化的Qwen3-8B模型,採用int4僅權重量化和AWQ算法。該模型在H100 GPU上可減少53%顯存使用並實現1.34倍加速,專門針對mmlu_abstract_algebra任務進行了校準優化。
jet-ai
Jet-Nemotron-4B是NVIDIA推出的高效混合架構語言模型,基於後神經架構搜索和JetBlock線性注意力模塊兩大核心創新構建,在性能上超越了Qwen3、Qwen2.5、Gemma3和Llama3.2等開源模型,同時在H100 GPU上實現了最高53.6倍的生成吞吐量加速。
Jet-Nemotron是一個新型混合架構語言模型家族,超越了Qwen3、Qwen2.5、Gemma3和Llama3.2等最先進的開源全注意力語言模型,同時實現了顯著的效率提升——在H100 GPU上生成吞吐量最高可達53.6倍加速。
SEOKDONG
基於LlaMA3.2 1B模型通過SFT方式微調的韓語語言模型,使用53個領域的韓語數據進行訓練,能夠理解韓國社會價值和文化,支持文本生成、問答等多種自然語言處理任務。
基於LlaMA3.1微調的韓語大語言模型,適配韓國文化,支持53個領域的韓語任務
PekingU
RT-DETR是首個即時端到端目標檢測器,通過高效混合編碼器和不確定性最小化查詢選擇機制,在COCO數據集上達到53.1% AP,108 FPS的性能。
learningdude
基於facebook/wav2vec2-base微調的語音處理模型,在評估集上準確率達53.57%
emre
該模型是基於facebook/wav2vec2-large-xlsr-53在Common Voice 8數據集上微調的韃靼語(Tatar)自動語音識別模型,測試集WER為53.16%。
echarlaix
這是一個經過剪枝優化的BART-base模型,專為摘要生成任務設計,保留了原始模型53%的權重。
vneralla
XLSR-Wav2Vec2是一個多語言語音識別模型,通過跨語言預訓練學習共享語音表徵,支持53種語言。