OpenAI最新內部調查顯示,AI工具顯著提升員工效率,日均節省40-60分鐘,75%員工感受到速度或質量提升。數據科學團隊受益最大,日均節省58分鐘。企業付費席位已突破700萬。
國際能源署報告顯示,2023年全球數據中心投資達5800億美元,首次超過石油勘探支出(5400億美元)。這凸顯經濟結構轉變,尤其在生成式AI可能加劇氣候變化的背景下,數據中心與石油產業對比引人關注。
騰訊2025年第三季度財報顯示,總收入1928.7億元,同比增長15%。ToB業務表現突出,營收582億元,增長10%。AI技術需求推動雲服務和微信小店技術服務成爲增長關鍵。混元大模型在權威榜單中保持領先,彰顯騰訊AI戰略成效。
字節跳動發佈InfinityStar框架,視頻生成效率大幅提升,5秒720p視頻僅需58秒。該框架統一支持圖像生成、文本生成視頻、視頻續寫等多種視覺任務,基於對視頻數據本質的深入理解,採用創新的時空分離設計,突破傳統3D數據塊處理方式。
nomic-ai
Nomic Embed Multimodal 3B是一款頂尖的多模態嵌入模型,專注於視覺文檔檢索任務,支持統一文本-圖像編碼,在Vidore-v2測試中達到58.8 NDCG@5的卓越性能。
blueapple8259
該模型基於bigcode/starcoderdata數據集中的58個Python文件中的4個進行訓練,主要用於代碼相關任務。
Krithika-p
基於facebook/wav2vec2-base微調的音頻分類模型,在評估集上達到58.92%的準確率
timinar
小駱駝模型是一個5800萬參數的語言模型,由LLaMA和GPT2蒸餾而來,專為小語言模型挑戰賽設計。
nlpai-lab
KULLM-Polyglot-5.8B-v2是基於EleutherAI/polyglot-ko-5.8b在KULLM v2數據集上進行參數高效微調的大語言模型版本,專門針對韓語自然語言處理任務進行了優化,具有58億參數規模。
MuhammadIqbalBazmi
該模型是基於facebook/wav2vec2-conformer-rel-pos-large-960h-ft微調的語音意圖分類模型,在評估集上準確率達到58.33%。
EleutherAI
Polyglot-Ko-5.8B是由EleutherAI多語言團隊開發的大規模韓語自迴歸語言模型,具有58億參數,在863GB韓語數據上訓練而成。
cointegrated
基於google/mt5-base的精簡版本,專為俄語和英語優化,參數量減少58%
一個提供韓妝(K-Beauty)信息的MCP服務器,支持即時搜索、品牌數據庫、成分分析和AI皮膚照片分析,包含58+品牌和個性化護膚推薦。