埃隆·馬斯克否認xAI完成150億美元融資的傳聞。此前CNBC報道稱,xAI正融資採購GPU算力訓練Grok模型,估值或達2000億美元。在AI融資熱潮下,此消息引發關注,對比OpenAI近期融資66億美元、估值5000億美元。
AI數據分析公司WisdomAI完成5000萬美元A輪融資,由Kleiner Perkins領投,NVentures跟投。創始人表示資金將用於技術研發和市場拓展。公司專注於從各類數據中提取商業洞察。
韓國本土AI聊天工具“zeta”在10月使用時長達7362萬小時,超越ChatGPT成爲韓國最受歡迎應用。調查覆蓋超5000萬用戶,顯示本土產品在市場競爭中表現強勁。
人工智能初創公司Inception重獲新生,完成5000萬美元融資,由Menlo Ventures領投,微軟M12、英偉達等參投。公司創始人Mustafa Suleyman曾於2024年將公司售予微軟,如今再度復活。Inception正押注新型擴散語言模型(dLLM),該架構區別於傳統自迴歸大模型(LLM),有望帶來技術突破。
提供超過 5000 本書籍的摘要與分析。
提供 5000 多本書的摘要與分析,快速獲取重要信息。
提供超過5000本書籍的摘要和分析,適合快速閱讀。
Stargate項目旨在未來四年投資5000億美元建設新的AI基礎設施。
baidu
$2
輸入tokens/百萬
$8
輸出tokens/百萬
32k
上下文長度
mldi-lab
Kairos-50M是一個擁有5000萬參數的時間序列基礎模型,專門用於跨不同領域的零樣本預測。它採用自適應分詞和位置編碼技術,能夠處理具有不同信息密度的異構時間序列數據,無需微調即可在不同領域實現強大的泛化能力。
Piero2411
這是一個基於YOLOv8s架構的專門用於條形碼和QR碼檢測的計算機視覺模型。該模型在包含5000多張圖像的綜合數據集上進行了微調,支持多種條形碼類型(如EAN13、Code128等)和QR碼的精確檢測與分類。
Phonepadith
這是一個專門針對老撾語優化的摘要生成模型,基於Google Gemma-3-4B-Instruct模型微調,使用超過5000個高質量老撾語輸入-輸出對進行訓練,主要聚焦人工智能與數字內容(AIDC)主題。
Arsh-ai
Arsh-llm 是一個基於Llama架構的5000萬參數語言模型,擅長生成創意故事、連貫文本和實用代碼。
Misha24-10
基於F5-TTS微調的俄語語音合成模型,支持重音標記功能,訓練時長超過5000小時。
TuKoResearch
AuriStream-1B是一個受生物啟發的GPT風格自迴歸Transformer模型,專門用於在長語音上下文中預測耳蝸標記。該模型使用約20秒(4096個標記)的長上下文窗口,在LibriLight數據集(約60000小時)上訓練了約500000步,能夠學習豐富的時間對齊表示並生成語音續寫。
facebook
XGLM-564M 是一個多語言自迴歸語言模型,包含5.64億參數,基於30種語言的平衡語料庫訓練,總計5000億子詞。
01-ai
Yi-1.5是Yi模型的升級版本,在Yi基礎上使用5000億token的高質量語料進行持續預訓練,並在300萬個多樣化微調樣本上進行微調。相比Yi,在編碼、數學、推理和指令遵循能力方面表現更出色,同時在語言理解、常識推理和閱讀理解方面保持卓越能力。
AntibodyGeneration
基於ProGen2架構的治療性抗體生成模型,在2.8億條蛋白質序列上預訓練,並通過5000個抗體-抗原結構微調
pandalla
本模型專用於從電商評論中提取關鍵詞與核心觀點,基於5000條淘寶評論訓練。
Darna
該模型是基於DeTr架構在5000張表格檢測圖像上預訓練後,再針對特定表格檢測任務進行微調的版本
clu-ling
基於OpenAI的whisper-large-v2模型在日語CommonVoice數據集上微調的語音識別模型,訓練5000步,詞錯誤率0.7449
TopdeckingLands
基於5000張萬智牌卡牌藝術作品訓練的文本生成圖像模型,可生成具有萬智牌特色的藝術圖像
XGLM-1.7B是一個多語言自迴歸語言模型,擁有17億參數,基於5000億子詞標記的多樣化語言平衡語料庫訓練而成。
XGLM-2.9B是一個多語言自迴歸語言模型,擁有29億參數,基於5000億子詞的多樣化語言平衡語料庫訓練而成。
XGLM-7.5B是一個具有75億參數的多語言自迴歸語言模型,支持30+種語言,基於5000億子詞標記的多樣化語料庫訓練而成。