Mistral AI推出Voxtral系列模型,整合文本與音頻處理能力。該系列包括Voxtral-Mini-3B-2507和Voxtral-Small-24B-2507兩款。前者爲3億參數模型,適合快速音頻轉錄和基礎多模態理解;後者擁有240億參數,支持複雜音頻文本智能和多語言處理,適用於企業級應用。兩款模型均支持30至40分鐘音頻上下文處理。
華納兄弟探索公司爲提升個性化內容體驗,採用AWS Graviton處理器和Amazon SageMaker AI實例優化AI/ML推理基礎設施,實現顯著成本節約與性能提升。作爲全球領先媒體娛樂企業,其內容覆蓋電視、電影及流媒體領域。
亞馬遜雲科技(AWS)推出"模型超市"Amazon Bedrock平臺,打破AI行業"最強模型"競爭模式,倡導"選擇大於一切"戰略。該平臺整合OpenAI、Anthropic等多家AI模型,企業可根據需求自由組合不同模型,實現"1+1>2"效果。AWS通過Bedrock和SageMaker兩大平臺構建全球最大AI模型聚合平臺,推動生成式AI應用發展,幫助企業選擇最適合而非最強性能的解決方案,適應快速變化的商業環境。
AWS對SageMaker平臺進行重大升級,新增模型可觀察性功能和本地IDE連接能力。升級後的SageMaker HyperPod可監控模型訓練各環節性能,並支持本地開發環境無縫對接雲端。平臺還優化了GPU集羣管理,實現訓練與推理任務的資源靈活調度。AWS通過持續完善AI基礎設施,強化其在企業級AI市場的競爭力。
通過完全託管的基礎設施、工具和工作流程構建、訓練和部署機器學習模型
簡化機器學習模型的訓練和部署
GHonem
該模型是基於Salesforce的BLIP圖像描述生成基礎模型在SageMaker平臺上微調的版本,主要用於圖像描述生成任務。
philschmid
基於BART-base架構的對話摘要模型,使用Amazon SageMaker和Hugging Face深度學習容器訓練,適用於SAMSum數據集。
基於SAMSum數據集微調的輕量級對話摘要模型,使用亞馬遜SageMaker和Hugging Face容器訓練
jpabbuehl
基於DistilBERT的文本情感分類模型,在emotion數據集上微調,準確率達92.9%
marcelcastrobr
基於DistilBERT-base-uncased微調的情感分類模型,在情感數據集上取得92.8%的準確率
anindabitm
基於DistilBERT的情感分析模型,在情感數據集上微調,準確率達91.65%
masapasa
基於DistilBERT的情感分類模型,在情感數據集上微調,準確率達91.5%
Jorgeutd
基於RoBERTa-base架構微調的多類別文本分類模型,專為情緒檢測任務設計,在emotion數據集上驗證準確率達94.1%。