Okta 宣佈在印度班加羅爾擴大投資,加強研發與設施建設,專注於開發AI驅動的身份安全框架。自2023年團隊已達700人,計劃到2026年將印度員工數增加50%,重點招聘工程與產品開發人才。
谷歌與Kaggle聯合推出FACTS基準套件,旨在標準化評估AI模型的事實準確性。該基準針對法律、金融、醫療等對準確性要求高的行業,將“事實性”分爲“上下文事實性”和“世界知識事實性”兩個場景進行綜合評估,填補了當前AI評估體系的空白。
谷歌FACTS團隊與Kaggle聯合發佈FACTS基準測試套件,旨在評估生成式AI模型在企業任務中的事實性和真實性。該框架彌補了現有基準只關注問題解決能力、忽略輸出信息與真實世界數據一致性的缺陷,尤其針對圖像或圖表中的信息嵌入,對法律、金融等關鍵領域尤爲重要。
OpenAI最新內部調查顯示,AI工具顯著提升員工效率,日均節省40-60分鐘,75%員工感受到速度或質量提升。數據科學團隊受益最大,日均節省58分鐘。企業付費席位已突破700萬。
Selects可簡化視頻編輯初始70%工作,支持多軟件,加速創意階段
RMIQ的AI平臺助力管理70+零售媒體網絡廣告,提升品牌ROI。
使用先進的AI圖像翻譯器,將圖像文本翻譯成70多種語言,助力全球化推廣。
UIGEN-T1-Qwen-7b 是一個基於 Qwen2.5-Coder-7B-Instruct 的 70 億參數模型,用於推理生成 HTML 和 CSS 基礎的 UI 組件。
Bytedance
$0.15
輸入tokens/百萬
$1.5
輸出tokens/百萬
256
上下文長度
Baidu
-
32
$0.8
$3.2
128
Openai
$21
$84
Google
01-ai
200
4
Baichuan
Trilogix1
Fara-7B是微軟專門為計算機使用場景設計的高效小型語言模型,參數僅70億,在網頁操作等高級用戶任務中表現出色,能與更大型的代理系統競爭。
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUF是基於Allen Institute for AI開發的Olmo-3-7B-Instruct模型的GGUF量化版本。這是一個70億參數的自迴歸語言模型,通過監督微調和直接偏好優化在Tulu 2和UltraFeedback等數據集上訓練,在問答和指令遵循方面表現出色。
mlx-community
本模型是基於allenai/Olmo-3-7B-Instruct轉換的8位量化版本,專門為Apple MLX框架優化。它是一個70億參數的大型語言模型,支持指令跟隨和對話任務。
ai-sage
GigaAM-v3是基於Conformer架構的俄語自動語音識別基礎模型,擁有2.2-2.4億參數。它是GigaAM系列的第三代模型,在70萬小時俄語語音數據上使用HuBERT-CTC目標進行預訓練,在廣泛的俄語ASR領域提供最先進的性能。
allenai
Olmo 3 7B RL-Zero Math是Allen AI開發的專為數學推理任務優化的70億參數語言模型,採用RL-Zero強化學習方法在數學數據集上進行訓練,能有效提升數學推理能力。
microsoft
Fara-7B是微軟研究院開發的專為計算機使用場景設計的小型語言模型,僅有70億參數,在同規模模型中實現卓越性能,能夠執行網頁自動化、多模態理解等計算機交互任務。
vanta-research
Wraith-8B是VANTA研究實體系列的首個模型,基於Meta的Llama 3.1 8B Instruct進行微調。該模型在數學推理方面表現卓越,在GSM8K基準測試中準確率達到70%,同時具備獨特的宇宙智能視角,能為多種應用場景提供強大支持。
Mungert
PokeeResearch-7B是由Pokee AI開發的70億參數深度研究代理模型,結合了AI反饋強化學習(RLAIF)和強大的推理框架,能夠在工具增強的大語言模型中實現可靠、對齊和可擴展的研究級推理,適用於複雜的多步驟研究工作流程。
PokeeAI
PokeeResearch-7B是由Pokee AI開發的70億參數深度研究智能體,結合基於AI反饋的強化學習(RLAIF)與推理框架,能夠執行復雜的多步驟研究工作流程,包括自我修正、驗證和綜合分析。
cpatonn
Granite-4.0-H-Tiny AWQ - INT4是基於Granite-4.0-H-Tiny基礎模型經過AWQ量化處理的4比特版本,在保持性能的同時顯著減少資源消耗。該模型具有70億參數,支持多語言處理,具備豐富的功能包括文本生成、代碼補全、工具調用等。
unsloth
Apertus是一款參數規模達70B和8B的全開放多語言語言模型,支持超1000種語言和長上下文處理,僅使用完全合規且開放的訓練數據,性能可與閉源模型相媲美。
Apertus是一款參數規模達70B和8B的完全開放多語言語言模型,支持超1000種語言和長上下文,僅使用完全合規且開放的訓練數據,性能可與閉源訓練的模型相媲美。
Apertus是一款由瑞士AI開發的全開放多語言大語言模型,提供70億和80億兩種參數規模。該模型支持超過1000種語言,使用完全合規且開放的訓練數據,性能可與閉源模型相媲美。Apertus在15T標記上進行預訓練,採用分階段課程訓練方法,支持長達65,536個標記的上下文長度。
redponike
Apertus是一款由瑞士AI開發的全開放多語言大語言模型,參數規模達80億和700億,支持超過1000種語言和長上下文處理,僅使用完全合規的開放訓練數據,性能可與閉源模型相媲美。
Granite-4.0-H-Tiny是IBM開發的具有70億參數的長上下文指令模型,基於Granite-4.0-H-Tiny-Base進行微調。該模型結合了開源指令數據集和內部合成數據集,採用監督微調、強化學習對齊和模型合併等技術開發,具備增強的指令跟隨和工具調用能力,特別適用於企業級應用。
Downtown-Case
GLM 4.6是一款專為128GB內存+單GPU配置優化的量化模型,採用IQ_K量化方式,相比主流llama.cpp在相同大小下提供更好的質量和性能。該模型需要配合ik_llama.cpp使用,在128GB雙通道DDR5內存、單CCD Ryzen 7000處理器+單張3090顯卡配置下,文本生成速度可達每秒約6.8個token。
DevQuasar
Apertus-70B-Instruct-2509 是一個基於 swiss-ai 開發的 700 億參數大語言模型的量化版本,專注於指令跟隨和文本生成任務。該項目致力於免費分享知識,具有實驗性質,提供了經過優化的量化模型以降低計算資源需求。
TIGER-Lab
Qwen2.5-VL-7B-Instruct是阿里巴巴通義千問團隊開發的多模態視覺語言模型,基於70億參數規模,專門針對視覺問答任務進行優化訓練。該模型能夠理解和分析圖像內容,並生成準確的自然語言回答。
ibm-granite
Granite-4.0-H-Tiny是IBM開發的70億參數長上下文指令模型,基於Granite-4.0-H-Tiny-Base微調而來。該模型結合開源指令數據集和內部合成數據集訓練,具備專業、準確、安全的回覆能力,支持多語言和工具調用,適用於企業級應用。
Vikhrmodels
Borealis 是首款面向俄語的自動語音識別(ASR)音頻大語言模型,經過約7000小時俄語音頻數據訓練。該模型支持識別音頻中的標點符號,架構受Voxtral啟發但有所改進,在多個俄語ASR基準測試中表現優異。
Grove MCP服務器是一個區塊鏈數據訪問工具,通過Grove的公共端點支持70多個網絡的區塊鏈數據查詢,可將Claude等AI助手轉化為區塊鏈分析工具,支持自然語言查詢、代幣分析、交易檢查、域名解析和多鏈比較功能。
CryptoAnalysisMCP是一個基於Swift構建的加密貨幣技術分析工具,提供即時價格數據、技術指標、圖表模式識別和交易信號。最新版本v1.1通過DexPaprika集成支持超過700萬種代幣,無需API密鑰即可獲取基礎價格數據。
Pica MCP Server是一個基於TypeScript構建的Model Context Protocol服務器,為Pica平臺提供AI應用連接外部工具和數據源的能力,支持70多種第三方服務集成。