京東開源大模型JoyAI-LLM-Flash,參數48億,激活參數3億,經20萬億文本預訓練,具備前沿知識理解、推理和編程能力。採用FiberPO優化框架,結合纖維叢理論與強化學習,使用Muon優化器和稠密多Token預測技術,解決了模型規模擴展的不穩定問題。
英偉達CEO黃仁勳在達沃斯論壇上表示,過去一年AI模型層取得三大突破:一是代理式AI的崛起,模型具備複雜推理與計劃能力;二是開源模型生態繁榮,如DeepSeek等降低了技術門檻;三是多模態AI的快速發展,推動AI應用更廣泛落地。
上海市網信辦推動生成式AI創新與規範,依據相關管理辦法,有序開展服務備案。對於通過API等方式調用已備案模型、提供具有輿論屬性或社會動員能力的服務,相關部門也進行登記。目前,上海市新增9款完成登記的生成式人工智能服務。
大語言模型在數學幾何題上表現不佳。GPT-4.1和Gemini-2.5-Pro雖在寫作、編程領域優秀,但面對需畫輔助線或函數圖像的題目時頻繁出錯。根源在於模型擅長文本推理,卻缺乏幾何空間想象能力,無法精準腦中構圖,導致錯誤結論。
Openai
$7.7
輸入tokens/百萬
$30.8
輸出tokens/百萬
200
上下文長度
Baidu
-
128
Bytedance
$0.8
$2
Deepseek
$4
$12
Tencent
$1
32
Alibaba
$54
$163
1k
$1.6
$0.4
$15
Iflytek
$16
$3.5
Xai
8
$0.75
64
$0.5
224
Google
$8.75
$70
LLM360
Guru-7B是基於Qwen2.5-7B的強化學習推理模型,在論文《Revisiting Reinforcement Learning for LLM Reasoning from A Cross-Domain Perspective》中提出。該模型在數學、代碼、科學、邏輯推理等多個領域展現出卓越的推理能力,在多項基準測試中表現優異。
cyberandy
SEOcrate是一個開源概念驗證模型,通過本體論引導的強化學習增強Gemma 3在SEO領域的推理能力。
UCSC-VLAA
VLAA-Thinker是一個創新的視覺語言模型,能夠同時處理圖像和文本輸入,並生成高質量的文本輸出。該模型基於論文《SFT or RL? An Early Investigation into Training R1-Like Reasoning Large Vision-Language Models》的研究成果開發,專注於類似R1的推理能力。
Can111
M1-32B是基於Qwen2.5-32B-Instruct微調的320億參數大語言模型,專為提升多智能體系統中的推理、討論和決策能力而優化。
本分析報告總結了2025年3月19日在X平臺上討論的最有趣的MCP(模型上下文協議)服務器,重點關注了它們在AI驅動工作流程中的實用性。報告通過X平臺的討論和博客文章,識別了最受歡迎和推薦的MCP服務器,包括Reddit、Notion、Google Sheets、Gmail和Discord等,這些服務器因其自動化能力和易用性而受到青睞。此外,還提到了SendAI Kit和Dolphin-MCP等具有特定功能的服務器,以及Anthropic提供的預構建服務器。
Sequential Thinking Ultra是一個基於MCP協議的高級順序思維服務器,集成了Ultra Think方法論,提供結構化的問題解決能力。核心功能包括分步處理、質量驗證、偏差檢測和資源管理,支持自動查詢重寫和元推理檢查點,適用於複雜問題的逐步分析和優化決策。