東北大學“小牛翻譯”團隊開源NiuTrans.LMT大模型,實現60種語言、234個翻譯方向全覆蓋。以中英雙核心構建語言橋樑,在藏語等29種低資源語言上取得突破,打破傳統英語霸權,推動全球語言平等。
清華大學等高校聯合推出MotionTrans框架,實現機器人僅通過觀察人類動作就能學習新技能,無需示範。這突破了傳統依賴大量演示數據的高成本訓練方式,顯著提升機器人學習效率。
小米與北京大學聯合在arXiv發佈學術論文,通訊作者羅福莉曾因雷軍千萬年薪招募受關注。但論文作者名單未顯示她隸屬小米大模型團隊。羅福莉爲1995年出生,本科畢業於北師大計算機專業,現於北大計算語言學研究所。
清華大學等機構聯合發佈UltraRAG2.0,這是首個基於MCP架構的RAG框架,旨在簡化系統構建流程。通過編寫YAML文件即可聲明覆雜邏輯(如串行、循環和條件分支),顯著降低開發難度,幫助科研人員快速實現多階段推理系統。
Mungert
FairyR1-32B是由北大DS-LAB開發的高效大語言模型,基於DeepSeek-R1-Distill-Qwen-32B,通過'蒸餾-融合'創新流程實現高性能與低成本推理的平衡。
openbmb
MiniCPM-重排序器是由面壁智能與清華大學自然語言處理實驗室、東北大學信息檢索小組聯合研發的中英雙語文本重排序模型,具備卓越的中英文及跨語言重排序能力。
Yokohide031
這是將東北大學的BERT large Japanese模型轉換為可在Rust中使用的格式的版本
該項目是一個基於MCP協議的服務器,提供東北大學活動日曆的訪問功能,支持查詢、搜索和篩選校園活動。