斯坦福大学《2026年AI指数报告》显示,全球AI技术进入全面普及期,中美顶尖技术差距降至历史最低。美国在顶级模型、高影响力专利及数据中心数量上保持优势,但中国已在多项核心指标上实现追赶,形成从“一枝独秀”到“交替领先”的竞争格局。
斯坦福大学团队在《自然·医学》发表研究,推出开源AI模型SleepFM。该模型通过分析一晚睡眠监测数据(整合脑电、心电、呼吸等深度生理信号),可预测未来6年健康状况与死亡风险。研究基于25年、6.5万人的临床数据训练,突破了传统智能手表的简单监测功能。
卡内基梅隆大学与斯坦福大学联合研究发现,当前AI智能体发展存在“路径依赖”问题。研究分析主流AI基准中的7.2万个任务,发现测评过度集中于编程领域,却忽视了占美国劳动力92%的非编程职业。这种失衡可能导致AI技术发展偏离实际应用需求。
2025年AI编程领域迎来爆发式增长,从代码补全进化到多代理协作系统,AI已成为能独立处理复杂任务的“智能伙伴”。斯坦福大学报告显示,AI在软件工程基准测试SWE-bench上的得分一年内大幅提升67.3个百分点,达到71.7%,标志着AI编程能力实现重大突破。
斯坦福大学的CS25课程,专注于深度学习模型Transformers
分析你与前任的聊天记录,了解你们的关系
StanfordAIMI
AIMI基础模型集是斯坦福大学AIMI团队开发的放射学领域基础模型合集,专注于医学影像分析任务。
tatsu-lab
Alpaca-7B是由斯坦福大学基于Meta的LLaMA-7B模型微调得到的大语言模型,通过指令微调实现更好的对话和任务执行能力。
chavinlo
斯坦福大学tatsu团队复刻的阿尔帕卡模型,这是一个基于LLaMA-7B进行指令微调的大语言模型。模型在4张A100显卡上训练了6小时,由redmond.ai捐赠算力,未使用LoRA技术,采用原生微调方式。
hfl
中文ELECTRA是由哈工大-讯飞联合实验室(HFL)基于谷歌与斯坦福大学发布的ELECTRA模型开发的中文预训练模型,具有参数量小、性能高的特点。