谷歌研究团队推出Vantage方法,利用大语言模型模拟真实团队互动,旨在测量传统测试难以评估的协作、创造力和批判性思维等“持久技能”,弥补教育领域长期缺乏有效评估工具的不足。
Anthropic与冰岛合作,将在全国学校引入Claude大语言模型,助力教师课程准备与教学。该计划覆盖城乡,旨在探索AI教育应用,或成全球范例。
网易有道宣布自2025年8月28日起免费开放文档翻译功能,支持八种语言互译,特别优化金融、计算机、医学等专业领域翻译。核心亮点是搭载自研“子曰”教育大模型,大幅提升翻译质量和效率。
AI崛起正颠覆传统教育模式。奥克兰大学教授多德指出,大型语言模型使知识获取门槛降低,大学"知识稀缺"优势被削弱,基础岗位需求减少1/3。但隐性知识(创造力、伦理判断等)仍是AI无法替代的核心竞争力。他建议大学转型为"判断力中心":改革评估体系、强化实践教学、推出技能微证书、深化校企合作,重点培养学生与AI协同的复合能力。教育的未来在于培养人类独特优势,而非与AI竞争知识储备。
可从文本或图像30秒生成动画教育视频,支持多语言答疑
AI辅助的英语学习和日语学习APP
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
Anthropic
$105
$525
200
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
Baidu
-
128
$2
$20
$8
$240
52
Bytedance
$1.2
$3.6
4
Clemylia
Qsana-coder-base 是一个小型语言模型(SLM),专门为编码基础(Python、伪代码)的概念创意而设计。它不生成可执行的生产代码,而是为教育和快速原型设计场景生成编码逻辑片段,主要目标是激发初学者的逻辑思维和概念理解。
mradermacher
这是 vanta-research/atom-v1-preview-12b 模型的量化版本,提供多种量化类型选择,适用于对话、协作、教育等多种场景。该模型基于 Gemma 架构,支持英语语言处理。
allenai
Olmo-3-7B-Think-DPO是Allen Institute for AI开发的7B参数语言模型,具有长链式思考能力,在数学和编码等推理任务中表现出色。该模型经过监督微调、直接偏好优化和基于可验证奖励的强化学习等多阶段训练,专为研究和教育用途设计。
adityak74
MEDFIT-LLM-3B是一个专门针对医疗问答优化的语言模型,基于Meta的Llama-3.2-3B-Instruct进行微调。该模型通过LoRA技术在医疗数据集上训练,显著提升了医学领域理解和直接回答能力,适用于医疗聊天机器人、患者教育等应用场景。
faresfawzi
ToolACE-2-8B-SCRIBE是一个专为交互式教育反馈设计的微调大语言模型,基于SCRIBE框架构建,具备多跳工具调用和自我反思能力,能够为学生问题提供符合教学法的解释,适合在低资源、对隐私敏感的教育场景中使用。
manuelcaccone
Gemma-3 ActuaryEnough2是一款专为精算领域打造的AI模型,基于超过11,000个精算问答对进行微调训练,能够将简单的保险问题转化为严谨的精算专业语言。该模型为ActuaryEnough提供支持,以开源形式发布供教育和研究使用。
metehanayhan
基于Meta LLaMA 3.1 8B大语言模型微调的土耳其语教育问答聊天机器人,专为土耳其语教育场景优化。
oscarstories
LORA是Mistral Small 24B Instruct模型的微调版本,针对教育场景下的儿童友好型语言生成进行了优化,专注于为6至12岁的儿童提供安全、适龄且引人入胜的故事讲述服务。
summerstars
SolaraV2是原始Solara模型的升级版,它是一个轻量级、经过指令微调的语言模型,由高中生开发,适用于日常对话和教育任务。
OLMo 2 1B RLVR 1 April 2025是基于allenai/OLMo-2-0425-1B-DPO模型的后训练变体,在多种特定数据集上进行了微调训练。该模型在数学推理、代码生成、指令跟随等多个任务中展现出了较好的性能,是一个专为研究和教育目的设计的1B参数规模的大语言模型。
drwlf
Medra是一款专为临床推理、教育和对话建模设计的轻量级医学语言模型,基于Gemma 3构建,适合本地部署和实时运行。
Medra是一款专为临床推理、教育和对话建模设计的轻量级医学语言模型,基于Gemma 3构建,适用于本地和移动端环境。
openGPT-X
Teuken 7B-base-v0.6是一个拥有70亿参数的多语言大语言模型,在OpenGPT-X研究项目中基于6万亿个标记进行了预训练。该模型专为欧盟24种官方语言的私有、非商业、研究和教育用途设计,能在多语言环境中提供稳定的性能。
CogBase-USTC
基于Qwen2.5-Math-7B-Instruct微调的教育导向大语言模型,支持苏格拉底式引导和数学问题求解
kenhktsui
这是一个基于fasttext构建的教育价值分类器,用于判断网络文本是否具有较高的教育价值,适用于大语言模型(LLM)预训练数据筛选。
ai4stem-uga
G-SciEdBERT是一个专门针对德语科学教育任务设计的语境化大语言模型,用于自动评分德语科学书面回答。
TheBloke
Merlyn Education Safety 12B 是一个专注于教育领域安全内容生成的大型语言模型,由 Merlyn Mind 开发。
SciPhi
基于Mistral-7B-v0.1微调的大型语言模型,专注于提升科学推理与教育能力
HuggingFaceH4
基于StarCoder微调的编程助手语言模型,160亿参数规模,支持英语,适用于教育研究领域
ckip-joint
支持繁体中文增强的BLOOM语言模型,由联发科研究院、中央研究院和国家教育研究院合作开发
TitanicAIAnalysis是一个教育项目,展示如何通过MCP协议创建服务器,将泰坦尼克号数据集暴露给Claude等语言模型进行分析。项目包含数据资源和工具,支持复杂查询和统计分析。
MCP Server and Tools 是一个基于大型语言模型(LLM)的代理和复杂工作流构建项目,通过Educhain库实现与实时数据和工具的集成,支持生成教育内容如选择题、教案和闪卡。