OpenAI心理健康安全研究负责人安德莉亚·瓦隆内离职,加入竞争对手Anthropic的对齐团队,向此前离职的Jan Leike汇报。她曾主导GPT-4和GPT-5模型安全政策,其研究领域涉及AI情感依赖等争议问题。
AI聊天机器人深度介入人类情感生活,应对用户心理危机成为行业紧迫的伦理挑战。近日,原OpenAI模型政策负责人安德莉亚·瓦隆内离职,追随前上司加入竞争对手Anthropic。她在OpenAI期间负责GPT-4及下一代推理模型的安全政策,其离职凸显了AI情感交互领域缺乏先例的伦理困境。
北京市六部门联合印发措施,通过数据流通和AI大模型赋能,推动医疗器械产业升级。重点举措包括建设高质量医疗数据集和完善数据流通政策,以促进数据安全合规应用,满足企业和科研机构需求。
OpenAI更新ChatGPT政策,禁止提供医疗、法律、财务等专业建议,以规避监管风险。新规明确拒绝解读医学影像、辅助诊断、起草法律合同及个性化投资策略等,统一引导用户咨询人类专家。政策覆盖所有模型及API接口,确保执行一致。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
Roblox
RoGuard 1.0 是一款基于 Llama-3.1-8B-Instruct 微调的先进大语言模型,专门用于为大语言模型提供安全保障。它能够在提示和回复两个层面进行安全分类,判断输入或输出是否违反安全政策,为文本生成API提供强大的安全护栏。
Roblox Guard 1.0是一款基于Llama-3.1-8B-Instruct微调的最先进指令微调大语言模型,专门设计用于保护文本生成API的安全。它能够在提示词和回复层面进行双级安全分类,有效审核用户查询和模型输出,确保内容符合安全政策。
google
ShieldGemma 2是基于Gemma 3的40亿参数IT检查点训练的模型,用于跨关键类别进行图像安全分类,接收图像并输出符合政策的安全标签。
AryehRotberg
基于谷歌Pegasus Large模型微调,专门用于将冗长的隐私政策文件摘要为简洁版本。
facebook
该模型采用FAIR非商业研究许可,适用于非商业研究用途,遵循FAIR可接受使用政策。
PaDaS-Lab
这是一个用于从隐私政策文本中抽取关系的模型,支持识别数据收集、存储和传输等相关信息。
ChrisPuzzo
基于Llama2-7B-Chat模型微调的隐私政策问答与摘要工具
UlutSoftLLC
基于Whisper架构的吉尔吉斯语自动语音识别(ASR)模型,由吉尔吉斯共和国总统下属国家语言与语言政策全国委员会支持开发
poltextlab
基于xlm-roberta-large的基准模型,在比较议程项目的主要主题代码标注文本上微调而成,用于多语言政策主题分类。
基于xlm-roberta-large架构的多语言政策主题分类模型,专为比较议程项目的主议题编码任务设计。
这是一个基于荷兰语训练数据微调的XLM-RoBERTa-large模型,专门用于行政命令的主题代码分类任务。模型遵循比较议程项目的主代码手册,能够为荷兰语行政命令文本标注主要政策主题代码。
一个专门用于识别GDPR隐私政策文本中各类实体的BERT模型
partypress
基于RobBERT-v2微调的荷兰语文本分类模型,专用于政党新闻稿政策领域分类
mukund
PrivBERT是一个基于RoBERTa预训练的隐私政策语言模型,专门针对隐私政策文本进行了优化。
DTAI-KULeuven
该模型用于分析比利时用户对COVID-19宵禁政策的态度,支持荷兰语、法语和英语推文的情感分类。