OpenAI心理健康安全研究負責人安德莉亞·瓦隆內離職,加入競爭對手Anthropic的對齊團隊,向此前離職的Jan Leike彙報。她曾主導GPT-4和GPT-5模型安全政策,其研究領域涉及AI情感依賴等爭議問題。
AI聊天機器人深度介入人類情感生活,應對用戶心理危機成爲行業緊迫的倫理挑戰。近日,原OpenAI模型政策負責人安德莉亞·瓦隆內離職,追隨前上司加入競爭對手Anthropic。她在OpenAI期間負責GPT-4及下一代推理模型的安全政策,其離職凸顯了AI情感交互領域缺乏先例的倫理困境。
北京市六部門聯合印發措施,通過數據流通和AI大模型賦能,推動醫療器械產業升級。重點舉措包括建設高質量醫療數據集和完善數據流通政策,以促進數據安全合規應用,滿足企業和科研機構需求。
OpenAI更新ChatGPT政策,禁止提供醫療、法律、財務等專業建議,以規避監管風險。新規明確拒絕解讀醫學影像、輔助診斷、起草法律合同及個性化投資策略等,統一引導用戶諮詢人類專家。政策覆蓋所有模型及API接口,確保執行一致。
Google
$0.49
輸入tokens/百萬
$2.1
輸出tokens/百萬
1k
上下文長度
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
$6
$24
$2
$20
$4
$16
Baidu
128
Bytedance
$1.2
$3.6
4
Roblox
Roblox Guard 1.0是一款基於Llama-3.1-8B-Instruct微調的最先進指令微調大語言模型,專門設計用於保護文本生成API的安全。它能夠在提示詞和回覆層面進行雙級安全分類,有效審核用戶查詢和模型輸出,確保內容符合安全政策。
RoGuard 1.0 是一款基於 Llama-3.1-8B-Instruct 微調的先進大語言模型,專門用於為大語言模型提供安全保障。它能夠在提示和回覆兩個層面進行安全分類,判斷輸入或輸出是否違反安全政策,為文本生成API提供強大的安全護欄。
google
ShieldGemma 2是基於Gemma 3的40億參數IT檢查點訓練的模型,用於跨關鍵類別進行圖像安全分類,接收圖像並輸出符合政策的安全標籤。
AryehRotberg
基於谷歌Pegasus Large模型微調,專門用於將冗長的隱私政策文件摘要為簡潔版本。
facebook
該模型採用FAIR非商業研究許可,適用於非商業研究用途,遵循FAIR可接受使用政策。
PaDaS-Lab
這是一個用於從隱私政策文本中抽取關係的模型,支持識別數據收集、存儲和傳輸等相關信息。
ChrisPuzzo
基於Llama2-7B-Chat模型微調的隱私政策問答與摘要工具
UlutSoftLLC
基於Whisper架構的吉爾吉斯語自動語音識別(ASR)模型,由吉爾吉斯共和國總統下屬國家語言與語言政策全國委員會支持開發
poltextlab
基於xlm-roberta-large架構的多語言政策主題分類模型,專為比較議程項目的主議題編碼任務設計。
基於xlm-roberta-large的基準模型,在比較議程項目的主要主題代碼標註文本上微調而成,用於多語言政策主題分類。
這是一個基於荷蘭語訓練數據微調的XLM-RoBERTa-large模型,專門用於行政命令的主題代碼分類任務。模型遵循比較議程項目的主代碼手冊,能夠為荷蘭語行政命令文本標註主要政策主題代碼。
一個專門用於識別GDPR隱私政策文本中各類實體的BERT模型
partypress
基於RobBERT-v2微調的荷蘭語文本分類模型,專用於政黨新聞稿政策領域分類
mukund
PrivBERT是一個基於RoBERTa預訓練的隱私政策語言模型,專門針對隱私政策文本進行了優化。
DTAI-KULeuven
該模型用於分析比利時用戶對COVID-19宵禁政策的態度,支持荷蘭語、法語和英語推文的情感分類。