OpenAI推出AI Agent評測基準PaperBench
OpenAI 團隊推出了一個名爲 PaperBench 的基準測試,旨在評估AI代理在複製先進 AI 研究方面的能力。該測試要求 AI 代理從頭開始複製20篇2024年國際機器學習會議(ICML)中的重點和口頭論文,整個過程涉及理解論文貢獻、開發代碼庫以及成功執行實驗。爲確保評估的客觀性,研究人員設計了詳細的評分標準。這些標準將每項複製任務分解爲多個層級的子任務,並設定明確的評分標準。PaperBench 一共包含8316個可以單獨評分的任務,所有評分量規均與每篇論文的作者合作開發,以保證其準確性和真