人工知能の急速な発展に懸念を抱く人が少なくありません。特に、将来AIが制御不能になるのではないかという懸念です。この不安の中、新たなAI安全企業Safe Superintelligence(SSI)が誕生しました。その中心人物は、OpenAIの元最高科学責任者Ilya Sutskever氏です。彼の参加は再び大きな注目を集めています。
Ilya Sutskever氏はDaniel Gross氏とDaniel Levy氏と共にSSIを共同設立し、10億ドルの資金調達に成功しました。目標は、安全で人間的能力を超えるAIシステムの開発です。
設立からわずか3ヶ月で、Andreessen Horowitz、Sequoia Capitalなどの著名な投資家から注目を集めています。従業員はわずか10名ですが、評価額はすでに50億ドルに達しています。調達した資金は、より多くの計算能力の確保とトップ人材の獲得に充てられる予定です。チームメンバーは主にカリフォルニア州パロアルトとイスラエルのテルアビブに配置されます。
インタビューでGross氏は、会社の使命を理解し、支持してくれる投資家を探していると述べています。製品を急いで市場に投入するのではなく、安全なスーパーインテリジェンスの研究開発に集中することを目指しています。AI安全分野の規制状況は複雑ですが、SSIはAIによる潜在的な被害を防ぐ必要性を確信しています。
Sutskever氏は、SSIを設立したのは、以前の仕事とは異なる方向性を見出したためだと述べています。彼はOpenAIで「スーパーアラインメント」というチームを率いており、AIの行動が人間の価値観と一致することを目指していました。OpenAIでの経験は業界での豊富な経験をもたらしましたが、SSIでは異なる方法で技術を推進したいと考えています。
チーム文化において、SSIは「高い倫理観」を持つ候補者の採用を重視しています。経歴よりも、候補者の潜在能力と仕事への熱意を重視します。Sutskever氏とチームは、この急速に発展する業界でブレイクスルーをもたらす革新的な思考力を持つ人材を探しています。
SSIの目標は、高度なAI技術の開発だけでなく、それらの技術が将来、安全に人類に役立ち、潜在的なリスクを回避することです。
要点:
1. 💰 SSIはOpenAIの元最高科学責任者Ilya Sutskever氏によって設立され、10億ドルの資金調達に成功し、評価額は50億ドルに達しました。
2. 🌍 同社はAI安全の研究開発に集中し、製品発売前に十分な研究開発を行うことを目指しています。
3. 🔍 SSIは「高い倫理観」を持つ人材の採用を重視し、経歴よりも候補者の潜在能力と仕事への熱意を重視しています。