【シリコンバレー=山田遼太郎】米新興企業オープンAIが将来の高度な人工知能(AI)の実現に備えた安全対策のチームを解消したことが17日、明らかになった。退社した元幹部は新技術やサービスの導入を急ぐ同社の方針を批判する。生成AIのリーダー企業は安全性と ...
サツキヴァーやスーパーアライメントチームのその他のメンバーの離脱、AIの長期的リスクに関する研究の将来について、OpenAIはコメントを避けている。より性能の高いAIモデルがもたらすリスクに関する研究は、AIモデルのトレーニング後の微調整を担当するチ ...
A former lead scientist at OpenAI says he's struggled to secure resources to research existential AI risk, as the startup ...
チャットAI「ChatGPT」や画像生成AI「DALL-E」などを開発するOpenAIは、2020年に社内のロボット工学チームを閉鎖しています。しかし、OpenAIが再びロボット工学チームを始動させようと研究エンジニアを募集していると報じられています ...
OpenAIは、AIを使って隠れた影響力操作 (covert influence operations)を行なっていたアカウントを停止した。ロシア、中国、イラン、イスラエルの企業などが情報工作に関与していたという。
ライケ氏は退社の際、OpenAIが「安全性が輝かしい製品の開発より後回しになっている」と批判した。両氏の退社後、Superalignmentチームは解散したが、OpenAIは28日、理事会メンバーが率いる新たな安全およびセキュリティ委員会の設立を ...
OpenAIが「AIを用いて世論を操作し政治的結果に影響を与えようとする活動」を2024年3月~2024年5月に5件阻止したことを明らかにしました。阻止された活動はロシア・中国・イラン・イスラエルのユーザーによって展開されており、いずれも大きな影響を ...
The entire OpenAI team focused on the existential dangers of AI has either resigned or been absorbed into other research ...
OpenAI has disbanded its team focused on the long-term risks of artificial intelligence just one year after the company ...
OpenAI says it is now integrating its Superalignment group more deeply across its research efforts to help the company ...
OpenAI eliminated a team focused on the risks posed by advanced artificial intelligence less than a year after it was formed ...
米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。