【シリコンバレー=山田遼太郎】米新興企業オープンAIが将来の高度な人工知能(AI)の実現に備えた安全対策のチームを解消したことが17日、明らかになった。退社した元幹部は新技術やサービスの導入を急ぐ同社の方針を批判する。生成AIのリーダー企業は安全性と ...
サツキヴァーやスーパーアライメントチームのその他のメンバーの離脱、AIの長期的リスクに関する研究の将来について、OpenAIはコメントを避けている。より性能の高いAIモデルがもたらすリスクに関する研究は、AIモデルのトレーニング後の微調整を担当するチ ...
チャットAI「ChatGPT」や画像生成AI「DALL-E」などを開発するOpenAIは、2020年に社内のロボット工学チームを閉鎖しています。しかし、OpenAIが再びロボット工学チームを始動させようと研究エンジニアを募集していると報じられています ...
A former lead scientist at OpenAI says he's struggled to secure resources to research existential AI risk, as the startup ...
チーフサイエンティストのサツキーバー氏らチーム幹部2人最近退社 米オープンAIは将来の高度人工知能(AI)システムの安全性確保に注力するチームを事実上解散した。同社の共同設立者でチーフサイエンティストのイリヤ・サツキーバー氏らチーム ...
OpenAIは、AIを使って隠れた影響力操作 (covert influence operations)を行なっていたアカウントを停止した。ロシア、中国、イラン、イスラエルの企業などが情報工作に関与していたという。
米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月 ...
OpenAIが「AIを用いて世論を操作し政治的結果に影響を与えようとする活動」を2024年3月~2024年5月に5件阻止したことを明らかにしました。阻止された活動はロシア・中国・イラン・イスラエルのユーザーによって展開されており、いずれも大きな影響を ...
このため、OpenAIの安全なAGI開発に支障が出るのではないかとの予測記事が各報道機関で報道され始めています。 OpenAIのAI危険対策チームトップが「限界に達し」退社「安全確保が後回しになっている」 OpenAIで先日退社したサツケバー氏とともにAIの安全性に ...
米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。 「私がOpenAIに参加したのは、ここが超知能の研究を行うのに世界 ...
【シリコンバレー=山田遼太郎】米新興企業オープンAIは28日、人工知能(AI)の安全対策について同社の理事会(企業の取締役会に相当)に提言する委員会を設置したと発表した。生成AI技術を進化させる一方、ガバナンス(企業統治)に懸念を招く事態が相次いだ。