OpenAIのCEOであるサム・アルトマン氏は、機械が人間の知能を凌駕し、制御不能になる可能性のあるAI超知能の潜在的な危険性について意識を高めるための世界的なキャンペーンを開始した。
こうした懸念に応えて、OpenAI は最近、この 10 年以内に出現する可能性のある超知能に関連するリスクに対処する方法の開発を任務とする専門チームの結成を発表した。.
同社は 強調している 、スーパーインテリジェンスを効果的に管理するには、新たなガバナンス機関を設立し、スーパーインテリジェンスを人間の価値観や意図に合わせるという重要な課題を解決する必要があると
OpenAI は、昨年公開されたブログ記事で述べたように、AGI (汎用人工知能) の調整は人類に重大なリスクをもたらし、全人類の共同の努力が必要になる可能性があることを認めています。.
「スーパーアライメント」と名付けられたこの新設チームは、機械学習分野のトップクラスの研究者とエンジニアで構成されています。OpenAIの共同創設者兼チーフサイエンティストであるイリヤ・スツケヴァー氏と、アライメント責任者のヤン・ライケ氏が、この取り組みを主導しています。.
OpenAIは、スーパーインテリジェンスのアラインメントという中核的な技術的課題に取り組むため、これまでに獲得した計算リソースの20%をアラインメント問題に充てることを約束しました。同社は、4年以内にこれらの課題を解決できると見込んでいます。.
スーパーアライメントチームの主目的は、人間レベルの自動アライメント研究者を開発することです。これは、超知能AIシステムを効果的にアライメントし、速度と精度において人間を上回るAIシステムを構築することを意味します。.
このマイルストーンを達成するために、チームはAIシステムを用いて他のAIシステムを評価するスケーラブルな学習手法の開発に注力します。得られたモデルの検証は、問題となる可能性のmatic 動作の探索を自動化することで行います。また、アライメントパイプラインは、アライメント不良のモデルを意図的に学習させ、その検出可能性を測定する厳格なストレステストを実施します。.
OpenAIによるスーパーインテリジェンスリスクへの取り組みは、責任ある、かつ整合性のあるAI開発の実現に向けた大きな一歩です。トップクラスの研究者チームを編成し、膨大な計算リソースを投入することで、OpenAIはスーパーインテリジェンスの到来に伴う潜在的なリスクを積極的に軽減するというコミットメントを示しています。この野心的な旅路に乗り出すことで、OpenAIはAI時代における人類の未来を守るための協力と結束のdent 築くことになります。.
オープンAI 