OpenAIは新しい「フロンティアモデル」の訓練を開始し、現在の取締役会メンバーであるBret Taylor、Adam D’Angelo、Nicole Seligman、Sam Altmanをリーダーとする新しい安全保障委員会を設立した。このモデルは、OpenAIが一般人工知能(AGI)への道のりで次のレベルの能力を実現することを目指している。安全保障委員会の最初の任務は、今後90日間でOpenAIのプロセスと保護措置を評価し、さらに開発することである。90日間の終了時に、安全保障委員会はその推奨事項を全取締役会と共有し、その後OpenAIは採用された推奨事項に関する更新を公開する予定である。これにより、新しいフロンティアモデルのリリースは少なくとも90日間は行われないことが示唆されている。安全保障委員会はOpenAIの自社幹部で構成されており、その独立性について批判がある。
OpenAIは最近、GPT-4oという最新のAIモデルをリリースし、これは最初から多様な入力と出力に対応する訓練が施された初のモデルであるが、公開以来いくつかの批判に直面している。一方で、新しいパートナーを獲得し、ChatGPTにおける訓練データと権威あるジャーナリズムの提供、またSoraビデオ生成モデルへの関心が高まっている。GoogleはAIに関する検索結果で批判を受けており、一般的なAI分野への反発が見られる中、OpenAIの新しい安全保障委員会が批判や規制当局、潜在的なビジネスパートナーの懸念を和らげることができるかが注目される。
【ニュース解説】
OpenAIが新しい「フロンティアモデル」の訓練を開始し、安全保障委員会を新設したと発表しました。このモデルは、一般人工知能(AGI)への道のりで次のレベルの能力を実現することを目指しています。安全保障委員会は、Bret Taylor、Adam D’Angelo、Nicole Seligman、Sam Altmanといった現在の取締役会メンバーによってリードされ、今後90日間でOpenAIのプロセスと保護措置を評価し、さらに開発することがその最初の任務です。この期間の終了後、委員会はその推奨事項を全取締役会と共有し、その後OpenAIは採用された推奨事項に関する更新を公開する予定です。
この動きは、AI技術の安全性と倫理性を確保するための重要なステップですが、安全保障委員会がOpenAIの自社幹部で構成されているため、その独立性について疑問が呈されています。独立性の欠如は、自己規制の効果に対する懸念を引き起こし、外部からの客観的な評価が必要であるとの声が上がっています。
OpenAIは最近、GPT-4oという最新のAIモデルをリリースしました。このモデルは、最初から多様な入力と出力に対応する訓練が施された初のモデルであり、AI技術の進化を示しています。しかし、公開以来、いくつかの批判に直面しており、AI技術の安全性や倫理性に対する懸念が高まっています。
このような背景の中、OpenAIの新しい安全保障委員会がどのようにしてAI技術の安全性と倫理性を確保し、批判や規制当局、潜在的なビジネスパートナーの懸念を和らげることができるかが注目されています。AI技術の発展は、社会に多大な影響を与える可能性があり、その安全性と倫理性を確保することは非常に重要です。OpenAIの取り組みが、AI技術の健全な発展に向けたモデルケースとなるかどうか、今後の動向が注目されます。
また、AI技術の進化は、新しいビジネスチャンスの創出や効率化の促進など、ポジティブな側面を多く持っています。しかし、同時に、プライバシーの侵害や偏見の増幅など、潜在的なリスクも伴います。これらのリスクを最小限に抑えつつ、AI技術の利点を最大化するためには、厳格な安全基準と倫理基準の確立が不可欠です。OpenAIの安全保障委員会がどのようにこれらの課題に取り組むかが、AI技術の将来にとって重要な鍵を握っています。
from OpenAI begins training new frontier model — but GPT-5 won’t come for at least 90 days.