OpenAI has released a new framework that is designed to help the company sustain itself beyond its co-founder and CEO Sam Altman.
What Happened: OpenAI's new "Preparedness Framework" has been released, empowering its board of directors to veto decisions taken by the company's leadership, which Altman currently leads.
While OpenAI's leadership team continues to have the power to make decisions even now, those decisions can now be overturned by the board of directors if necessary.
See Also: OpenAI Drama Timeline: All The Twists And Turns, Starring Sam Altman
"While Leadership is the decision-maker, the Board of Directors holds the right to reverse decisions," OpenAI said, detailing its new framework model.
Microsoft Corp.-backed (NASDAQ:MSFT) OpenAI's primary focus with this new framework is on a critical topic – AI safety. Instead of assigning this important responsibility to just one person, the company has split it into three groups – Safety Systems, Preparedness, and Superalignment.
Safety Systems will look after current models, while Preparedness will work on frontier or next-generation models.
The Superalignment team, on the other hand, is tasked with the most challenging and futuristic job – preparing for artificial general intelligence (AGI).
In the end, OpenAI's leadership team, which includes Altman, will be tasked with taking decisions. However, if this team steps out of its bounds or goes against the overall mandate set by OpenAI, the board has now been empowered to veto those decisions.
Essentially, the board now has a failsafe to undo any decision that endangers the safety of the company or its stakeholders.
OpenAI notes that this framework is a work in progress and it comes with a "beta" tag as well, which means it will be continually worked upon and tweaked as need be.
Why It Matters: Empowering the board in a publicized safety framework is a move to ensure that Altman is still held accountable.
This is not controversial nor is it a power move against the co-founder, given that Altman has said it publicly earlier.
"No one person should be trusted here. I don't have super-voting shares. I don't want them. The board can fire me. I think that's important," Altman said earlier.
However, the timing is what makes this framework's release interesting. It comes a month after the company's board fired Altman unceremoniously. He was reinstated a few days later following a massive outcry from almost all of OpenAI's employees.
Check out more of Benzinga's Consumer Tech coverage by following this link.
Read Next: From Recommending Tesla Cars To Generating Code, Chevrolet's ChatGPT-Powered Chatbot Gets Taken For A Ride
OpenAIは、共同創業者兼CEOであるSam Altmanを超えて自社を維持するために設計された新しいフレームワークをリリースしました。
何が起こったか:OpenAIの新しい「Preparedness Framework」がリリースされ、現在Altmanが率いる同社のリーダーシップによって行われる決定に対して取締役会が拒否権を持つようになりました。
OpenAIのリーダーシップチームは現在も決定を下す権限を持っていますが、取締役会が必要に応じてそれらの決定を覆すことができるようになりました。
参考リンク: OpenAIドラマタイムライン:Sam Altmanを主役に、すべての曲がりくねった展開を見よ
「リーダーシップは決定を下しますが、取締役会はその決定を覆すことができます」とOpenAIは述べており、新しいフレームワークモデルを詳細に説明しています。
Microsoft Corp.(NASDAQ:MSFT)がバックアップするOpenAIのこの新しいフレームワークの主な焦点は、AIの安全性です。この重要な責任を1人の人物に負わせるのではなく、同社は3つのグループ(安全システム、準備、およびスーパーアライメント)に分割しました。
安全システムは現在のモデルに対応し、準備はフロンティアまたは次世代のモデルに取り組みます。
一方、スーパーアライメントチームは、人工知能(AGI)の準備に最も困難で将来的な仕事を課せられています。
最終的には、Altmanを含むOpenAIのリーダーシップチームが決定を下すことになります。ただし、このチームが自分たちの境界を越えたり、OpenAIが設定した全体的な命令に反したりした場合、取締役会は今後、その決定に拒否権を持つことになりました。
基本的に、取締役会には今後、会社またはステークホルダーの安全性を危険にさらす可能性がある決定を元に戻すためのセーフティネットがあります。
OpenAIは、このフレームワークが進行中の作業であり、「ベータ」タグも付属すると述べており、必要に応じて継続的に調整される予定であることを示しています。
なぜ重要か:公表された安全フレームワークで取締役会に権限を与えることは、Altmanがまだ責任を負うようにするための一歩です。
共同創業者に対するパワームーブではなく、Altmanが以前に公に語ったように、議論の余地はありません。
「ここでは誰にも信用されるべきではありません。私には超投票株がありません。私はそれらを望みません。取締役会は私を解雇できます。それは重要だと思います」とAltmanは以前に述べています。
ただし、このフレームワークのリリースのタイミングが興味深いものになっているのは事実です。OpenAIの取締役会がAltmanを非礼な形で解雇した後1か月後にリリースされたためです。ほとんどのOpenAIの従業員が抗議した後、数日後に再任されました。
BenzingaのConsumer Techの報道をもっと読むには、以下のリンクをフォローしてください。 このリンクをフォローしてください。.
次を読む:Tesla Carsを推奨して、コードを生成するには、ChevroletのChatGPT-Powered Chatbotが乗車する必要があります