OpenAIの共同設立者Sutskeverが新しいAI企業を立ち上げ、「安全な超知能」に専念

The Associated Press (AP) — Sam Altman CEOを排除しようとした失敗した試みに関与したOpenAIの共同設立者の一人であるIlya Sutskeverは、安全性に焦点を当てた人工知能企業を立ち上げると述べました。

先月ChatGPTの開発元を去った尊敬されるAI研究者であるSutskeverは、水曜日にソーシャルメディアで、自身と2人の共同設立者によるSafe Superintelligence Inc.を立ち上げたと発表しました。同社の唯一の目標と焦点は、人間よりも賢いAIシステムである「超知能」を安全に開発することです。

同社は、「管理の負担や製品サイクルには気を取られない」と誓い、そのビジネスモデルの下では、安全性とセキュリティに関する作業は「短期的な商業的圧力から遮断される」とSutskeverと彼の共同設立者であるDaniel GrossとDaniel Levyは声明で述べています。

3人はSafe Superintelligenceがパロアルト、カリフォルニアとテルアビブをルーツとするアメリカ企業であり、そこにはトップの技術人材を獲得する力があると述べました。

Sutskeverは、昨年Altmanを排除しようとしたグループの一部でした。後で後悔していると述べた取締役会の大きな変動は、OpenAIのリーダーがビジネス機会をAIの安全性よりも優先しているかどうかに焦点を当てた内部の混乱をもたらしました。

OpenAIでは、Sutskeverは人間よりも優れたAIである「人工汎用知能(AGI)」を安全に開発するチームを共同で率いていました。OpenAIを去った際、彼は「非常に個人的に意味のある」プロジェクトの計画を持っていると述べましたが、詳細は提供していませんでした。

SutskeverはOpenAIを去ることを自分で選択したと述べました。

彼の去った数日後、彼のチームの共同リーダーであるJan Leikeも辞任し、OpenAIを批判し、安全性が「かっちりした製品よりも後退してしまっている」と述べました。OpenAIは後に安全性およびセキュリティ委員会の設立を発表しましたが、主に企業内部者で構成されています。

アソシエーションプレスとOpenAIは、APのテキストアーカイブの一部へのアクセスを許可するライセンスおよび技術協定を結んでいます。