През лятото на 2023 г., OpenAI създаде екип “Superalignment”, целта на който беше да управлява и контролира бъдещи AI системи, които биха могли да бъдат толкова мощни, че да доведат до изчезването на човечеството. По-малко от година по-късно, този екип вече не съществува.
OpenAI обяви, че компанията “интегрира групата по-дълбоко в своите научни усилия, за да постигне своите цели за безопасност”. Въпреки това, поредица туитове от Ян Лайке, един от лидерите на екипа, който наскоро напусна, разкри вътрешни напрежения в компанията.
В негово изявление, публикувано наскоро, се казва, че екипът Superalignment се е борел за ресурси, за да свърши научните си изследвания.
По-късно OpenAI обяви, че бъдещите усилия за безопасност ще бъдат водени от Джон Шулман, съосновател на компанията, чиито изследвания са фокусирани върху големите езикови модели. A Якуб Пахоцки, директор, който водеше разработката на GPT-4 – един от водещите големи езикови модели на OpenAI, ще замени Сутскевар като главен учен.
Superalignment не беше единственият екип в OpenAI, фокусиран върху безопасността на AI. През октомври компанията стартира нов “подготвителен” екип, за да предотврати потенциални “катастрофични рискове” от AI системи, включително проблеми с киберсигурността и химически, ядрени и биологични заплахи.