Искусственный интеллект: готовы ли мы к приходу AGI?
Уход Майлза Брундейджа, старшего советника OpenAI по готовности к AGI (искусственному общему интеллекту), вызвал шокирующее предупреждение: никто не готов к искусственному общему интеллекту, включая саму OpenAI. “Ни OpenAI, ни другая лаборатория не готовы [к AGI], и мир также не готов”, – написал Брундейдж, который провел шесть лет, помогая формировать инициативы по безопасности искусственного интеллекта компании. “Чтобы быть ясным, я не считаю, что это контроверсиальное заявление среди руководства OpenAI, и, что более важно, это отличается от вопроса о том, готова ли компания и мир к нужному времени”.
Его уход стал последним в серии высокопрофильных уходов из команд по безопасности OpenAI. Ян Лейке, известный исследователь, ушел, заявив, что “культура безопасности и процессы уступили место блестящим продуктам”. Соучредитель Илья Суцкевер также ушел, чтобы запустить свой собственный стартап по разработке безопасного AGI.
Распад команды “Готовность к AGI” Брундейджа, произошедший всего несколько месяцев после того, как компания распустила команду “Супервыравнивание”, посвященную долгосрочному смягчению рисков искусственного интеллекта, подчеркивает нарастающие напряженности между первоначальной миссией OpenAI и ее коммерческими амбициями. По сообщениям, компания столкнулась с давлением перейти из некоммерческой организации в корпорацию с общественной пользой в течение двух лет – или рисковать возвратом средств из недавнего инвестиционного раунда в размере 6,6 миллиарда долларов. Этот переход к коммерциализации давно беспокоил Брундейджа, который выразил сомнения еще в 2019 году, когда OpenAI впервые создала свое коммерческое подразделение.
В объяснении своего ухода Брундейдж упомянул увеличивающиеся ограничения на его свободу исследований и публикаций в этой известной компании. Он подчеркнул необходимость независимых голосов в обсуждениях политики искусственного интеллекта, свободных от промышленных предвзятостей и конфликтов интересов. После того как он консультировал руководство OpenAI по внутренней готовности, он считает, что теперь может оказать большее влияние на глобальное управление искусственным интеллектом извне организации.
Этот уход может также отражать более глубокий культурный разрыв в OpenAI. Многие исследователи присоединились, чтобы продвигать исследования по искусственному интеллекту, и теперь они оказались во все более продуктово-ориентированной среде. Внутреннее распределение ресурсов стало точкой опоры – сообщается, что команде Лейке была отказана вычислительная мощность для исследований по безопасности до ее окончательного распада.
Несмотря на эти трения, Брундейдж отметил, что OpenAI предложила поддержать его будущую работу финансированием, кредитами API и ранним доступом к моделям, без каких-либо обязательств.
