На прошлой неделе глаза всего мира были прикованы к одному из самых громких скандалов в технологической индустрии: совет директоров OpenAI уволил двух основателей компании Сэма Альтмана и Грега Брокмана. На правление надавили инвесторы и потребовали отменить свое решение. Альтман выдвинул свои условия, на которые совет согласился, но опоздал с дедлайном. После этого Сэм отклонил предложение о возвращении и начал процесс переговоров о присоединении к Microsoft.
Вся команда OpenAI проявила солидарность — 700 из 770 сотрудников компании подписали открытое письмо, в котором потребовали от правления уйти в полном составе. Иначе они последуют за Альтманом под крыло техногиганта — Microsoft пообещал рабочие места для всех желающих. Как результат, спустя 5 дней после драматичного увольнения Альтман и Брокман вернулись в OpenAI, а большинство членов правления потеряли свои места. Скандал вскрыл сразу несколько закулисных проблем лидера отрасли AI и породил множество домыслов и слухов. Partnerkin анализирует, каким из них можно доверять.
Опасность создания искусственного интеллекта
Согласно информации, полученной изданием Reuters, перед увольнением Сэма Альтмана несколько ключевых исследователей компании написали письмо правлению, предупреждающее об открытии в области искусственного интеллекта, которое может угрожать человечеству.
Источники назвали это письмо одним из факторов, которые привели к увольнению Альтмана.
Секретный проект OpenAI, о котором шла речь в письме, получил рабочее название Q* — «Ку-Стар». Новая модель смогла решить некоторые математические задачи. Анонимный источник Reuters сообщил, что, несмотря на то, что Q* выполняет математику только на уровне учеников начальной школы, успешное выполнение тестов вселяет в исследователей большой оптимизм. Некоторые в OpenAI считают, что Q* может стать прорывом в исследованиях общего искусственного интеллекта — AGI.
Сэм не уведомил об этом правление. По-видимому, последствия этого прорыва были настолько пугающими, что совет директоров попытался отстранить Альтмана и объединиться с конкурентом «Anthropic», которые известны своей осторожностью в отношении развития ИИ. Это косвенно подтверждается публикацией в блоге OpenAI, в которой было объявлено об увольнении Сэма из-за того, что «Альтман не всегда был откровенен в общении с правлением».
В дополнении к презентации новых инструментов на DevDay в начале ноября, на саммите Азиатско-Тихоокеанского Экономического Сотрудничества в Сан-Франциско Альтман заявил, что большие достижения ближе, чем все думают:
Что-то качественно изменилось. Теперь я могу поговорить с этой штукой. Это похоже на компьютер из “Star Trek”, который мне всегда обещали… Четыре раза за всю историю OpenAI мне приходилось присутствовать в особой комнате, где мы обсуждаем новые открытия. И крайние встречи произошли за последние несколько недель.
Днем позже правление уволило Альтмана.
Фигура основателя
Сэм Альтман — лидер компании, создавшей ChatGPT, воспринимается многими, как мессия — Стив Джобс от мира нейросетей. Но близкие к нему люди говорят об основателе OpenAI противоречиво.
Вы можете выбросить его на остров каннибалов, вернуться через 5 лет, и он там будет королем. Сэму Альтману не обязательно приносить прибыль, чтобы донести до инвесторов, что он добьется успеха с ними или без них.
Так говорил о Сэме в 2008 году его наставник Пол Грэм — основатель Y Combinator. В 2014 году Грэм назначил 28-летнего Альтмана генеральным директором своего инкубатора, чем немало удивил лидеров индустрии. Пять лет спустя он прилетел из Великобритании в Сан-Франциско, чтобы выгнать своего протеже. Грэм опасался, что Альтман ставит свои собственные интересы выше интересов организации.
Бывший сотрудник OpenAI, исследователь машинного обучения Джеффри Ирвинг, который сейчас работает в Google DeepMind, написал, что не склонен поддерживать Альтмана после двух лет работы на него:
1. Он всегда был добр ко мне.
2. Он часто лгал мне в различных ситуациях.
3. Он обманывал, манипулировал и плохо относился к другим сотрудникам, включая моих близких друзей.
В начале октября Элиезер Юдковский, специалист по искусственному интеллекту и лидер движения «Pause AI», опубликовал в своем блоге на LessWrong статью. В ней он собрал десятки постов Энни Альтман, сестры Сэма, в которых она утверждает, что на протяжении всей жизни подвергалась различным формам насилия со стороны брата.
Юдковскому не удалось связаться с Энни, но есть ряд косвенных подтверждений того, что приведенные посты опубликованы сестрой Сэма Альтмана. В статье собраны все публичные заявления Энни относительно Сэма и своего психологического здоровья за последние годы.
Не стоит исключать того, что это могло быть частью кампании «Pause AI», направленной на дискредитацию публичных личностей, связанных с исследованиями в области искусственного интеллекта. Но эта информация вновь стала предметом обсуждений на фоне громкого увольнения и возвращения Альтмана в OpenAI. К ним присоединился даже Илон Маск. Миллиардер и один из первых инвесторов OpenAI прокомментировал пост Эшли Сент-Клер, в котором она возмутилась, что СМИ не пишут об обвинениях со стороны Энни Альтман:
Рассел* воспринимается как угроза для истеблишмент-СМИ, а Сэм — нет.
* Рассел Брэнд — комик, который в сентябре был обвинен в сексуальном насилии.
Конфликт интересов
Вильям Лигэйт — серийный предприниматель в технологической сфере, CEO «Good Pillows», написал в своем профиле в X пост следующего содержания:
Поскольку некоторые до сих пор не понимают, что происходит, позвольте мне представить вам “ведущего” члена правления — Адама Д’Анджело. У Адама есть компания “Poe”, которая перестала быть актуальной из-за GPTs. Адам был в ярости из-за того, что правление не уведомило его заранее. Адам манипулировал членами правления, утверждая, что существует экзистенциальный риск ИИ, а Сэм скрывал важную информацию. Целью Адама было враждебное поглощение OpenAI. Адам был зачинщиком всего.
Действительно, Д’Анджело владеет компанией «Poe», которая предоставляет доступ к различным нейросетям через удобный чат-бот. В процитированном посте Д’Анджело представляет монетизацию уникальных ботов на базе ChatGPT. Через две недели после этого анонса OpenAI запустили кастомизируемые боты GPTs и собственный магазин приложений, что полностью повторяет задумку Д’Анджело.
Сам Д’Анджело отреагировал на эти обвинения молчаливой блокировкой Лигэйта в соцсети X.
Отметим, что Адам Д’Анджело — единственный член правления OpenAI, который сохранил свою позицию.
На момент увольнения Сэма и Грега в совете директоров, помимо них, состояли:
- Илья Суцкевер — главный научный сотрудник;
- Адам Д’Анджело — фаундер Poe, генеральный директор Quora;
- Таша МакКоли — технологический предприниматель;
- Хэлен Тонер — директор Джорджтаунского центра безопасности и технологий.
После триумфального возвращения основателей состав правления обновился:
Будто бы пытаясь утвердить репутацию Д’Анджело, на День Благодарения Сэм Альтман опубликовал пост о том, что провел праздник с Адамом.
Сэм Альтман: «Только что провел несколько отличных часов с Адамом Д’Анджело. Счастливого Дня Благодарения».
Пользователи соцсети X отреагировали на это реплаями с мемами над ситуацией:
Пользователь AutismCapital: «Съемка Адама Д’Анджело в этот День Благодарения».
Пользователь FreddieRaynolds: «Он до сих пор жив?»
Обвинения в мизогинии
Вновь обратим внимание на изменившийся совет директоров. До судьбоносного скандала треть совета составляли женщины, обладающие значительным влиянием в технологической сфере.
Одна из них, Таша МакКоли — известный инженер-робототехник, генеральный директор «GeoSim Systems» — компании по разработке корпоративного программного обеспечения для сложных систем.
Другая, Хэлен Тонер — знаменитая исследовательница искусственного интеллекта. Хэлен курирует исследования CSET в области политики по отношению к ИИ. Хэлен изучала ситуацию с искусственным интеллектом в Китае, благодаря чему стала авторитетным специалистом в вопросах последствий ИИ для национальной безопасности. В недавней статье, написанной Хэлен для CSET, она подчеркнула важность поиска новых методов тестирования ИИ, выступила за обмен информацией о несчастных случаях с ИИ и международное сотрудничество для минимизации рисков.
При назначении Хэлен в совет директоров OpenAI опубликовала пост в своем блоге. В нем сказано, что назначение Тонер «подтверждает нашу приверженность безопасному и ответственному внедрению технологий, чтобы искусственный интеллект принес пользу всему человечеству».
По поводу ее назначения высказались оба основателя, Сэм Альтман и Грег Брокман.
«Я очень ценю размышления Хэлен о долгосрочных рисках и последствиях ИИ. Я с нетерпением жду того влияния, которое она окажет на наше развитие», — Брокман.
«Хэлен привносит понимание глобального развития искусственного интеллекта с упором на безопасность… Мы рады добавить ее в наш совет директоров», — Альтман.
«Я твердо верю в цель организации — создание искусственного интеллекта на благо всех, и для меня большая честь иметь возможность внести свой вклад в эту миссию», — Хэлен Тонер, комментарий при назначении в совет директоров OpenAI.
Есть большая вероятность, что исследовательская работа Тонер по безопасности ИИ могла стать катализатором увольнений в OpenAI.
В работе Хэлен критикует OpenAI за выпуск ChatGPT в конце прошлого года. По ее словам, это вызвало необходимость ускорения исследований со стороны других компаний, что побудило конкурентов «обойти внутреннюю безопасность и процессы этической экспертизы».
По информации издания «New York Times», Альтман пожаловался в электронном письме, что исследование Хэлен равносильно критике со стороны члена правления и добавил, что это наносит ущерб OpenAI. Тонер защищала научную работу, как беспристрастный анализ проблем при разработке ИИ.
Сэм Альтман представляет собой коммерческие устремления, лежащие в основе технологии ИИ. Поэтому инвесторы приняли его сторону.
Тонер отражает движение эффективного альтруизма, которое хочет максимизировать пользу и ограничить вред от ИИ.
Похоже, что театральный скандал, который мы наблюдали, был противостоянием двух идеалов, и победили, как всегда, деньги.
Показательным стало и то, что в новом совете директоров не оказалось ни одной женщины. Тонер, при всей глубине ее познаний в сфере безопасности ИИ, осталась за бортом.
По поводу нового состава правления высказались многие исследователи и ученые в области искусственного интеллекта.
Ной Джансиракуса, профессор математики в Университете Бентли:
Подборка новых членов совета нехороша. Особенно для компании, которая лидирует в отрасли. Главная цель OpenAI — разработка ИИ, который “принесет пользу всему человечеству”. Поскольку половина человечества — женщины, недавние события не вызывают доверия. Хэлен Тонер отражает безопасность ИИ.
Кристофер Мэннинг, директор лаборатории искусственного интеллекта в Стэнфорде:
Недавно сформированное правление OpenAI, по-видимому, все еще неполное… Состав совета директоров, в который входят только белые мужчины, — неоднозначное начало для такой влиятельной компании.
OpenAI — новое начало
Такие события однозначно полезны для упрощения образов глобальных проектов, меняющих наш мир. После подобных скандалов люди больше обращают внимание на человечность и несовершенство их основателей. Победили ли в этом конфликте «хорошие парни»? Рассудит история. Мы же теперь будем внимательнее следить за этичностью действий со стороны OpenAI. В их руках будущее всего человечества.
Главные новости из мира нейросетей — Telegram-канал Нейросети от Partnerkin.
Источник