OpenAI: Уход исследователей и сомнения в объективности
- Категория: Openai_and_chatgpt
- Дата: 15 декабря 2025 г. в 23:20
- Просмотров: 35

Да, ребят, тут такая ситуация с OpenAI... 😬 Похоже, у них не всё гладко, и это мягко сказано.
Последние месяцы для ребята из OpenAI выдались, прямо скажем, турбулентными. То давление инвесторов, чтобы становились более коммерческими, иначе финансирование могут урезать, то сам Сэм Альтман объявляет "код красный" из-за конкуренции с Anthropic и Google, пытаясь улучшить ChatGPT.
А теперь вот новая порция не самых приятных новостей. По данным WIRED, как минимум двое исследователей ушли из OpenAI. Причина? Они считают, что компания стала недоговаривать правду и слишком скрытничать, особенно когда дело касается негативных аспектов их технологий или их влияния на экономику.
Один из ушедших, Том Каннингем, бывший исследователь в области экономики, в прощальном сообщении коллегам написал, что команда будто отходит от настоящих исследований и "становится своего рода адвокатом OpenAI". 😳
Но в OpenAI это, конечно, отрицают. Джейсон Квон, директор по стратегии, заявил, что они не просто исследовательский институт, а "ведущий игрок", который внедряет ИИ в мир. Поэтому они обязаны не только говорить о проблемах, но и "предлагать решения".
Моя точка зрения на сложные вопросы не в том, что мы не должны о них говорить. Скорее, поскольку мы не просто исследовательское учреждение, но и действующее лицо в мире (кстати, ведущее), которое внедряет предмет исследования (ИИ) в мир, от нас ожидают ответственности за результаты.
Джейсон Квон, директор по стратегии OpenAI
Эти новости появляются на фоне того, что OpenAI активно сотрудничает с правительствами и корпорациями, а их оценка уже достигла 500 миллиардов долларов. Аналитики предсказывают, что их технологии могут кардинально изменить рабочие процессы.
Но, с другой стороны, всё чаще ходят слухи, что мы живём в "пузыре" ИИ, который может лопнуть в любой момент. Билл Гейтс даже сравнил это с ажиотажем эпохи доткомов, говоря, что "будет тонна тупиковых инвестиций".
Раньше OpenAI публиковали много исследований о потенциальном влиянии ИИ на рынок труда. Например, их работа "GPTs Are GPTs" 2023 года рассказывала, какие профессии наиболее уязвимы перед автоматизацией.
Однако, по словам источников WIRED, компания сейчас больше не хочет публиковать исследования, которые подсвечивают негативное влияние ИИ на экономику. Вместо этого они предпочитают отчёты с позитивными выводами.
Это не первый раз, когда OpenAI попадает под критику из-за своих операций и разработки ИИ. В прошлом году The Financial Times писали, что вопросы безопасности и культура в компании, похоже, отошли на второй план, уступив место "блестящим продуктам".
Кстати, Microsoft и OpenAI недавно подтвердили свои обязательства по новому соглашению. Это значит, что Microsoft может развивать AGI (искусственный общий интеллект) самостоятельно или через третьих лиц. Важно: OpenAI не сможет объявить о создании AGI и разорвать связи с Microsoft, если это не подтвердит независимая экспертная комиссия.
И вот что интересно: недавно глава Microsoft AI Мустафа Сулейман заявил, что компания откажется от ИИ, если он будет представлять экзистенциальную угрозу для человечества. Это очень хорошо ложится на его идею "гуманистического сверхинтеллекта" — то есть, ИИ, который помогает людям, а не заменяет их.
На мой взгляд, OpenAI будто превращается из исследовательской лаборатории в лоббистскую организацию. Вместо того чтобы объективно изучать влияние ИИ, они, похоже, фокусируются на продвижении позитивных сторон, игнорируя или преуменьшая риски. Это вызывает беспокойство, особенно учитывая масштабы их технологий.
Евгений (MSReview)
- Комментарии

