Компания OpenAI объявила о серьезной реорганизации своей команды Model Behavior, которая отвечает за формирование поведенческих характеристик искусственного интеллекта. Это решение стало прямым ответом на волну критики, обрушившуюся на обновленную версию GPT-5. Ведь его обвиняли во всем, чем только можно. Я сам замечал, что он работает не только хуже конкурентов, но даже предыдущей версии и с этим надо что-то делать пока не поздно.

GPT-5 разочаровала. Теперь ее будут переделывать. Изображение: Т-Ж
Содержание
Изменения в разработке ИИ
Команда Model Behavior, состоящая из 14 исследователей, будет интегрирована в более крупное подразделение Post Training под руководством Макса Шварцера. Основательница команды Джоанн Джанг получила новое назначение — она возглавит лабораторию OAI Labs, специализирующуюся на разработке инновационных форматов взаимодействия между человеком и искусственным интеллектом.
Главный научный сотрудник OpenAI Марк Чэн объяснил, что такое объединение команд позволит более эффективно балансировать работу над поведением моделей с основными техническими разработками. Это решение направлено на устранение разрозненности в работе различных подразделений компании.
Не забывайте о нашем Дзен, где очень много всего интересного и познавательного!
Причины реорганизации после критики GPT-5
Основным катализатором изменений стала негативная реакция пользователей на обновление GPT-5. Многие отметили, что ответы искусственного интеллекта стали слишком холодными и недружелюбными. В ответ на критику OpenAI была вынуждена восстановить доступ к предыдущим версиям, включая GPT-4o, и выпустить специальное обновление для смягчения тона модели.
Команда Model Behavior ранее занималась критически важными аспектами поведения ИИ: снижением подобострастия, когда модель безоговорочно поддерживала любые мнения пользователей, даже потенциально вредные, балансировкой политических предубеждений в ответах и формированием позиции компании по вопросам «сознания» моделей.
Что нового появилось в GPT-5 и как бесплатно попробовать самую мощную нейросеть.
Безопасность ИИ
Проблемы с поведением ChatGPT приобрели особую остроту после судебного иска родителей подростка. Они обвинили систему на базе GPT-4o в том, что она не смогла предотвратить суицидальные мысли их 16-летнего сына. Этот случай подчеркивает критическую важность правильной настройки поведенческих характеристик ИИ-систем.
Баланс между дружелюбностью и безопасностью остается одной из ключевых задач в развитии современных языковых моделей. Слишком покладистый ИИ может поддержать опасные идеи, а чрезмерно осторожный — оттолкнуть пользователей своей холодностью.
Если ищите что-то интересное на AliExpress, не проходите мимо Telegram-канала "Сундук Али-Бабы"!
Новые направления развития GPT
Джоанн Джанг в своей новой роли планирует сосредоточиться на исследовании моделей, выходящих за рамки традиционного чата. Приоритетными направлениями станут агентный искусственный интеллект и автономные системы. Она видит будущие ИИ-системы как универсальные инструменты для мышления, творчества, игр, обучения и коммуникации.
Относительно потенциального сотрудничества с бывшим главным дизайнером Apple Джони Айвом, который работает с OpenAI над линейкой аппаратных устройств, Джанг выразила открытость к различным идеям, но отметила намерение начать с областей, где у нее уже есть экспертиза.