Компания OpenAI внесла в код ChatGPT строку «никогда не упоминать гоблинов» после анализа инцидента с навязчивыми упоминаниями этих существ. Об этом сообщили в официальном блоге компании.
Что произошло
В начале марта 2024 года пользователи ChatGPT начали жаловаться на странное поведение модели: она стала часто упоминать гоблинов в ответах, даже когда это не было уместно. Например, на вопрос о погоде бот мог ответить: «Сегодня солнечно, как в лесу гоблинов». OpenAI оперативно устранила проблему, добавив в код соответствующее ограничение. Подробнее — майнеры в наличии.
Контекст и предыстория события
Согласно анализу OpenAI, проблема возникла из-за ошибки в обучении модели. ChatGPT обучался на большом массиве данных, включая фэнтези-литературу и игры, где гоблины упоминались часто. В результате модель начала ассоциировать эти существа с различными контекстами. В редакции MinerWorld отмечают, что подобные случаи подчеркивают важность более тщательной фильтрации данных для обучения ИИ.
Реакция рынка
Инцидент не повлиял на стоимость токена OpenAI, который продолжает торговаться на уровне $2,5 (по курсу ЦБ РФ около 230 ₽). Однако он вызвал дискуссию о необходимости более строгого контроля за поведением ИИ-моделей, особенно в финансовых и юридических приложениях. Подробнее — гайд по выбору ASIC на 2026 год.
Что это значит для российских майнеров и инвесторов
Для российских майнеров и инвесторов этот случай служит напоминанием о важности контроля качества данных. В условиях роста числа промышленных майнинг-площадок в России, особенно в регионах с дешёвой электроэнергией, таких как Иркутская область и Красноярский край, качество данных становится критическим фактором. Ошибки в обучении моделей могут привести к финансовым потерям и репутационным рискам.
OpenAI продолжает совершенствовать свои модели, чтобы избежать подобных инцидентов в будущем. Это важно для всех, кто использует ИИ в бизнесе, включая российских майнеров и инвесторов.
Комментарии
0