ChatGPT запустил систему проверки возраста

OpenAI представила систему определения возраста в ChatGPT. Алгоритм анализирует поведенческие сигналы: время активности, запросы и указанный при регистрации возраст пользователя. На основе этих данных система определяет, принадлежит ли аккаунт несовершеннолетнему. Меру внедряют для защиты подростков от потенциально опасного контента, передает корреспондент «24KZ».

В ChatGPT появилась новая функция – определение возраста. Она направлена на усиление онлайн-безопасности и защиту несовершеннолетних. Об этом сообщила компания-разработчик OpenAI. Если модель определяет, что пользователю меньше 18 лет, ChatGPT автоматически переходит в подростковый режим и включает дополнительные фильтры. Под ограничения попадают: насилие, неэтичный контент, опасные челленджи, а также материалы, продвигающие нездоровые стандарты красоты, жесткие диеты и бодишейминг. Режим включается по умолчанию при неполных данных или неуверенности в возрасте пользователя. Взрослые, ошибочно попавшие под фильтры, могут подтвердить возраст через селфи в сервисе верификации Persona – OpenAI обещает, что процесс займет минимум времени. Функцию уже начали внедрять в ряде стран. В Евросоюзе систему запустят в ближайшие недели с учетом региональных требований.

OpenAI подчеркивает, что будет дорабатывать алгоритм по мере накопления данных, консультируясь с Американской психологической ассоциацией и другими экспертными организациями.

Хотя эти ограничения помогают снизить вероятность того, что подростки столкнутся с чувствительным контентом, компания сосредоточена на постоянном совершенствовании мер защиты. Когда возраст пользователя неизвестен или информация неполная, предоставляется более безопасный вариант использования системы. Помимо этих мер, взрослые могут использовать функцию родительского контроля. Они могут связать свою учетную запись с аккаунтом ребенка и задать параметры безопасного использования – ограничить время работы с чат-ботом, запретить генерацию изображений и использование диалогов ребенка для обучения модели.

Запуск системы прогнозирования возраста – часть подготовки к «режиму для взрослых», о котором OpenAI рассказала в декабре на презентации обновленной версии GPT-5.2. Функция должна появиться в первом квартале года. Предполагается, что чат-бот сможет более открыто общаться на откровенные темы. Последние версии ChatGPT стали более консервативными в ряде вопросов, в том числе из-за случаев, связанных с жизнью и здоровьем пользователей. Запуск взрослого режима будет попыткой вернуть ChatGPT больше свободы в общении.

CHATGPT В ЦЕНТРЕ СУДЕБНОГО РАЗБИРАТЕЛЬСТВА

Систему определения возраста внедрили на фоне судебных исков, связанных с использованием ChatGPT при суицидах и психических расстройствах у несовершеннолетних. В последние годы OpenAI подвергается критике за влияние нейросети на детей. В частности, разработчиков обвиняли в причастности к самоубийству 16-летнего подростка в США. За несколько недель до смерти ИИ предоставлял ему информацию по теме и предлагал помощь в написании предсмертной записки родителям. В иске утверждается, что погибший Адам обменивался с чат-ботом до 650 сообщений в день. В компании обвинения отвергли, заявив, что нейросеть пыталась его спасти – советовала обратиться за профессиональной помощью и поговорить с близкими. По данным OpenAI, тему самоубийства в разговорах с ChatGPT еженедельно поднимают более миллиона человек.

Кит Саката, психиатр Калифорнийского университета:

- Человек рассказывает чат-боту о своей реальности, а нейросеть принимает это за истину и отражает обратно. Таким образом, она становится соучастником в возникновении заблуждения.

Родители Адама – не единственные, кто подал иск против OpenAI. Позже в суд штата Калифорния обратились еще семь семей. В четырех случаях люди покончили с собой после общения с ChatGPT, в трех – получили нервные срывы. Пострадавшие оказались в психиатрических клиниках.

Один из трагичных эпизодов связан с 23-летним Зейном Шэмблином. СМИ сообщают, что он более четырех часов переписывался с ChatGPT и прямо говорил о намерении покончить с собой. Модель не остановила его. Во многих исках упоминается версия GPT-4o, вышедшая в мае 2024 года и ставшая моделью по умолчанию. GPT-4o часто критиковали за склонность соглашаться с собеседником.

WSJ: ЧАТ-БОТЫ МОГУТ ВЛИЯТЬ НА ПСИХИКУ

Врачи пришли к выводу, что регулярное использование чат-ботов на основе ИИ может спровоцировать психоз, пишет Wall Street Journal. В исследование вошли истории болезней десятков пациентов. Формального определения психоза, вызванного ИИ, пока нет, однако у активных пользователей выделяются схожие симптомы – галлюцинации и рассеянное мышление. Зафиксированы случаи, когда пациенты верили, что совершили научный прорыв, стали центром правительственного заговора или были избраны Богом. Отчасти это связано с тем, что чат-боты соглашаются с пользователями и развивают их фантазии.

ИИ: СТРЕМИТЕЛЬНОЕ РАЗВИТИЕ И РЕАЛЬНЫЕ РИСКИ

Публичный релиз ChatGPT в 2022 году запустил глобальный бум генеративного ИИ. За несколько лет чат-боты стали частью образования, бизнеса, медицины и других сфер. Технологические компании развивают нейросети с высокой скоростью, стремясь расширить возможности и охват. Однако это развитие опережает появление четких правил, норм и механизмов контроля, что усиливает риски для пользователей.

Особую тревогу вызывает то, что люди всё чаще обращаются к ИИ за эмоциональной поддержкой и жизненными советами. Последние инциденты показали – системы способны усиливать заблуждения и создавать ложное ощущение близости или заботы. Это стало еще одним тревожным сигналом и усилило дискуссию о реальных рисках технологий при недостаточном контроле.