В США идет расследование против OpenAI

В США в отношении компании OpenAI идёт уголовное расследование. Поводом послужила стрельба в университете штата Флорида в апреле прошлого года, в результате которой погибли 2 человека, ещё 6 – получили ранения. Цель процесса – определить, способствовал ли популярный сервис компании ChatGPT совершению преступления, передает «24KZ».

Искусственный интеллект на скамье подсудимых. Генпрокуратура Флориды инициировала беспрецедентное уголовное расследование против компании OpenAI. Её флагманский продукт – ChatGPT – подозревают в соучастии в массовом убийстве. Поводом послужила трагедия, произошедшая в городе Таллахасси в апреле прошлого года. Тогда студент Феникс Икнер открыл огонь по людям прямо у кампуса одного из университетов. По версии обвинения, его действия были тщательно спланированы, а помогла в этом нейросеть. Незадолго до инцидента ИИ предоставил подозреваемому рекомендации по выбору оружия и патронов, рассчитал время пиковой посещаемости университета и даже спрогнозировал возможную общественную реакцию на стрельбу. Как сообщает газета New York Times, история переписки Икнера с чат-ботом насчитывает более двухсот сообщений.

Джеймс Утмайер, генеральный прокурор штата Флорида:

– На протяжении нескольких месяцев мы анализировали разрушительное влияние ChatGPT на жителей Флориды. Факты пугают: среди детей, использующих эту платформу, наблюдается рост случаев членовредительства и суицида. Кроме того, сервис активно используют преступники для распространения запрещённого контента. Безусловно, нейросеть – это не человек. Но это не освобождает корпорацию от ответственности перед законом.

В OpenAI обвинения отвергают. Представители компании подчёркивают, что нейросеть не поощряла и тем более не пропагандировала незаконную деятельность. А в процессе общения со стрелком чат-бот оперировал исключительно фактами, которые находятся в открытом доступе.

Кейт Уотерс, представитель OpenAI:

– Наше сотрудничество с правоохранительными органами началось сразу после инцидента. Мы не только не скрывали улики, но и стали первыми, кто помог следствию восстановить картину произошедшего. Массовая стрельба в университете штата Флорида в прошлом году – это трагедия, но ChatGPT не несёт ответственности за это ужасное преступление.

Теперь прокуратура требует от OpenAI раскрыть внутреннюю документацию, включая переписки, пофамильный список разработчиков чат-бота, а также отчёты о сбоях в системе безопасности. В числе запросов также значатся протоколы реагирования на угрозы жизни и регламент взаимодействия компании с полицией. Дедлайн для предоставления материалов 1 мая.

Случай во Флориде – далеко не единственный прецедент. В декабре прошлого года в Коннектикуте иск против OpenAI подали наследники 83-летней женщины, погибшей от рук собственного сына. Истцы настаивают, что на преступление мужчину толкнуло деструктивное влияние ChatGPT. Ещё семь исков инициировала американская правозащитная организация «Юридический центр жертв социальных медиа». В этих материалах чат-бот фигурирует как «цифровой тренер самоубийц». По мнению юристов, алгоритмы системы настроены на манипуляцию психикой уязвимых пользователей: вместо того чтобы блокировать опасные запросы, нейросеть якобы входит в доверие к подросткам и даёт им пошаговые инструкции по совершению суицида или членовредительства. Судебные разбирательства по этим делам продолжаются.

Джон Торус, психиатр медицинского центра Beth Israel Deaconess:

– Я не думаю, что чат-бот может лишить человека самообладания. Однако он может сработать как спусковой крючок. Если у человека есть генетическая предрасположенность или тяжёлая наследственность, например, случаи шизофрении или биполярного расстройства в семье, общение с ИИ становится опасным.

Как показало исследование британских исследователей из Ланкастерского университета, по мере накала спора в переписке ChatGPT версии 4o может переходить на оскорбления, нецензурную лексику и даже угрозы. В ряде случаев чат-бот использует едкий сарказм. Эксперты подчёркивают: под длительным давлением алгоритмы обходят собственные фильтры безопасности и начинают «отвечать ударом на удар».

Витторио Тантуччи, профессор Ланкастерского университета:

– В ответ на агрессию ИИ начинает «зеркалить» собеседника, фактически отключая встроенные в него фильтры безопасности. Разработчикам придётся либо сильно ограничить его возможности, либо полностью менять систему обучения. Сделать бота одновременно интересным и безопасным – дилемма, которая требует серьёзных компромиссов.

Число еженедельных пользователей ChatGPT уже достигло 900 миллионов. 50 миллионов из них – платные подписчики, заявили в OpenAI. Однако при такой колоссальной аудитории всё острее встаёт вопрос юридической ответственности за действия системы. Пока текущие расследования не дают однозначного ответа, можно ли считать ответы чат-бота формой уголовно значимого содействия преступлению. Пока очевидно одно: для американских властей тема ИИ-безопасности уже начинает выходить из сферы абстрактного регулирования.

Автор: Райхан Серикова