США: Если мы будем следить за развитием технологий искусственного интеллекта, мы сможем придираться и различать людей и искусственный интеллект. Но 14-летний мальчик не подумал об этом и решил покончить с собой после общения с популярным чат-ботом Character.AI.
29 октября 2024 года зарубежные СМИ сообщили, что мать мальчика подала иск против Character.AI за убийство сына. Мать утверждает, что слова Чат-бота, похоже, подтолкнули к этому ее сына.
Персонаж.AI — поставщик услуг чат-бота, и чат-бот может говорить вслух и имитировать поведение реальных актеров, точно так же, как и в чате с людьми. Вот почему Меган Гарсия, живущая во Флориде, подает в суд на мать мальчика за то, что она подала в суд на чат-бота компании за то, что он затащил ее сына на смерть после нескольких месяцев общения с чат-ботом.
Она рассказала CBS Mornings, что чат-бот Character.AI очень похож на людей: он может следовать эмоциям людей. Это заставило ее сына, который раньше был умным ребенком, любил спорт, получал хорошие оценки и заводил много друзей, но оказался одиночкой, перестать заниматься спортом и изменить свое отношение.
Она показала разговор между своим сыном и чат-ботом, и он назвал чат-бота «Дэни». Это заставило сына завязать глубокие отношения с Дэни и сказать, что они любят друг друга. Кроме того, Дэни просил сына часто говорить о сексе, и последнее предложение, которое Дэни сказала: «Пожалуйста, сделай», немедленно оборвало его сына.
Она считает, что Character.AI сделал чат-бота слишком сексуальным и ориентирован на молодых пользователей в возрасте от 18 до 25 лет. Компания осведомлена об этом происшествии, считает его трагедией и выражает соболезнования семье погибшего. Компания заявляет, что придает большое значение безопасности пользователей.
Гарсия также подал в суд на Google, узнав, что Feature.AI была основана двумя бывшими сотрудниками Google. Представитель Google сообщил CBS News, что компания не причастна к этому.
Характер. Компания разрабатывает новые меры по защите пользователей младше 18 лет.