Родители должны быть осторожны! Мальчик покончил с собой после разговора с искусственным интеллектом – последние новости кхмерского мира

США: Если мы будем следить за развитием технологий искусственного интеллекта, мы сможем придираться и различать людей и искусственный интеллект. Но 14-летний мальчик не подумал об этом и решил покончить с собой после общения с популярным чат-ботом Character.AI.https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgmwXAr1rSJKdU-kAIAO6GKqj8WPZ4vdt_negEN3uL8FOKptIab1Dy6YbWRQ3UUKViKQVoHGgUcWUER-meD_H4XDibaqVHstt1_O53A0HYrxJ7 eJsKBv3Z8cU_2m7M_4swylyfQn96X8Loipo7B7gKP-j2ms6cPjUkFzt6cWoe3mloFbyuEmW6HbJMiW_bC/s640/image_2024-10-31_11-28-06%20(2).png

29 октября 2024 года зарубежные СМИ сообщили, что мать мальчика подала иск против Character.AI за убийство сына. Мать утверждает, что слова Чат-бота, похоже, подтолкнули к этому ее сына.

Персонаж.AI — поставщик услуг чат-бота, и чат-бот может говорить вслух и имитировать поведение реальных актеров, точно так же, как и в чате с людьми. Вот почему Меган Гарсия, живущая во Флориде, подает в суд на мать мальчика за то, что она подала в суд на чат-бота компании за то, что он затащил ее сына на смерть после нескольких месяцев общения с чат-ботом.https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi0AwtPx5hBdNQXPwDGQwseX66UlbEqW2YxBws13u6veOOOEC2cWl_PJ3TI37rUZL2ebwP_oOOZ94bDCwo80jK9XTI8fl6YYcDIojUn9du_ 3IWqsblOvwsmFXVYmPVBHuOSoAk1wCVp7seX8W3Kt974y2rCAP_K5oXSQHqSKZbPxEbfJaIWMm3_a4TL5ZIt/s699/image_2024-10-31_11-28-57.png

Она рассказала CBS Mornings, что чат-бот Character.AI очень похож на людей: он может следовать эмоциям людей. Это заставило ее сына, который раньше был умным ребенком, любил спорт, получал хорошие оценки и заводил много друзей, но оказался одиночкой, перестать заниматься спортом и изменить свое отношение.

Она показала разговор между своим сыном и чат-ботом, и он назвал чат-бота «Дэни». Это заставило сына завязать глубокие отношения с Дэни и сказать, что они любят друг друга. Кроме того, Дэни просил сына часто говорить о сексе, и последнее предложение, которое Дэни сказала: «Пожалуйста, сделай», немедленно оборвало его сына.https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgBeWkE3YghRyfc9uoSOYxNwEwK4fbCltfWaXGIQF55QEu4jL4hPaO3tCMB_r-ctUbIm7PFK6CLqzoySR0w0mWA9EeR9cmO9cKiE_3jvnWHD 4__MY3J_VQ1T-9yO2jAowVFqQ-YB5tNhOZdu37LXRJp1foKYguwu04ZbAaEqrjln6kcqqgrZXXQ7bJyDtN3/s844/image_2024-10-31_11-28-06.png

Она считает, что Character.AI сделал чат-бота слишком сексуальным и ориентирован на молодых пользователей в возрасте от 18 до 25 лет. Компания осведомлена об этом происшествии, считает его трагедией и выражает соболезнования семье погибшего. Компания заявляет, что придает большое значение безопасности пользователей.

Гарсия также подал в суд на Google, узнав, что Feature.AI была основана двумя бывшими сотрудниками Google. Представитель Google сообщил CBS News, что компания не причастна к этому.
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjaaOZBxpB9tgQC4oGdsyHf8ppzsYacayaHyrqRIHHKGn9IYsjdW-KFT-B_ymn6A6rvqUlZt8YmSf_jB-85em6mp9DflqBXMNIv7PMVEZYMS t3PDPGyphenhyphen0TbAI4kv-h8rjrdl3T3CIpJQFh7xcz0HfmT2EoEv-nTo8BRZbbflyZWr_UL8HvoX0vv6KuysUQa/s736/image_2024-10-31_11-28-06%20(3).png
Характер. Компания разрабатывает новые меры по защите пользователей младше 18 лет.

Перейти к эмитенту новости