Ища безопасность в технологиях, остерегайтесь контрпродуктивности!

Ле Тай Сон

Судебные разбирательства — не лучший способ обеспечить безопасность технологической отрасли. Таков вывод анализа этого вопроса в The Washington Post, проведенного двумя экспертами по коммуникациям Луизой Бартоло и Домиником Карлоном из Технологического университета Квинсленда и Ноем Джансиракузой, доцентом кафедры математики и науки о данных в Университете Бентли, автором книги». How Algorithms Create and Prevent Fake News» (как алгоритмы создают и предотвращают фейковые новости).

Искусственный интеллект (ИИ) делает технологии более опасными для детей.

Два года назад бывший сотрудник обвинил Facebook в том, что он раскрыл миру, что компания (теперь с новым названием Meta) прекрасно знала, что Instagram вреден для психического здоровья пользователей-подростков, но до сих пор не приняла мер по адаптации платформы к избегать возникновения зависимости у пользователей.

В ноябре 2023 года 41 штат США подал в суд на Мету. Судебный процесс может показаться большим шагом на пути к справедливости и более безопасной онлайн-среде для наших детей, но если не соблюдать осторожность, он может иметь неприятные последствия и заставить технологическую индустрию отказаться от всех усилий. последствия.

Суть иска не только в том, что Мета не только нанесла ущерб, но и «намеренно нанесла ущерб», зная о рисках. В иске говорится, что Meta когда-то исследовала и обнаружила значительные риски для здоровья, связанные с продуктом (Instagram), но до сих пор скрывала их, несмотря на серьезное воздействие на детей.

Это «неоспоримая» истина. Оставшаяся проблема заключается в неблагоприятных последствиях иска. Если собственный поиск компанией рисков в своей продукции причиняет ей финансовый, юридический и репутационный ущерб, то самый безопасный курс с точки зрения бизнеса — больше не преследовать их.

Знание того, полезно это или вредно, следует считать «неприемлемо безрассудным».

GPT-4, последняя и самая мощная версия искусственного интеллекта, обновленная от компании OpenAI ChatGPT, считается сложным мозгом, не уступающим человеческому мозгу. (фото: Яап Арриенс/NurPhoto через Getty Images)

Например, ранее в этом году Snap, компания, которая управляет популярной платформой обмена сообщениями Snapchat, выпустила чат-бота «Мой искусственный интеллект», который позволяет пользователям обмениваться сообщениями с цифровыми собеседниками повсюду. Всего два месяца спустя Snap похвастался, что «привлек более 150 миллионов человек для отправки более 10 миллиардов сообщений в My AI»! Подписчики Snapchat — это в основном молодые люди, составляющие 1/5 пользователей (более 125 миллионов) до 18 лет.

Они стремятся пробовать что-то новое. Это поразительная цифра. Два вопроса: станут ли дети зависимыми от чат-ботов 24 часа в сутки? Сократят ли общение с друзьями в реальной жизни? Для ответа на эти вопросы потребуются глубокие исследования, но было бы наивно ожидать, что Snap добровольно компенсирует негативные последствия «Моего ИИ», особенно когда возникают непредвиденные риски раньше.

Чтобы не отставать от Snap, Meta выпускает знаменитостей с искусственным интеллектом, чтобы молодые люди могли общаться в любое время. Будут ли ИИ-копии знаменитостей, таких как Том Брэди и Кендалл Дженнер, усугублять зависимость подростков от Instagram?

Не ждите, что Мета ответит на этот вопрос прямо сейчас. Понимание влияния чат-ботов и искусственного интеллекта позволит не только предотвратить ущерб целому поколению, но и избежать создания необоснованных страхов и принятия «невежественных правил» для решения «проблем». Представьте себе».

Безопасность детей в Интернете вызывает большую обеспокоенность у политиков и общественности, и в этой области будет предпринято больше регуляторных мер, чем в любой другой области регулирования Интернета.

Избегайте крайних атрибуций

Способ устранения пагубного воздействия онлайн-мира заключается не в том, чтобы быть слишком крайним и односторонним, а в том, чтобы иметь более всеобъемлющий взгляд. Например: лучше защищать конфиденциальность данных детей (важная часть иска Meta), не разрешать технологическим компаниям использовать информацию о юных пользователях, не привлекать детское любопытство вызывающими привыкание функциями и привлекательной рекламой; Усилить родительский надзор в чувствительном возрасте.

Указ Белого дома об искусственном интеллекте, изданный в прошлом месяце, содержал множество важных положений, касающихся безопасности и прозрачности в киберпространстве, но психическое здоровье детей было упущено из виду.

Кроме того, также должно быть больше технологических компаний, которые осмелятся исследовать безопасность своей продукции и пригласят к участию группы экспертов для принятия своевременных мер на основе результатов исследований, в первую очередь предупреждающих пользователей о потенциальном вреде продукта и предложить изменения конструкции, которые минимизируют вред, даже если этот шаг приведет к потере дохода в краткосрочной перспективе.

Итак, как реализовать это решение? Во-первых, давайте регулировать технологическую отрасль так же, как мы регулируем медицинскую и фармацевтическую отрасли. Если фармацевтические компании должны тестировать свои лекарства, технологические компании также должны тщательно тестировать и устанавливать безопасность своей продукции перед выпуском ее на рынок (это не обязательно применимо ко всем продуктам, но в первую очередь относится к продуктам, которые легко доступны для детей).

Технологическая индустрия утверждает, что такая осторожность значительно замедлит разработку продуктов, но недавние опросы по вопросам ИИ показывают, что это именно то, чего хочет общественность.

Если американцы могут дождаться вакцин во время смертельной пандемии, мы можем дождаться безопасных для детей чат-ботов. Цель состоит не в том, чтобы заставить технологические компании избавиться от «незаметных продуктов», а в том, чтобы подтолкнуть их к более тщательному проектированию продуктов, удалению функций, которые вредны для молодежи, и добавлению предупреждающих надписей, когда вы не уверены в безопасности.

(минь хоа: Андреа Де Сантис/Unsplash)

Реальность показывает, что технологические продукты не стоят на месте, а постоянно корректируются с течением времени. Их использование и эффекты также меняются от безвредных до вредных. Например, TikTok начинался как танцевальная платформа и стал источником новостей, развлечений, знаний и советов обо всем, что касается жизни. Поэтому постоянный мониторинг и исследование продукта являются обязательными.

Соединенные Штаты могут извлечь некоторые уроки из Закона о цифровых услугах, недавно принятого Европейским Союзом (ЕС), который требует от таких компаний, как Meta, проводить собственные оценки рисков и публиковать результаты, особенно риски для детей.

Этот закон также требует от технологических компаний предоставлять независимым сторонним исследователям доступ к данным платформы для проверки и оценки, избегая того, чтобы компании ставили себе хорошие оценки.

Намерение, лежащее в основе исков против Meta, является законным, но, наказывая компании за правонарушения, закон также избегает усугубления проблемы, заставляя компании занимать пассивную и невнимательную позицию.Будьте прозрачны в своих продуктах.

Перейти к эмитенту новости