Не заходит ли Бразилия слишком далеко, чтобы обуздать дезинформацию, генерируемую ИИ?

27 февраля Высший избирательный суд Бразилии утвердил 12 новых резолюций, регулирующих октябрьские муниципальные выборы, включая положения об использовании искусственного интеллекта кандидатами на государственные должности.

Чтобы снизить риски дезинформации, создаваемой искусственным интеллектом, суд принял упреждающую меру в обход традиционных демократических процессов. Этот шаг, сделанный, вероятно, целесообразный, вызывает обеспокоенность по поводу процесса и последствий таких быстрых действий.

Приняв эту меру, суд проигнорировал важность законодательных действий для адекватного решения этих проблем, проконсультировавшись с обществом и экономическими группами, на которых повлияет это регулирование.

Постановление № 23 732 требует, чтобы платформы социальных сетей несли солидарную ответственность за неспособность «немедленно сделать недоступным» контент или аккаунты, которые представляют «случаи риска» для честности выборов, такие как дезинформация и антидемократические действия.

Резолюция противоречит Бразильскому Биллю о правах в Интернете (так называемый Структура гражданских прав в Интернете), особенно со статьей, которая определяет судебный надзор до определения ответственности платформы. Таким образом, он отклоняется от важного существующего закона, вызывая обеспокоенность по поводу его совместимости с установленными правилами и потенциального воздействия на свободу слова.

В результате это оставляет возможность подавлять действительные публикации в социальных сетях и дает частным платформам чрезмерную власть над модерацией контента. Этот подход отличается от действующей правовой базы в отношении ответственности платформы за пользовательский контент, что потенциально может привести к осторожному удалению законного контента во избежание юридических проблем.

Резолюция призывает к «немедленному» удалению незаконного контента. Предполагая, что «немедленно» означает «одновременно», уместно спросить, относится ли это к моменту публикации, когда платформа отслеживает и обнаруживает контент, или к каждому моменту, когда пользователь о чем-то сообщает.

Диапазон возможностей широк, что позволяет предположить, что избирательный орган мог действовать, исходя из предпосылок, которые не соответствуют действительности.

Платформам поручено выявлять дезинформацию, как и изображения сексуального насилия над детьми или нарушений авторских прав. Тем не менее, это принципиально разные проблемы, связанные с необходимостью анализа контекста в случаях электоральной дезинформации.

Во время беспорядков 8 января 2023 года экстремисты использовали в социальных сетях кодовое название «Партия Сельмы» для планирования действий, подрывающих демократию. «Сельма» — это игра слов. сельва, португальский для джунглей. Это слово используется бразильскими военными как боевой клич.

Опора на ошибочные алгоритмы, склонные к предвзятости в отношении маргинализированных групп, еще больше усложняет эту проблему.

Учитывая сложность юридических толкований, ожидать безошибочной модерации, будь то со стороны автоматизированных систем или человеческого надзора, нереально.

Власть не терпит вакуума.

В отсутствие действий со стороны Конгресса, Высший избирательный суд вмешался в изучение новых законодательных подходов и моделей ответственности. В интервью судьи в суде назвали эти резолюции формой «тест-драйва» в момент выборов, который потенциально может распространить свое влияние на более широкий Интернет.

Этот сценарий может заставить человека, незнакомого с расстановкой сил в Бразилии, задаться вопросом, экспериментирует ли Верховный суд со своей ролью инновационной лаборатории или доверенного лица законодательной власти, проверяя политику перед ее всеобъемлющей реализацией.

Более 50 организаций гражданского общества и академических организаций в Бразилии собрались вместе, чтобы выразить обеспокоенность по поводу новых правил предвыборной рекламы в Интернете, которые игнорируют отзывы общественности. Не говоря уже о том, что поправка в избирательное законодательство должна была пройти законодательное одобрение.

Кто-то скажет, что это возмутительно. Но часто возмущение упускает из виду детальные сложности политических вопросов, предпочитая вместо этого преувеличенное искажение фактов и предсказания катастрофы.

Это не форма логической дискуссии, а скорее словесное состязание и политическое выступление, в ходе которого набираются очки. Мы должны выйти за рамки этого и перейти к сценарию, в котором законодатели и регулирующие органы во всем мире быстро устранят риски и потенциальные возможности, связанные с ИИ. Эти меры должны быть основаны на фактических данных и осуществляться демократическими способами, поддерживающими систему сдержек и противовесов, обеспечивающую справедливость и прозрачность управления ИИ.

Необходимость понимания и регулирования ИИ ощутима во всем мире.

Президент Бразилии Луис Инасиу Лула да Силва поручил Министерству науки и технологий разработать комплексный план по использованию ИИ, который будет представлен Генеральной Ассамблее Организации Объединенных Наций в сентябре.

США внедрили добровольные руководящие принципы и политику для укрепления своей индустрии искусственного интеллекта и конкуренции с амбициями Китая в области искусственного интеллекта.

Серьезный юридический спор возник, когда The New York Times подала в суд на OpenAI и Microsoft, заявив о нарушении авторских прав при обучении моделей ИИ, подчеркнув необходимость правовой переоценки ИИ.

Кроме того, дискуссии об искусственном интеллекте заняли центральное место на крупных международных форумах, в том числе на Всемирном экономическом форуме, где страны от Саудовской Аравии до Франции активизировали свои национальные стратегии в области искусственного интеллекта. В бизнесе значительные инвестиции в инициативы в области искусственного интеллекта заметно увеличили рыночную стоимость Nvidia до 2 триллионов долларов США, подняв американские фондовые индексы на новую высоту.

Европейский парламент также продвигает «Закон об искусственном интеллекте» — набор правил, направленных на регулирование использования искусственного интеллекта, ожидающих принятия Европейским советом с подробными сроками реализации.

Приближение сезона выборов усилило обеспокоенность по поводу роли искусственного интеллекта в распространении дезинформации и создании дипфейков. Во всем мире политики пытаются решить, как эффективно регулировать ИИ, особенно в контексте выборов.

С момента запуска ChatGPT в ноябре 2022 года дискуссия о безопасности ИИ расширилась от экзистенциальных рисков до более широкого спектра проблем, таких как модерация контента. Это расширение выгодно, но вызывает опасения, что политические соображения могут затмить важные, неполитические аспекты безопасности ИИ, как это видно из дебатов вокруг таких инициатив, как Gemini от Google.

Помимо непосредственных опасений по поводу электоральных рисков, существуют более глубокие и структурные дебаты относительно возможностей, которые предоставляет ИИ, и опасностей их игнорирования. Большая часть дискуссий об искусственном интеллекте и регулировании сосредоточена на рисках, которые, несомненно, имеют решающее значение.

Однако есть также возможности для изучения регулирования как средства использования возможностей. Комплексный подход к регулированию ИИ должен учитывать это, наряду с издержками пренебрежения, такими как задержки внедрения ИИ из-за отсутствия инвестиций или образования, которые могут быть довольно дорогими.

Этот разговор выходит за рамки границ, влияя на диалог между Бразилиа, Женевой и Вашингтоном. На прошлой неделе Бразильский институт Центра Вильсона провел важный частный брифинг для бразильских законодателей, посвященный сложностям регулирования и управления ИИ.

В сессии приняли участие такие эксперты, как Келли Уикер, Прем М. Триведи, Гэри Корн и Гордон Лафорж, а также видная группа представителей Конгресса Бразилии, исполнительной власти и частного сектора.

Делегация была организована Movimento Brasil Competitivo и включала членов Сената Бразилии, представителей частного сектора и гражданского общества, что подчеркнуло широкий интерес и обеспокоенность по поводу управления и нормативной базы ИИ. Активное участие ученых и исследователей в этих дискуссиях имеет жизненно важное значение для преодоления разрыва между достижениями в области ИИ и мерами регулирования, обеспечивая информированное и эффективное управление ИИ.

Дискуссия была сосредоточена на различных подходах, которые правительства применяют для управления ИИ. Несмотря на консенсус среди экспертов о том, что полностью автономный ИИ является скорее умозрительным, чем непосредственным, неоспоримый быстрый прогресс технологии ИИ сместил дискуссию с того, примет ли общество ИИ, на то, как он будет реализован.

Регуляторы и политики признают, что сдерживание ИИ вообще нереально. Усилия на национальном и международном уровнях направлены на создание эффективных рамок управления для упреждающего реагирования на эволюцию ИИ. Тем не менее, существует заметное отставание в нормативных мерах, не позволяющих идти в ногу с быстрым развитием ИИ, что подчеркивает решающую роль ученых и исследователей в преодолении этого разрыва.

Их вклад имеет жизненно важное значение для разработки политики, которая способствует безопасному, творческому и стабильному внедрению ИИ в общество.

Гэри Корн, который привнес в дискуссию обширный военный опыт, особенно в контексте национальной безопасности, подчеркнул, что сложная природа ИИ требует детального регулирования. Он подчеркнул важность соблюдения принципов, основанных на ценностях, в управлении ИИ, предостерегая от рисков препятствования инновациям чрезмерным регулированием.

Более того, он подчеркнул важность поддержания целостности данных в моделях ИИ и ключевую роль ИИ в повышении кибербезопасности, указав на сложную взаимосвязь между технологическим прогрессом и общественным благополучием.

Дискуссия о регулировании ИИ и его влиянии на общество многогранна. Речь идет не только о технологических компаниях; речь идет о том, как он изменит сельское хозяйство, здравоохранение и образование. Признание этого широкого воздействия имеет решающее значение для вовлечения всего общества в дебаты, балансируя между необходимостью снижения рисков и необходимостью использовать возможности.

Размышляя о дискуссиях, прошедших в Вашингтоне с бразильской делегацией после визитов в аналитические центры, такие как Центр Вильсона, Белый дом, Конгресс, частные компании и стартапы, становится очевидным, что для решения сложных проблем необходим детальный подход. ИИ.

Эта стратегия включает в себя принятие всеобъемлющего законодательства, создание государственных ресурсов искусственного интеллекта для широкого доступа, постоянный технологический прогресс и структуру международного управления, подчеркивающую общее благо.

Общей точкой зрения среди посещенных заинтересованных сторон является то, что все они были привержены осуществлению политики, которая включает в себя инвестиции в инфраструктуру и инновации, развитие человеческого капитала для рабочей силы, наделенной искусственным интеллектом, и обеспечение универсальной доступности искусственного интеллекта для решения социальных и экономических проблем, одновременно создавая нормативно-правовая база для поддержки надежной экосистемы ИИ.

Ключевой вывод заключается в том, что успешное управление взаимосвязанным будущим искусственного интеллекта и общества требует инновационной политики и твердой приверженности поддержке демократических ценностей.

Перейти к эмитенту новости