Минное поле ИИ в битве с дезинформацией.

После того, как законодательные органы столкнулись с фейковыми новостями, правительству Малайзии необходимо решить еще более сложную задачу.

Быстрое развитие генеративного искусственного интеллекта вызвало опасения по поводу его потенциала способствовать распространению дезинформации.

С момента запуска ChatGPT компанией OpenAI в ноябре 2022 года появилось множество генеративных платформ искусственного интеллекта, таких как ChatGPT-4 и другие подобные инструменты, такие как Bard от Google и, совсем недавно, Grok от Илона Маска.

Способность генеративного ИИ создавать убедительный контент стирает грань между человеческим и машинным контентом, подчеркивая важность восстановления доверия к производству новостей.

Текущие глобальные дискуссии об управлении ИИ и стандартах надежного и ответственного ИИ пересекаются с озабоченностью по поводу сохранения журналистской честности и обеспечения надежности информации, доступной общественности.

Эти мощные технологии выводят на новый уровень сложности задачу борьбы с ложной информацией в средствах массовой информации, с которой Малайзия боролась уже много лет.

Малайзия рассматривает возможность регулирования приложений и платформ ИИ, охватывая такие важные аспекты, как конфиденциальность данных и осведомленность общественности об использовании ИИ. Законодательство не будет препятствовать развитию технологий искусственного интеллекта. Речь идет о балансе управления рисками и стимулировании инноваций, чтобы обеспечить дальнейшее положительное влияние ИИ на экономику и общество.

В 2018 году правительство Малайзии приняло Закон о борьбе с фейковыми новостями 2018 года для борьбы с ростом фейковых новостей, но критики заявили, что этот закон был разработан, чтобы подавить инакомыслие в преддверии всеобщих выборов 2018 года. Закон был отменен через год.

Затем, в разгар пандемии COVID-19, был принят новый закон о борьбе с фейковыми новостями. Законопроект о чрезвычайных (основных полномочиях) (№ 2) вступил в силу в марте 2021 года, но был отменен в том же году. Его заявленная цель заключалась в противодействии дезинформации о COVID и приказах о чрезвычайной изоляции.

Малайзия представила Национальную дорожную карту искусственного интеллекта на 2021-2025 годы, в которой особое внимание уделяется управлению ИИ. Первая версия принципов ответственного ИИ включает семь пунктов, в которых основное внимание уделяется справедливости, надежности, безопасности и контролю, конфиденциальности и защищенности, инклюзивности, стремлению к человеческим благам и счастью, подотчетности и прозрачности. Документ предполагает постоянное обновление в соответствии с Федеральной конституцией и Рукун Негара (Национальными принципами).

Цель этих принципов состоит в том, чтобы разработчики и разработчики инструментов ИИ могли использовать их, например, при обучении системы с большими наборами данных. Их цель — избежать предвзятости и гарантировать, что прогнозируемые результаты систем искусственного интеллекта не противоречат ценностям конституции и Рукун Негара.

Планы по работе над механизмами управления ИИ начнутся в 2024 году, особенно над этической основой ответственного ИИ, касающейся генеративных инструментов ИИ в производстве новостей. Эти рекомендации будут распространяться на различные сектора, такие как правительственные учреждения, традиционные СМИ, онлайн-порталы и социальные сети, уделяя особое внимание образованию и осведомленности об этических последствиях ИИ в журналистике.

DALLE и Midjourney от Open AI используют искусственный интеллект для создания рисунков и визуальных эффектов. Эти модели способны создавать текст и изображения при разработке новостного контента и информации. Это не означает, что новостные организации не использовали инструменты искусственного интеллекта раньше, чем модели генеративного искусственного интеллекта и чат-боты. Возьмем, к примеру, Associated Press, использующее инструменты искусственного интеллекта для сбора, производства и распространения новостей.

В отчете JournalismAI, опубликованном в 2019 году, освещены этические проблемы, связанные с использованием инструментов искусственного интеллекта в журналистике. Однако несколько новостных агентств, таких как Wired и The Guardian, опубликовали свои собственные рекомендации по использованию инструментов искусственного интеллекта при создании своего контента.

Они указывают на различные риски, которые могут иметь вредные последствия для читателей, включая создание неточного, сфабрикованного, устаревшего или оскорбительного контента. Эти риски могут усугубляться, когда инструменты генеративного искусственного интеллекта используются немедийными организациями. В Европе и США высказываются опасения по поводу использования дипфейков для угрозы демократическим процессам.

Риск дезинформации и ее последствия для общества также поднимают вопрос об ответственности. Необходимость установить ограждения занимает центральное место в дебатах, особенно когда модели генеративного искусственного интеллекта приближаются к более человечному уровню, такие как Grok, на который, как утверждает Маск, можно ответить с юмором.

На этом раннем этапе развития управления ИИ необходимо привлечь разработчиков, правительства и регулирующие органы, средства массовой информации и гражданское общество. Разработчики таких инструментов, как OpenAI, осознают потенциал «дезинформации», исследуя, как большие языковые модели могут быть неправильно использованы в целях дезинформации, и рассматривают шаги по снижению рисков.

К сожалению, были случаи злоупотреблений, например, когда анонимный пользователь массово распространял дезинформацию, генерируемую ИИ.

Правительства и лидеры отрасли должны сыграть свою роль в устранении рисков, связанных с генеративным ИИ. Саммит по безопасности ИИ, организованный правительством Великобритании в ноябре, признал необходимость проверки безопасности инструментов ИИ, но участники также подчеркнули, что чрезмерное регулирование может сдерживать рост ИИ.

Примечательно, что 28 стран, включая Великобританию, Китай и США, согласились с Декларацией Блетчли о безопасности ИИ, причем Великобритания и США объявили о создании институтов безопасности ИИ. Подписавшиеся стороны разделили общие взгляды на преобразовательный потенциал ИИ, отметив при этом его способность усиливать угрозы, такие как дезинформация, и, следовательно, необходимость проектирования, разработки и внедрения ИИ на основе набора стандартов.

Генеративные инструменты искусственного интеллекта, производящие дезинформацию, ведущую к вреду – например, дискриминацию в результате предвзятости или рассматриваемые как вредные высказывания, влияющие на группы по признаку расы, этнической принадлежности, пола или инвалидности – могут столкнуться с гневом из-за надвигающегося Закона ЕС об искусственном интеллекте, который станет первый закон такого рода.

Пока политики и законодатели обдумывают следующий шаг, существуют некоторые разногласия по поводу того, приведет ли генеративный ИИ к натиску дезинформации. Исследователи утверждают, что «нынешние опасения по поводу воздействия генеративного ИИ на ландшафт дезинформации преувеличены».

Несмотря на то, что по этому вопросу возникают противоположные мнения, появляется все больше рекомендаций для журналистов по использованию ИИ во всех аспектах своей работы, включая минимизацию риска дезинформации. Одним из примеров являются Глобальные принципы искусственного интеллекта Всемирной ассоциации издателей новостей и последняя публикация «Репортёров без границ» — Парижская хартия по искусственному интеллекту и журналистике.

По мере того, как журналисты учатся ответственно использовать инструменты искусственного интеллекта, одна ценность остается неизменной — уважение свободы слова и выражения, а также права на информацию.

Достоверность новостей является краеугольным камнем этих прав. Чтобы гарантировать, что это так, основные средства массовой информации и журналисты в Малайзии должны подумать о новых барьерах с наступлением новой эры.

Джаспал Каур Садху Сингх является старшим преподавателем права Кентерберийского университета Крайст-Черч, Великобритания. Она специализируется на пересечении технологического права с упором на свободу выражения мнений, а также права и этики в области искусственного интеллекта.

Первоначально опубликовано под Творческое сообщество к 360инфо.

Минное поле поста ИИ в битве с дезинформацией. впервые появился на 360.

Перейти к эмитенту новости