Распространяются изображения сексуального насилия над детьми, созданные искусственным интеллектом; власти спешат остановить это

ВАШИНГТОН (АП) – Детский психиатр, который изменил фотографию первого школьного дня, которую он увидел на Facebook, чтобы группа девочек выглядела обнаженной. Солдат армии США обвиняется в создании изображений, изображающих детей, которых он знал, подвергающихся сексуальному насилию. Инженер-программист обвиняется в создании гиперреалистичных изображений детей откровенно сексуального характера.

Правоохранительные органы по всей территории Соединенных Штатов борются с тревожным распространением изображений сексуального насилия над детьми, созданных с помощью технологий искусственного интеллекта — от манипулируемых фотографий реальных детей до графических изображений детей, созданных компьютером. Чиновники Министерства юстиции заявляют, что они агрессивно преследуют преступников, которые используют инструменты искусственного интеллекта, в то время как штаты стремятся гарантировать, чтобы люди, создающие «глубокие фейки» и другие вредоносные изображения детей, могли подвергаться судебному преследованию в соответствии с их законами.

Распространяются изображения сексуального насилия, созданные ИИ. Правоохранительные органы пытаются их остановить (через AP)

«Нам необходимо как можно раньше и чаще сигнализировать о том, что это преступление, что оно будет расследовано и привлечено к ответственности, когда доказательства подтвердят это», — сказал Стивен Гроки, возглавляющий отдел Министерства юстиции по эксплуатации детей и непристойности, в интервью The. Ассошиэйтед Пресс. «И если вы сидите и думаете иначе, вы в корне ошибаетесь. И это только вопрос времени, когда кто-то привлечет вас к ответственности».

Министерство юстиции заявляет, что существующие федеральные законы явно применимы к такому контенту, и недавно возбудило, как полагают, первое федеральное дело, связанное с изображениями, созданными исключительно с помощью искусственного интеллекта, то есть изображенные дети не настоящие, а виртуальные. В другом случае федеральные власти в августе арестовали американского солдата, дислоцированного на Аляске, по обвинению в хранении изображений невинных реальных детей, которых он знал, с помощью чат-бота с искусственным интеллектом, чтобы сделать изображения откровенно сексуальными.

Пытаюсь догнать технологии

Преследования начались, когда защитники прав детей отчаянно пытаются обуздать злоупотребление технологиями, чтобы остановить поток тревожных изображений, которые, как опасаются чиновники, могут затруднить спасение реальных жертв. Чиновники опасаются, что следователи потратят время и ресурсы, пытаясь выявить и выследить эксплуатируемых детей, которых на самом деле не существует.

Тем временем законодатели принимают множество законов, гарантирующих, что местные прокуроры смогут выдвигать обвинения в соответствии с законами штата за созданные ИИ «глубинные фейки» и другие изображения детей откровенно сексуального характера. Согласно обзору Национального центра по делам пропавших и эксплуатируемых детей, в этом году губернаторы более чем дюжины штатов подписали законы против созданных или измененных в цифровом формате изображений сексуального насилия над детьми.

«Как правоохранительные органы, мы догоняем технологию, которая, честно говоря, развивается намного быстрее, чем мы», — сказал окружной прокурор округа Вентура, штат Калифорния, Эрик Насаренко.

Насаренко продвинул закон, подписанный в прошлом месяце губернатором Гэвином Ньюсомом, который объявляет созданные ИИ материалы о сексуальном насилии над детьми незаконными в соответствии с законодательством Калифорнии. Насаренко заявил, что его офис не смог возбудить уголовное дело по восьми делам, связанным с контентом, созданным искусственным интеллектом, в период с декабря прошлого года по середину сентября, поскольку закон Калифорнии требовал от прокуроров доказать, что на изображениях изображен настоящий ребенок.

По словам сотрудников правоохранительных органов, изображения сексуального насилия над детьми, созданные с помощью искусственного интеллекта, могут быть использованы для обучения детей. И даже если они не подвергаются физическому насилию, дети могут сильно пострадать, когда их образ будет изменен и станет выглядеть откровенно сексуально.

«Я чувствовал, что часть меня забрали. Несмотря на то, что меня не подвергали физическому насилию», — сказала 17-летняя Кейлин Хейман, которая снялась в шоу канала Disney Channel «Just Roll with It» и помогла продвинуть законопроект Калифорнии после того, как стала жертвой «дипфейковых» изображений.

В прошлом году Хейман давала показания на федеральном суде над мужчиной, который с помощью цифровых технологий наложил ее лицо и лица других детей-актеров на тела, совершающие сексуальные действия. В мае его приговорили к более чем 14 годам лишения свободы.

По словам экспертов, модели искусственного интеллекта с открытым исходным кодом, которые пользователи могут загрузить на свои компьютеры, как известно, предпочитают преступники, которые могут дополнительно обучить или модифицировать инструменты для загрузки откровенных изображений детей, говорят эксперты. По словам чиновников, злоумышленники обмениваются советами в сообществах даркнета о том, как манипулировать инструментами искусственного интеллекта для создания такого контента.

В прошлогоднем отчете Стэнфордской интернет-обсерватории было обнаружено, что набор исследовательских данных, который был источником для ведущих разработчиков изображений ИИ, таких как Stable Diffusion, содержал ссылки на откровенно сексуальные изображения детей, что способствовало легкости, с которой некоторые инструменты могли их создавать. вредные изображения. База данных была выведена из эксплуатации, и позже исследователи заявили, что удалили из нее более 2000 ссылок на предполагаемые изображения сексуального насилия над детьми.

Ведущие технологические компании, в том числе Google, OpenAI и Stability AI, договорились сотрудничать с организацией Thorn, выступающей против сексуального насилия над детьми, для борьбы с распространением изображений сексуального насилия над детьми.

Но эксперты говорят, что изначально нужно было сделать больше для предотвращения злоупотреблений, прежде чем технология стала широко доступной. А шаги, которые компании сейчас предпринимают, чтобы затруднить вмешательство в будущие версии инструментов искусственного интеллекта, «мало что сделают, чтобы помешать» злоумышленникам запускать старые версии моделей на своих компьютерах «незамеченным», отметил прокурор Министерства юстиции в недавних судебных документах.

«Время было потрачено не на то, чтобы сделать продукты безопасными, а на то, чтобы сделать их эффективными, и это очень сложно сделать постфактум, как мы видели», — сказал Дэвид Тиль, главный технолог Стэнфордской Интернет-обсерватории.

Изображения с помощью ИИ становятся более реалистичными

CyberTipline Национального центра по делам пропавших и эксплуатируемых детей в прошлом году получил около 4700 сообщений о контенте, связанном с технологиями искусственного интеллекта — небольшая часть из более чем 36 миллионов сообщений о подозрениях в сексуальной эксплуатации детей. По состоянию на октябрь этого года группа подавала около 450 отчетов в месяц о контенте, связанном с искусственным интеллектом, сообщил Йота Сурас, главный юрисконсульт группы.

Однако эти цифры могут быть ниже, поскольку изображения настолько реалистичны, что часто трудно сказать, были ли они созданы искусственным интеллектом, говорят эксперты.

«Следователи тратят часы, пытаясь определить, действительно ли изображение изображает настоящего несовершеннолетнего или оно создано искусственным интеллектом», — сказала Риколе Келли, заместитель окружного прокурора округа Вентура, которая помогала писать законопроект Калифорнии. «Раньше были некоторые действительно четкие индикаторы… с развитием технологий искусственного интеллекта это уже не так».

Чиновники Министерства юстиции заявляют, что в соответствии с федеральным законом у них уже есть инструменты для преследования преступников из-за таких изображений.

Верховный суд США в 2002 году отменил федеральный запрет на виртуальные материалы о сексуальном насилии над детьми. Но федеральный закон, подписанный в следующем году, запрещает создание визуальных изображений, в том числе рисунков, детей, демонстрирующих откровенно сексуальное поведение, которое считается «непристойным». В этом законе, который, по словам Министерства юстиции, использовался в прошлом для обвинения карикатур на сексуальное насилие над детьми, особо отмечается, что не существует требования, «что изображенный несовершеннолетний действительно существует».

Министерство юстиции выдвинуло это обвинение в мае против инженера-программиста из Висконсина, обвиненного в использовании инструмента искусственного интеллекта Stable Diffusion для создания фотореалистичных изображений детей, демонстрирующих откровенно сексуальное поведение, и было поймано после того, как он отправил некоторые из них 15-летнему мальчику по прямой почтовой рассылке. . сообщение в Instagram, сообщают власти. Адвокат этого человека, который настаивает на снятии обвинений на основании Первой поправки, отказался от дальнейших комментариев по поводу обвинений в электронном письме AP.

Представитель Stability AI сообщил, что мужчину обвиняют в использовании более ранней версии инструмента, выпущенного другой компанией Runway ML. Компания Stability AI заявляет, что с тех пор, как взяла на себя эксклюзивную разработку моделей, она «инвестировала в превентивные функции для предотвращения неправильного использования ИИ для производства вредоносного контента». Представитель Runway ML не сразу ответил на запрос AP о комментариях.

В случаях, связанных с «дипфейками», когда фотография реального ребенка была изменена в цифровом формате, чтобы сделать ее откровенно сексуальной, Министерство юстиции выдвигает обвинения в соответствии с федеральным законом о «детской порнографии». В одном случае детский психиатр из Северной Каролины использовал ИИ. Приложение для цифрового «раздевания» девочек, позирующих в первый день в школе на фотографии десятилетней давности, опубликованной в Facebook, было осуждено по федеральным обвинениям в прошлом году.

«Эти законы существуют. Они будут использованы. У нас есть воля. У нас есть ресурсы», – сказал Гроки. «Это не будет второстепенным приоритетом, который мы игнорируем, потому что в этом нет реального ребенка».



Перейти к эмитенту новости