Число случаев голосового мошенничества с использованием искусственного интеллекта растет: «Голос мошенника был точно таким же, как у моего племянника»

Мошенники начали использовать технологию искусственного интеллекта (ИИ), чтобы обмануть ничего не подозревающих жертв, как видно из недавнего инцидента. У 70-летнего мужчины из Андхери обманули 3,7 лакха рупий. Мошенник использовал искусственный интеллект, чтобы совершить клонированный голосовой звонок, выдавая себя за племянника мужчины, живущего в США. Клонированным голосом племянника заявителя мошенник заявил, что его похитили и что его паспорт будет уничтожен, если он не заплатит.

Истец по делу, Джасвант Сингх Калси, является подрядчиком по электромонтажу и проживает в Дж. Б. Нагаре в восточном Андхери. Он сообщил полиции, что мошенник клонировал голос его племянника Дживана Сингха, чтобы заставить его перевести деньги на определенный счет. Полиция Андхери зарегистрировала FIR против неизвестного мошенника и в ходе расследования обнаружила, что 3,7 лакха рупий были переведены на счет, исходящий из Дели, после чего в течение нескольких минут они были переведены на несколько счетов.

По данным полиции, инцидент произошел 15 января, когда Калси позвонили с неизвестного номера, и звонивший говорил как ее племянник Дживан. Звонивший представился Дживаном и сообщил, что отправил на счет Калси 10 лакхов. Он поручил Калси не сообщать отцу о деньгах. Затем он упомянул, что приедет в Мумбаи 22 января. Через несколько минут мошенник позвонил снова, на этот раз представившись сотрудником банка и заявив, что получено 10 лакхов.

1. Джасванту Сингху Калси звонит мошенник, назвавшийся его племянником (Дживаном), живущим в США, и сообщает, что переводит 10 лакхов рандов на свой банковский счет; 2. Калси получает еще один звонок от мошенника, выдающего себя за Дживана, и, как было сказано, переводит 3,7 лакха рандов на указанный счет; он также отправляет Дживану скриншот транзакции; 3. Дживан, который присутствовал на встрече во время транзакции, проверяет свой телефон и связывается с Калси, говоря, что он не отправлял ему никаких денег и не просил наличные; 4. Калси понимает, что его обманули на 3,7 лакха с использованием технологии искусственного интеллекта, после чего он обратился в полицию, чтобы подать жалобу. Иллюстрации/Удай Мохите

Вспоминая об этом инциденте, Калси сказал: «Через несколько минут мне позвонили еще раз с неизвестного международного номера. Звонивший представился моим племянником Дживаном и сказал, что его похитил человек по имени Джагмохан, который также забрал его паспорт. Мошенник говорил голосом, похожим на голос моего племянника, и это звучало так же, как он разговаривает со мной каждый день. Он сообщил мне, что Джагмохан забрал его паспорт и не сможет вернуться в Мумбаи 22 января».

Все еще разговаривая с Калси голосом своего племянника, мошенник затем сказал ему перевести 3,7 рупий из 10 лакхов рупий, которые он ранее перевел на свой счет. «Я отправил деньги на указанный счет, а также отправил квитанцию ​​о переводе на мобильный телефон племянника. Прежде чем отправить деньги, я попыталась позвонить племяннику, но он отклонил мои звонки», — пояснил Калси.

Несколько часов спустя Дживан позвонил Калси и спросил о квитанции, которую он отправил. Калси объяснил всю ситуацию, после чего Дживан объяснил, что не разговаривал с ним, потому что был занят на встрече, и поэтому отклонил его звонки. Затем Калси сообщил об этом полиции, которая обнаружила, что деньги были переведены на несколько счетов и затем сняты.

Ритеш Бхатия, эксперт по кибербезопасности и Прашант Малио, активист

С помощью ИИ можно клонировать голоса людей и даже использовать их на разных языках или преобразовывать в разговоры. Многие YouTube-пользователи и влиятельные лица в социальных сетях используют эту технологию для создания контента, используя голоса знаменитостей, политиков и других людей. Хотя эта технология также облегчает проверку грамматики и другие полезные функции, мошенники теперь используют ее, чтобы обмануть людей.

Офицер полиции заявил: «Мы зарегистрировали FIR в соответствии с разделами 419 и 420 IPC и различными разделами Закона об информационных технологиях против неизвестного мошенника. Для нас это новый вопрос, и мы обращаемся за помощью к киберполиции, чтобы поймать мошенника. обвиняемый.”

Дипфейки и другие злоупотребления ИИ

С помощью ИИ люди создали «глубокие фейки», в которых лица и голоса людей используются для создания видео- и аудиоконтента. Легендарный игрок в крикет Сачин Тендулкар также стал жертвой дипфейкового видео. На X (ранее Twitter) Тендулкар сообщил, что в социальных сетях гуляет фейковое видео, на котором он продвигает мобильное приложение.

«Эти видео — фейк. Вызывает беспокойство наблюдать безудержное злоупотребление технологиями. Попросите всех сообщать о видео, рекламе и подобных приложениях в больших количествах. Платформы социальных сетей должны быть бдительны и реагировать на жалобы. Быстрые действия с их стороны имеют решающее значение для остановить распространение дезинформации и глубоких фейков”, – написал Тендулкар в Твиттере.

Ранее знаменитости Болливуда Рашмика Мандана, Алия Бхатт и Приянка Чопра также выступили против дипфейковых видео.

Экспертное мнение

По словам эксперта по кибербезопасности Ритеша Бхатиа, общедоступные профили в социальных сетях используются мошенниками для получения личной информации. «Люди публикуют фотографии с мероприятий и отмечают их такими сообщениями, как «спасибо, мамаджи, джиджаджи и т. д. Мошенники часто используют их, чтобы нацеливаться на людей, создавая глубокие фейковые видео и аудио с использованием технологии искусственного интеллекта».

Адвокат Прашант Мали, кибер-юрист Высокого суда Бомбея, заявил: «Поддельное аудио — это реальность, и точно такого же голоса можно добиться с помощью голосовых манипуляций на основе искусственного интеллекта. Если кто-то станет жертвой таких преступлений, разделы 66C и 66D Закона об информационных технологиях , 2000, применимы вместе с разделом 420 IPC. Чтобы избежать мошенничества, часто помогает обратный звонок тому же человеку или родственникам/друзьям. Я считаю, что люди всегда должны помнить о возможности глубокого аудио или видео, поскольку технология стала легко доступной. инструмент для преступников».

Метод «POV» для профилактики

Бхатия говорит, что люди должны использовать метод «POV», чтобы быть в безопасности. «Здесь «P» означает паузу: вы должны сделать паузу, подождать и ничего не делать. «О» означает нулевое доверие, если вам звонят такие добрые слова. В таких случаях не доверяйте человеку и ждите более подробной информации. «Ви» проверен родственниками и другими источниками. Мы используем этот простой метод для распространения информации. Люди легко доверяют людям в Интернете, и мы забываем наши основы. Никогда не доверяйте таким звонкам и не принимайте их во внимание».

70 лет
Возраст человека, которого обманули

Перейти к эмитенту новости