Начальник управления цифровизации главного управления цифрового развития предварительного следствия Следственного комитета Петр Зарецкий рассказал корреспонденту БЕЛТА о том, как мошенники используют искусственный интеллект для совершения преступлений.
«Влияние искусственного интеллекта на безопасность личности, общества и государства носит двойственный характер. Правоохранительные и иные госорганы большинства стран активно используют ИИ-системы для укрепления правопорядка, профилактики и расследования преступлений, а также для повышения эффективности своей работы. Такие технологии, как распознавание лиц и автомобильных номеров, преобразование речи в текст и улучшение качества аудио- и видео материалов доказали свою высокую эффективность в работе отечественных «электронных стражей порядка», – рассказал Петр Зарецкий.
Но есть и другая сторона медали. «Криминальные структуры также активно осваивают искусственный интеллект, находя ему применение в преступных целях. Так, в Беларуси были зарегистрированы преступления, основанные на технологии deep-fake: мошенники с помощью нейросетей создавали голос и видеооблик родственника жертвы, что заставляло людей передавать им значительные средства. Другой метод – масштабная рассылка в интернете рекламы с поддельными обращениями руководителей, представителей бизнеса и публичных лиц, заманивающих в финансовые пирамиды», – подчеркнул представитель Следственного комитета.
И это характерно не только для Беларуси. «Искусственный интеллект открывает новые возможности для преступной деятельности. В мире фиксируются случаи, когда с помощью фальшивых видео злоумышленники успешно проходят проверки банковских антифрод-систем. Автоматизация достигает такого уровня, что мошеннические кол-центры работают на основе ИИ, который самостоятельно ведет диалоги с десятками абонентов, вычисляет наиболее уязвимых и лишь в критический момент передает разговор реальному аферисту. При этом современные технологии резко снизили требуемый для киберпреступлений уровень навыков: создание фишингового сайта-двойника теперь возможно за несколько часов работы с ChatGPT. Растет и применение ИИ в таких опасных сферах, как разработка компьютерных вирусов, генерация детской порнографии и изготовление компрометирующих фейковых материалов», – отметил начальник управления.
Как обезопасить себя от преступных уловок, созданных с помощью ИИ?
«В современном мире к любому медиаконтенту следует относиться с крайним недоверием. Принцип «не верь глазам своим» стал актуальным как никогда. Представьте: во время видеозвонка ваша бабушка со слезами умоляет срочно передать ей деньги через курьера. Высока вероятность, что это мошенник. Подлинность подобных ситуаций легко проверить: просто перезвоните близкому человеку по известному вам номеру или предложите встретиться лично. Если собеседник начнет уклоняться от встречи – это верный признак обмана», – подчеркнул Петр Зарецкий.
Он также указал на то, что для копирования голоса или создания видеодвойника, необходим исходный материал, которого современные молодые люди (да и не только молодые) оставляют в сети слишком много. «Ваша цифровая безопасность находится в обратной зависимости от объема личной информации, доступной в сети. Чем меньше данных о вас известно интернету, тем выше ваша защищенность», – резюмировал представитель Следственного комитета.
Источник: https://sk.gov.by/ru/news-ru/view/lovushki-tsifrovoj-epoxi-kak-moshenniki-vossozdajut-golos-i-vneshnost-vashix-znakomyx-15467/
