Deepfake: почему бизнесу стоит напрячься
Наверняка, вы не раз слышали о Deepfake – это технология подделки изображений в основе которой лежит искусственный интеллект. По сути, с её помощью можно выдать себя за другого человека: скопировать его внешность, мимику и голос. Только представьте, количество поддельных видео в Интернете удвоилось менее чем за год, с почти 8 тыс. в 2018 году до более 14 тыс. в 2019. Причем здесь бизнес, спросите вы? Кибермошенники всегда держат руку на пульсе, и они не упустят шанс использовать deepfake-технологию в своих преступлениях.
Современный обман
В прошлом году на экраны вышел британский мини-сериал «Захват» (The Capture), в котором показали во всей красе как с помощью детально продуманного плана и deepfake-видео можно обвинить человека в убийстве, которое он не совершал. Но эта технология используется не только в кино, а также для пранка политиков и звезд Голливуда. Мы когда-то рассказывали как искусственный интеллект помог киберпреступникам получить 200 тыс. фунтов стерлингов. Мошенники максимально точно воссоздали голос, тембр и акцент руководителя одной из европейских компаний и по телефону попросили одного из подчиненных срочно перевести деньги на указанный счет. Подделка была настолько качественной, что человек на другом конце провода ничего не заподозрил и выполнил просьбу.
Кому же в бизнесе стоит быть начеку? Любой компании, которая располагает значительным капиталом. Возьмем, к примеру, банки. Они хранят огромное количество данных о клиентах, и кража этой информации, а также активов повлечет пагубные последствия. Финансовые и репутационные потери неизбежны. Неудивительно, что банки, одни из первых кто ищут новые надежные решения для кибербезопасности. Сейчас в большинстве финучереждениях при создании новых учетных записей в Интернете требуется не только удостоверение личности, но и селфи, чтобы установить цифровую идентичность человека. Однако, если киберпреступник захочет выдать себя за владельца счёта, он может использовать deepfake-технологию для создания поддельного видео/фото. Большинство решений для распознавания настоящих лиц, представленных сегодня на рынке, требуют от пользователя подвигать глазами, кивнуть головой или повторить слова/числа. Но и это тоже можно обойти с помощью deepfake.
Сейчас подделки в основном используют для политической сатиры или чтобы показать лицо известной актрисы в порно фильме, но это лишь вопрос времени, когда киберпреступники начнут активно пользоваться deepfake-технологией для обмана бизнеса. Что же делать? Новейшие биометрические технологии на основе искусственного интеллекта вместе с сертифицированной системой распознавания живого существа (liveness detection), дадут компаниям шанс предотвратить несанкционированный доступ к своим системам и смягчить последствия в случае успешной кибератаки.