Какие риски несет генеративный искусственный интеллект и как бизнес может защитить себя?
ChatGPT и его конкуренты сделали генеративный искусственный интеллект (ИИ) мейнстримом. Генеративный искусственный интеллект, позволяющий пользователям создавать, комбинировать и переделывать контент, считается преобразующей технологией для бизнеса.
Однако по мере роста использования генеративного искусственного интеллекта растут и опасения по поводу кибербезопасности, поскольку эта технология способна проводить более целенаправленные кибератаки. Хакеры могут использовать генеративный искусственный интеллект для составления эффективных фишинговых писем, а эта технология делает дипфейки еще более убедительными.
Создание вредоносного ПО также упрощается с помощью генеративного искусственного интеллекта. Например, в 2020 году исследователи обнаружили новый тип вредоносного ПО под названием DeepLocker, который использовал генеративный искусственный интеллект для создания уникальных методов запутывания, что затрудняло обнаружение и блокировку инструментами безопасности.
Злоумышленники используют готовые библиотеки и платформы машинного обучения, такие как TensorFlow или PyTorch, для создания генеративных моделей, говорит эксперт по кибербезопасности компании Mainton. «Эти инструменты широко доступны и просты в использовании, что снизило входной барьер для злоумышленников, желающих использовать ИИ в своих атаках».
Существует несколько типов генеративного ИИ, каждый из которых потенциально может использоваться в кибератаках. Так какие же новые риски представляют собой различные типы генеративного искусственного интеллекта и как предприятия могут защитить себя по мере развития технологий?
Генеративный искусственный интеллект на основе текста
Генеративный искусственный интеллект на основе текста, такой как ChatGPT, помогает сделать фишинговые атаки гораздо более изощренными и трудными для обнаружения. «Кампании с использованием искусственного интеллекта могут создавать высоко персонализированные электронные письма, обеспечивая масштабный целенаправленный фишинг», — говорит старший архитектор решений в компании Mainton.
Поскольку текстовые генеративные модели искусственного интеллекта в настоящее время являются наиболее зрелыми, эксперты говорят, что этот тип атаки будет иметь наибольший эффект в ближайшем будущем. Их можно использовать для создания персонализированных фишинговых писем или кампаний по дезинформации об организации или отдельном лице.
По словам главного консультанта по решениям компании Mainton, с помощью текстового генеративного искусственного интеллекта в будущем можно будет усовершенствовать возможности интерактивного чата, чтобы автоматически нацеливаться на компании через их службы веб-чата.
Генеративный искусственный интеллект на основе видео
В дальнейшем генеративный искусственный интеллект на основе видео может усилить глубокие фейковые атаки, чтобы заставить сотрудников перевести большие суммы денег преступникам. Например, злоумышленник может использовать генерацию видео для создания дипфейка руководителя компании для атак с помощью социальной инженерии или для распространения дезинформации.
В качестве альтернативы злоумышленник может использовать модель генерации видео для создания фальшивых кадров, на которых генеральный директор инструктирует сотрудников переводить деньги или раскрывать конфиденциальную информацию. Видеомодели могут использоваться для обхода мер безопасности с распознаванием лиц при атаках на основе личных данных или для выдачи себя за сотрудников компании при спуфинговых атаках.
Генеративный искусственный интеллект на основе аудио
Клонирование голоса — это лишь одно из применений генеративного искусственного интеллекта на основе звука, и легко понять, как его можно использовать в гнусных целях. Злоумышленник может использовать аудиосистемы для создания убедительного голосового фишингового звонка, который выглядит как источник, которому доверяют, например банк или компания-эмитент кредитных карт.
В качестве альтернативы злоумышленник может использовать модель генерации звука для создания поддельного аудиоклипа, в котором генеральный директор инструктирует сотрудников предпринять определенные действия.
Генеративный искусственный интеллект для преобразования текста в речь, такой как новая языковая модель нейронного кодека Microsoft VALL-E, способен точно воспроизводить голос человека, используя комбинацию текстовой подсказки и короткого видеоролика реального говорящего. Поскольку Microsoft VALL-E может воспроизводить тон и интонацию и передавать эмоции, голосовые клипы, созданные с использованием этой модели, очень убедительны.
Скорость, с которой развивается генеративный искусственный интеллект на основе звука, представляет собой серьезную угрозу. Аудиофейки — это реальность, и технологии, которые делают их возможными, быстро совершенствуются — в последние годы мы наблюдаем огромные изменения, когда компьютеры сами создают диалоги.
Генеративный искусственный интеллект на основе изображений
Изображения, сгенерированные искусственным интеллектом, созданные с помощью DALL-E 2, также могут представлять серьезную угрозу по мере развития технологии.
Злоумышленник может использовать генеративный искусственный интеллект для создания убедительного фальшивого изображения или видео, на котором видно, например, что руководитель компании ведет себя неподобающим или противозаконным образом. Изображение или видео могут быть использованы для шантажа или распространения дезинформации.
Генеративный искусственный интеллект на основе кода
Автоматизированная генерация кода с помощью генеративных моделей искусственного интеллекта не только позволяет менее опытным злоумышленникам создавать усовершенствованные вредоносные программы, но и облегчает обход традиционных инструментов безопасности. Генеративные инструменты искусственного интеллекта на основе кода включают такие инструменты как, например, GitHub Copilot.
Инструмент позволяет сделать это, скрывая злонамеренные намерения глубоко внутри безобидного приложения, например, в сложной троянской атаке – аналогично тому, как информация может быть скрыта внутри изображения с помощью стеганографии.
Комбинированные угрозы безопасности генеративного ИИ
Злоумышленники также могут комбинировать различные типы генеративных моделей ИИ для проведения более сложных атак.
Например, злоумышленник, желающий, чтобы жертва выполнила определенное действие, может использовать модель генерации текста для составления убедительного электронного письма, модель генерации видео для создания фейкового видео и модель генерации звука для создания фальшивого аудиоклипа.
Эта комбинированная атака может быть особенно эффективной, поскольку она использует несколько форм СМИ для создания более прозрачного и убедительного сообщения.
Как смягчить угрозы безопасности генеративного ИИ?
Как и любой тип угрозы безопасности, риск, создаваемый генеративными атаками на основе искусственного интеллекта, вероятно, будет развиваться, поэтому необходима подготовка бизнеса. На данный момент стоит отметить, что технологии безопасности не всегда способны обнаружить и остановить эти атаки.
На данный момент не существует известных инструментов, которые могли бы идентифицировать генеративные атаки на основе искусственного интеллекта, поскольку «образ действия выглядит как человеческий». Особенно тревожит появление реалистичных фейковых видеороликов.
Помня об этом, компаниям необходимо сохранять бдительность и адаптироваться к новым угрозам по мере их появления, тесно сотрудничая с экспертами по кибербезопасности и поставщиками технологий, говорит старший исследователь безопасности в компании Mainton. Он советует применять строгие меры аутентификации, такие как многофакторная аутентификация (MFA), для предотвращения несанкционированного доступа.
В основе всего этого должна лежать сильная стратегия, учитывающая использование ИИ в бизнесе. Внедрение технологий искусственного интеллекта в структуру бизнеса может оказаться контрпродуктивным, если организации не будут уделять внимание безопасности и защищенности.
Поскольку угроза, исходящая от генеративного ИИ, становится все более сложной, эксперты сходятся во мнении, что обучение и образование имеют ключевое значение. Эксперты советуют предприятиям усилить обучение персонала новейшим методам атак. Люди всегда будут одним из самых простых векторов атак для злоумышленников – организациям следует постараться, чтобы их сотрудники были осведомлены о новых инструментах, используемых злоумышленниками.
Компания Mainton - разработка и тестирование программного обеспечения под заказ, системное администрирование, SEO и реклама в интернете с 2004 года.