Генеративный искусственный интеллект (ИИ) становится все более доступным и мощным, что вызывает споры о его влиянии на кибербезопасность. Некоторые эксперты предупреждают, что это может привести к новому этапу эксплуатации, с увеличением числа уязвимостей и нулевых дней, которые будут обнаруживаться с высокой частотой.
Появление новых методов эксплуатации значительно увеличит количество уязвимостей, что уже продемонстрировало прошлое — резкий рост предложений новых уязвимостей ведет к увеличению числа кибератак. Однако генеративный ИИ также несет в себе возможность создания более безопасного кода, чем это может сделать человек-программист. С каждым днем ИИ становится все более эффективным в написании защищенного кода, что может привести к созданию более устойчивых приложений и инфраструктуры, менее подверженной уязвимостям и нулевым дням.
В компании HolistiCyber мы настоятельно рекомендуем нашим клиентам пересмотреть свои подходы и адаптировать скорость своей реакции на изменения в безопасности кода с использованием ИИ, сохраняя при этом контроль над процессом через нашу методологию Offensive Framework Methodology (OFM).
Человеческий фактор играет ключевую роль в этой методологии. Люди, которым мы предоставляем доступ — клиенты, партнеры, поставщики — могут совершать ошибки, забывать или игнорировать принципы безопасного программирования. Когда генеративный ИИ начнет искать уязвимости, он сможет легко выявить ошибки, допущенные людьми, или, иными словами, те недочеты, которые были проигнорированы разработчиками.
В прошлом некоторые виды кодовых ошибок оставались незамеченными в течение десятилетий. Для злоумышленников такие уязвимости представляют собой настоящие «драгоценности», находящиеся в коде, который долгое время считался безопасным. Например, создание вектора атаки на основе техники гонки требует значительных усилий как со стороны злоумышленников, так и со стороны команды безопасности, тестирующей код. Даже с использованием автоматизированных инструментов безопасности это требует точного контроля и мощных возможностей симуляции.
Генеративный ИИ может стать мощным инструментом как в фактической эксплуатации, так и в обнаружении уязвимостей, таких как уязвимости побочных каналов (например, Spectre, Meltdown), которые требуют глубокого понимания микроархитектуры. Организации, которые не успеют адаптироваться к новым условиям, рискуют оказаться в отстающих и столкнуться с огромным количеством новых уязвимостей.
Ключ к преодолению этой проблемы заключается в настройке скорости адаптации и согласовании ее с программой обеспечения безопасности. В зависимости от архитектуры организации, анализа бизнес-воздействия и цифровой среды, управление кибербезопасностью может поддерживать сбалансированную программу безопасного программирования ИИ, включающую контроль со стороны человека и тестирование.
Временные рамки критически важны. Мы призываем вас рассмотреть возможность внедрения новых подходов к кибербезопасности и адаптации к быстро меняющимся условиям. Если у вас есть вопросы, не стесняйтесь обращаться к нашим менеджерам по работе с клиентами или команде продаж.
Источник: Security Boulevard