Искусственный интеллект превзошёл профессиональных хакеров в тестах на безопасность сети Стэнфорда
Новый эксперимент, проведённый исследователями Стэнфорда, показал, что агент искусственного интеллекта ARTEMIS смог в течение 16 часов взламывать компьютерные сети университета, выявляя слабые места с большей эффективностью, чем девять из десяти профессиональных тестеров на проникновение, при этом работая за гораздо меньшую оплату.
В рамках исследования команда Стэнфорда, включающая специалистов в области искусственного интеллекта и кибербезопасности, создала агента ARTEMIS, способного автоматизировать сложные задачи взлома компьютерных систем. Агент получил доступ к сети университета, состоящей примерно из 8 000 устройств — серверов, компьютеров и умных гаджетов. В то время как специалисты-человеки тратили около 10 часов на поиск уязвимостей, ARTEMIS работал непрерывно 16 часов, выявляя ошибки и пробелы в защите.
По результатам эксперимента ARTEMIS занял второе место среди десяти профессионалов, обнаружив девять валидных уязвимостей с 82% точностью. Среди них были проблемы, которые пропустили люди, например, слабость на старом сервере, доступ к которому у специалистов заблокировали браузеры, а ИИ обошёл это ограничение с помощью командной строки.
Одной из значимых особенностей ARTEMIS стало параллельное исследование нескольких целей с помощью запуска дополнительных подагентов, в то время как люди вынуждены были работать последовательно. Однако агент не лишён недостатков: он хуже справляется с графическими интерфейсами, что привело к пропуску одной критической уязвимости, и склонен к ложным срабатываниям.
Стоимость работы ARTEMIS составляет около 18 долларов в час, что значительно дешевле среднегодовой зарплаты профессионального тестировщика на проникновение, превышающей 125 тысяч долларов. Более продвинутые версии агента стоят около 59 долларов в час, сохраняя экономическое преимущество перед дорогими специалистами.
Этот прорыв отражает тенденцию использования ИИ в кибербезопасности и одновременно подчёркивает растущие риски. С одной стороны, AI помогает выявлять и устранять уязвимости быстрее и дешевле. С другой — злоумышленники также применяют искусственный интеллект для создания более изощрённых атак и фишинговых кампаний, что уже наблюдается в ряде международных инцидентов.
Для Израиля, одной из стран с высокоразвитой IT-сферой и постоянным вниманием к вопросам кибербезопасности, подобные технологии — двойной меч. С одной стороны, ИИ может усилить защиту критической инфраструктуры и бизнеса. С другой — потребуется адаптация стратегий и инструментов противодействия, учитывая, что злоумышленники тоже используют ИИ для обхода систем безопасности.
