Главная   Аналитика   Безопасность    Наука и технологии   Проекты    Soft   Hard   О том, о сём    Контакты

Как искусственный интеллект может помочь одержать победу в гонке вооружений в области кибербезопасности

26.09.2019

Киберпреступники и профессионалы в сфере ИТ-безопасности оказываются втянутыми в постоянную, никогда не прекращающуюся борьбу за превосходство, когда речь заходит о разработке и развертывании инструментов для защиты или использования цифровых ресурсов. Новейшее слово в этой гонке вооружений – использование технологий автоматизации, машинного обучения и, в конечном итоге, искусственного интеллекта.

Нет, вы не ошиблись, это отнюдь не научная фантастика. Так, согласно недавнему отчету от Nokia, сегодня бот-сети на базе искусственного интеллекта способны обнаруживать определенные уязвимости в Android устройствах, и затем использовать эти уязвимости, загружая на устройство вредоносный код для хищения данных, который можно будет обнаружить лишь после того, как он сделает свое дело.

Проблемы цифровой трансформации с точки зрения бизнеса

Для специалистов по ИТ-безопасности цифровая трансформация сумела полностью перевернуть целые годы наработок в области стратегий безопасности. Из-за нехватки квалифицированных специалистов многие организации просто не могут себе позволить масштабировать свою защитную инфраструктуру, чтобы справиться с растущей поверхностью атаки.

Для преодоления этой проблемы необходимо передать принятие многочисленных решений более низкого порядка и рутинные процессы в ведение автоматизированных систем, которые предполагают намного меньшее участие человека. В то же время, необходимо не только заменять традиционно изолированные устаревшие устройства безопасности на интегрированные системы, обеспечивающие более высокий уровень прозрачности и контроля во всех сетевых окружениях, но в целях компенсации нехватки специалистов, например, использовать технологии машинного обучения и искусственного интеллекта для сопоставления и анализа угроз, принятия ответных мер на цифровых скоростях.

Возможности цифровой безопасности для киберпреступников

Одновременно с этим очевидно, что процессы цифровой трансформации являются одним из величайших благ для киберпреступного сообщества – ведь благодаря им значительно расширяется потенциальная поверхность атаки. При этом к услугам киберпреступников – все тот же искусственный интеллект и технологии машинного обучения, которые, как выясняется, можно с той же эффективностью использовать не только для защиты корпоративных сетей, но и для осуществления атак на них.

Для сохранения рентабельности инвестиций, киберпреступникам, как и их жертвам, необходимо снижать общие издержки, увеличивая эффективность и действенность инструментов, которые используются для проникновения в системы защиты.

Например, чрезвычайно эффективным инструментом здесь мог бы стать интегрированный вредоносный код, который можно было бы запускать на различных устройствах и в разных окружениях, и который позволял бы атаковать различные уязвимости. При использовании средств автоматизации и машинного обучения, такой код способен автоматически определять свою полезную нагрузку – то есть понимать, какие действия будут наиболее эффективными в каждом конкретном случае, при этом он сможет избежать обнаружения в силу отсутствия постоянных обращений к своему командному серверу. В результате эффективность подобных атак повысится без увеличения издержек.

Искусственный интеллект поднимает противодействие на новый уровень

Атаки, в которых используются технологии самообучения, способны быстро оценивать уязвимости, выбирать или адаптировать вредоносный код и активно противодействовать системе безопасности, пытающейся их остановить. Используя искусственный интеллект вместе с новыми типами угроз, такими как swarmbots – предполагающими целый «рой» роботов – можно разбить атаку на функциональные элементы, назначить. выполнение каждой из этих функций различным членам колонии, и использовать интерактивные коммуникации в масштабах роя для ускорения скорости распространения.

Единственная эффективная защита от подобных стратегий атак с использованием искусственного интеллекта – это решения, в которых применяются такие же стратегии.

Благодаря развитию искусственного интеллекта в арсенале бизнеса появятся новые самообороняющиеся решения безопасности, способные выявлять угрозы, закрывать пробелы, менять конфигурацию устройств и реагировать на угрозы – и все это без вмешательства человека.

Видя, что технологии искусственного интеллекта сулят огромный доход, многим производителям не терпится заявить о поддержке такой функциональности в своих решениях, хотя на самом деле это не соответствует действительности. В итоге организации, пожелавшие противостоять атаке, используя оружие противника, оказываются в затруднительном положении относительно выбора подходящего решения.

Чтобы избежать путаницы, ИТ-специалистам следует обратиться к поставщикам технологий безопасности с несколькими вопросами, которые позволят определить, стоит ли вообще рассматривать из решение на базе искусственного интеллекта.

1. Сколько лет вы занимаетесь разработкой этого решения на базе искусственного интеллекта? Искусственный интеллект требует продолжительного процесса тщательного обучения. Любой вендор, который не использовал многолетнее стандартизированное обучение своей системы, предлагает далеко не идеальное решение.

2. Сколько узлов используется для обработки данных и принятия решений? Вообще говоря, истинному искусственному интеллекту требуются миллионы узлов и огромные потоки исходных данных для выработки точных оборонительных решений.

3. Насколько хороши и точны те данные, которые вы передаете в свою систему на базе искусственного интеллекта? Передача качественных данных в систему искусственного интеллекта на самом деле более сложная задача, чем кажется на первый взгляд. Для эффективной работы искусственного интеллекта абсолютно необходимы огромные массивы надежных данных, которые должны быть в постоянной доступности.

Клин клином

Не все системы на базе искусственного интеллекта одинаково эффективны. Решения, которые претендуют на звание систем на базе искусственного интеллекта, но при этом не отвечают перечисленным выше требованиям, скорее всего могут создать дополнительные проблемы в вашей сети.

Механизмы принятия решений с учетом возможных рисков, которые при этом достаточно разумны, чтобы действовать без участия человека, не только должны уметь выполнять петлю Бойда (предполагающую наблюдение, ориентацию, решение и действие) для подавляющего большинства ситуаций, с которыми они сталкиваются, но также должны непосредственно предлагать программу действий при обнаружении проблемы, а не просто полагаться на заранее определенные методики.

Поиск инструментов, которые бы соответствовали этому стандарту, требует времени и тщательного анализа. Только в этом случае вы сможете в полный рост трансформировать критические процессы безопасности, чтобы ваши эксперты по кибербезопасности могли сосредоточиться на принятии тех, порой непростых решений, где человеческое познание и вмешательство наиболее необходимы.

Алексей Андрияшин, технический директор Fortinet в России

Тема:Безопасность

© 2014. ИТ-Текст. Все права защищены.