Роль искусственного интеллекта в кибербезопасности полностью преобразуется, особенно после прорыва в области генеративного искусственного интеллекта. Однако фундамент был заложен гораздо раньше – накопленным опытом машинного обучения и промышленного применения искусственного интеллекта. В болгарской промышленности есть примеры, когда искусственный интеллект используется для прогнозирования отказа оборудования за 72 часа. Проанализированные примеры показывают экономию около 30 000 евро на машину, сокращение поломок и избежание «аварийного режима». Вот что он сказал Кристиан Даскалов, председатель Центра цифровых инноваций «Фракия»в шоу «Обновлять» на Bloomberg TV Болгария с ведущим Антуанетта Васильева.
ИИ меняет кибербезопасность: атаки становятся быстрее, но защита также становится умнее
По его словам, ключевое отличие генеративного ИИ — это масштаб и скорость проникновения. Даскалов привел данные, которые он связал с прогнозом на 2023 год о достижении 1 миллиарда пользователей за несколько лет, отметив, что фактическое «насыщение» наступило гораздо быстрее. Это означает, что ни одна отрасль не остается незатронутой, включая кибербезопасность.
С точки зрения угрозы он обрисовал тенденцию использования ИИ, резко сокращающего время, необходимое для создания вредоносного кода. Если раньше на его создание уходили часы, то сегодня этот процесс стал намного короче, и прогнозы указывают на еще более резкое ускорение с появлением новых подходов. При этом собеседник указал на «другую сторону медали» — искусственный интеллект. Его можно использовать для анализа данных в реальном времени и более быстрой нейтрализации инцидентов.
Он привел пример работы по линии ЕС и программы «Цифровая Европа», в рамках которой в Болгарии построена система обнаружения атак посредством анализа данных, поддерживаемая высокопроизводительными вычислениями и открытым исходным кодом. По словам собеседника, решение достигло уровня прототипа именно благодаря ускоренным инновациям в последние годы и наличию сильной научной экосистемы, что также указывает на роль института INSAIT.
Уязвимости, «этический взлом» и почему ИИ не может заменить людей
Говоря о кибератаках с использованием ИИ, Даскалов использовал метафору о том, что ИИ «похож на топор» — он может служить полезным целям, но также может быть инструментом причинения вреда. По его словам, негативный эффект особенно заметен при компрометации систем, где главным оружием против защиты становится скорость.
В настоящее время это происходит за один день, а прогнозы на 26-й год говорят, что это может осуществиться в течение 20 минут. То есть от проникновения в систему до кражи данных и выхода злоумышленника из этой системы за 20 минут. Вы можете себе представить, какую задачу приходится защищать людям на противоположной стороне.
Собеседник добавил, что еще одним критическим направлением является эксплуатация уязвимостей. Он пояснил, что существуют общедоступные базы данных, в которых исследователи публикуют обнаруженные уязвимости, чтобы дать организациям время для «исправления», но окно ответа сокращается. Он сказал, что время на использование неустраненной уязвимости сократилось с недель до дней и даже минут, в результате чего защитники отстали «на шаг».
В этих рамках Даскалов утверждает, почему кибербезопасность не может стать «полностью искусственным интеллектом». По словам собеседника, за внедрением любой технологии стоят люди, даже если их меньше и они более высококвалифицированны. Он отметил, что это приводит к перекосам на рынке труда — снижается потребность в позициях начального уровня и увеличивается спрос на более высокопоставленные кадры, в том числе в Болгарии, где много выпускников, но сложная реализация.
В качестве практического выхода он указал на соревнования по «захвату флага», глобальные платформы и программы bug bounty, которые дают реальный опыт и уверенность. Он также объяснил, почему он настаивает на регулировании «этического взлома» — чтобы исследователи могли тестировать уязвимости и сообщать об уязвимостях в соответствии со стандартами и протоколами, без риска санкций.
По мнению собеседника, процесс скоординированного раскрытия уязвимостей должен стать более доступным и юридически защищенным, приведя в пример практику, связанную с Бельгией, а также усилия ENISA по координации и передаче информации через национальные центры.
Регулирование и инструменты для бизнеса: Закон об искусственном интеллекте и подготовка к новому режиму
Даскалов также прокомментировал Европейское регулирование для ИИ, проводя различие между положениями, которые уже действуют как передовая практика, и правилами, которые вот-вот станут обязательными. Он пояснил, что системы искусственного интеллекта общего назначения, включая широко используемые чат-боты, вводят требования, указывающие, что контент генерируется такой системой. Это позволит пользователям легче проверять, была ли создана фотография или видео, вместо того, чтобы полагаться исключительно на внешние проверки фактов.
Он также подчеркнул запрет на приложения высокого риска, объяснив, что биометрический ИИ неприемлем за пределами конкретных функций правоохранительных органов, и что сценарии массового наблюдения не будут разрешены в ЕС. В то же время Даскалов предупредил, что если закон будет применяться неразумно, это может привести к «технологической зиме» и тупику, в том числе в таких чувствительных сферах, как образование, где иностранные партнеры уже не решаются участвовать в пилотных проектах.
Что касается ужесточения ответственности за кибербезопасность компаний и их руководства, гость не считает, что болгарский бизнес полностью готов, но и не ожидает «драматического» развития «от сегодняшнего к завтрашнему дню». По словам собеседника, помощь может прийти через такие инструменты, как Служба поддержки искусственного интеллекта Европейской комиссии и сеть центров цифровых инноваций, которые бесплатно консультируют бизнес. Цель состоит в том, чтобы предприятия, особенно микро-, малые и средние предприятия, получали комплексное обслуживание, не скитаясь по сторонам.
Полный комментарий смотрите в видео.
Вы можете посмотреть всех гостей шоу «UpDate» здесь.
