Александр Стаменов: Автоматизация несет риски, обучайте сотрудников

Социальная инженерия становится еще более опасной и ее труднее обнаружить. Компания стремится регулярно обучать свой персонал текущим рискам, способам выявления угроз и тому, как людям следует действовать, когда они замечают что-то необычное. Действительно, есть примеры сложных киберинцидентов, которые были обнаружены обычными людьми просто потому, что они были бдительными. Мы, люди, были, есть и, скорее всего, будем самой большой уязвимостью в сфере кибербезопасности, но также и самой лучшей защитой. Вот что он сказал Александр Стаменов, CLICO, в шоу «UpDate» на телеканале Bloomberg TV Болгария с ведущая Елена Кирилова.

Искусственный интеллект (ИИ), включая старые системы машинного обучения и новые модели большого языка, меняет как кибератаки, так и киберзащиту.

Искусственный интеллект в кибербезопасности в форме машинного обучения существует с 2014–2015 годов. Эти системы помогают повысить защиту и снизить риск, изучая, как традиционно используются данные ресурсы, и предупреждая о необычной активности.

По словам чиновника, новые модели больших языков (LLM/ChatGPT) повышают производительность и безопасность.

«LLM помогают людям быть более продуктивными, позволяя меньшему количеству людей выполнять больше работы быстрее». «Они помогают компаниям достигать большего с меньшими ресурсами, повышая общую безопасность».

По поводу злоупотребления имитацией голоса и видео собеседник рассказал, что ИИ позволяет создавать фейковые видеоролики и клонировать голоса с высокой степенью реалистичности. Александр Стаменов приводит пример телефонного мошенничества, когда клонированный голос близкого человека мог быть использован дляобмануть жертву. Социальная инженерия становится еще более опасной и ее труднее обнаружить.

Уязвимости в моделях ИИ:

Необходимо внимательно следить за тем, какие данные используются для обучения моделей ИИ, кто их хранит и насколько они безопасны. Злоумышленник может передать фальшивые данные, чтобы «неправильно обучить» ИИ, что усложнит задачу.

В настоящее время отсутствует регулирование контента ИИ, что способствует злоупотреблениям со стороны киберпреступников, также сказал Стаменов.

По мнению Александра Стаменова из CLICO, компании, независимо от их размера, должны принять конкретные меры для защиты своих ценных данных и борьбы с новыми рисками, создаваемыми автоматизацией и искусственным интеллектом. Прежде всего, необходимо тщательное управление данными обучения ИИ. Необходимо внимательно следить за тем, какие данные используются для обучения моделей ИИ, как они хранятся и кто имеет к ним доступ. Важно предвидеть уязвимости, такие как предоставление ложных данных, которые могут «неправильно обучить» ИИ.

Основные меры кибербезопасности (особенно для небольших компаний) включают защиту всех учетных записей сложными и разными паролями, использование двухфакторной аутентификации там, где это возможно, а также создание решений для защиты почтовых ящиков от спама.

Документирование автоматизированных процессов:

При автоматизации бизнес-процессов очень важно, чтобы они были хорошо документированы. Это предотвратит ситуацию, когда бизнес остановится, если автоматизированная система выйдет из строя и люди разучатся выполнять процессы вручную.

Планирование восстановления после аварии также имеет ключевое значение, напомнил Александр Стаменов. «Компаниям необходимо подготовить сценарии быстрого восстановления после потенциального киберинцидента и отыграть их, особенно в крупных организациях».

Полный комментарий смотрите в видео.

Вы можете посмотреть всех гостей шоу «UpDate». здесь.