Иллюстрация искусственного интеллекта Microsoft Copilot в корпоративной среде. Источник: AI
Искусственный интеллект обещал стать правой рукой офисного работника, но, как это часто бывает с продуктами Microsoft, на старте что-то пошло не так. Компания официально признала, что ее умный помощник Copilot проявлял чрезмерный интерес к электронной почте пользователей, игнорируя установленные цифровые границы. Оказалось, что алгоритмы спокойно читали письма, обозначенные как конфиденциальные и защищенные внутренними политиками безопасности.
Когда метка «Конфиденциально» — это только текст
Проблема возникла во вкладке «Работа» чата Microsoft 365 Copilot. Этот инструмент создан для того, чтобы анализировать корпоративные данные, суммировать длинные цепочки переписки и помогать в подготовке отчетов. Однако пользователи заметили странное поведение: ИИ начал создавать резюме писем, к которым он технически не должен иметь доступ. Даже если к сообщению была применена метка конфиденциальности или активирована политика защиты от утечки данных (DLP), Copilot просто игнорировал эти настройки.
По информации издания Bleeping Computer ситуация выглядит особенно тревожно для корпоративного сектора. Представьте, что финансовый отчет по ограниченному доступу или детали конфиденциального соглашения вдруг становятся частью общего резюме, которое видит сотрудник без соответствующих прав доступа. Это прямо противоречит идее безопасной корпоративной среды, которую Microsoft так активно продвигает.
Технический сбой или упущение?
В Редмонде объяснили такое поведение банальной ошибкой в коде. Оказалось, что механизм обработки данных в Microsoft 365 Copilot некорректно интерпретировал метаданные защиты писем. Система видела содержание, но «забывала» проверить права на его обработку искусственным интеллектом. Это еще раз напоминает нам, что доверять алгоритмам критически важную информацию — это всегда риск, особенно когда речь идет об интеграции ИИ на уровне операционной системы.
Для защиты данных компании обычно используют Microsoft Purview DLP. Это комплексное решение, которое должно блокировать любые попытки несанкционированного копирования или анализа чувствительной информации. То, что Copilot смогла обойти эту защиту, указывает на серьезные пробелы в архитектуре взаимодействия между облачными сервисами и локальными инструментами Windows 11.
Исправление уже в пути
Microsoft уверяет, что проблема уже решена. Соответствующее обновление кода постепенно разворачивается среди пользователей. Теперь Copilot должен снова начать уважать метки конфиденциальности и не совать своего «носа» в письма, которые его не касаются. Однако осадок, как говорится, остался. Компаниям, уже внедрившим ИИ в свои рабочие процессы, следует еще раз проверить настройки доступа и убедиться, что их секреты не стали частью следующей тренировки языковой модели.
Пока Microsoft латает дыры в безопасности, другие игроки рынка ищут способы монетизировать ШИ-бум любой ценой. К примеру, компания Lenovo поднимает цены на свои устройства, внедряя своеобразный «налог» на искусственный интеллект для ноутбуков.
