- Обещанная производительность ИИ часто оборачивается дрянной работой, требующей времени, денег и доверия.
- Исследования указывают на низкую отдачу от генеративного искусственного интеллекта и значительное распространение некачественных обработанных материалов.
- Политика, прозрачность и обучение имеют ключевое значение, но человеческая проверка и подотчетность по-прежнему имеют решающее значение.
Большинство из нас сталкивались с «помоями ИИ» — потоком некачественного контента, созданного с помощью генеративных инструментов ИИ, который заполонил Интернет. Но захватывает ли этот компьютерный «мусор» и наши рабочие места?
«ИИ-отстой»: из Интернета в офис
Новость о том, что Deloitte Australia частично возместит правительству отчет, изобилующий, по-видимому, ошибками искусственного интеллекта, вызвала фурор среди местных жителей и заголовки международных новостей. Австралийский сенатор Барбара Покок заявила в радиоинтервью, что документ на сумму 440 000 австралийских долларов (289 000 долларов США), финансируемый налогоплательщиками, неверно цитирует судью и цитирует несуществующие источники.
По ее словам, предполагаемые ошибки ИИ — это «тот вид, с которым у первокурсника могут возникнуть серьезные проблемы».
Deloitte Australia не сразу ответила на мою просьбу о комментариях, но заявила, что исправления не повлияли на содержание или рекомендации отчета, и сообщила другим СМИ: «Вопрос был решен напрямую с клиентом». Помимо того, что фирма «большой четверки» выглядит плохо в то время, когда доверие австралийцев к использованию государством частных консультантов хрупко, есть причина, по которой эта тема вызывает такой сильный резонанс.
Это возобновило глобальную дискуссию о текущих ограничениях и высокой стоимости технологий, когда они оборачиваются против нас на рабочем месте. Это не первый случай, когда ИИ «галлюцинирует» или чат-боты выдумывают что-то. Вероятно, это будет не последний.
Обещанная производительность и фактические результаты
Обещания технологической отрасли о том, что ИИ сделает нас более продуктивными, поддерживают инвестиции в сотни миллиардов долларов. Но до сих пор неизвестно, насколько это действительно изменит работу офиса. Рынки были потрясены в августе после того, как исследователи MIT сообщили, что 95% опрошенных компаний не увидели окупаемости своих инвестиций в генеративный искусственный интеллект.
Другое исследование McKinsey показало, что, хотя почти 8 из 10 фирм используют эту технологию, примерно столько же сообщают об «несущественном влиянии на прибыль».
Частично это может быть связано с «детской болезнью», поскольку в руководствах устраняются проблемы реализации на ранних стадиях. Эти компании опровергли свои собственные данные о том, что ИИ помогает выполнять повседневные офисные задачи и приносит экономическую выгоду.
Но новые исследования показывают, что отчасти напряженность возникает из-за распространения «рабочего беспорядка» («беспорядок с искусственным интеллектом»). Harvard Business Review определяет это как: «Контент о работе, созданный искусственным интеллектом, который делает вид, что выполняет хорошую работу, но не имеет содержания для значимого продвижения задачи вперед».
Это суммирует опыт использования ИИ в вашей работе только для того, чтобы обнаружить, что он создал больше работы для вас или ваших коллег.
Согласно сентябрьскому исследованию BetterUp и Stanford Social Media Lab, около 40 процентов офисных работников в США за последний месяц получили некачественную или некачественную почту. Среднее время устранения каждого инцидента составляет два часа, и это явление может стоить компании со штатом 10 000 сотрудников 9 миллионов долларов в год.
Риски, которым можно доверять, и как минимизировать ущерб
Это также может подорвать доверие к офису, которое трудно восстановить. По данным HBR, около трети (34%) людей, получивших некачественную работу, сообщили об этом своей команде или менеджерам, и примерно такая же доля (32%) заявили, что с меньшей вероятностью захотят работать с отправителем в будущем.
Есть способы сгладить переход. Внедрение четкой политики имеет решающее значение. Раскрытие информации о том, когда и как ИИ используется в рабочем процессе, также может помочь восстановить доверие. Менеджеры должны обеспечить, чтобы сотрудники были обучены ограничениям технологии и понимали, что ответственность за качество работы лежит на них — независимо от того, использовали ли они помощь машин. Обвинять ИИ в ошибках просто не получится.
Но растущее число случаев некачественной работы также должно стать тревожным сигналом для более широкого круга людей. На этом раннем этапе развития технологии существуют серьезные препятствия для «умной» части ИИ. Эти инструменты кажутся очень хорошими при написании, поскольку они распознают закономерности в языке и имитируют их при выводе, но это не соответствует истинному пониманию.
Более того, они раболепны до подобострастия — созданы для того, чтобы привлекать и угождать пользователям — даже когда это означает, что они ошибаются по важным темам.
ИИ выходит за пределы офиса.
Как бы ни завораживало наблюдать, как чат-боты мгновенно создают «красивые» слайды или «остроумные» отчеты, они не являются надежным ярлыком. Они по-прежнему требуют проверки фактов и человеческого контроля.
Для чего на самом деле мы используем ИИ и почему человеческий разум дорожает
И, несмотря на большие обещания, что ИИ повысит производительность и, следовательно, будет стоить дорогостоящих подписок, люди, похоже, больше используют его для задач с меньшим риском. Данные показывают, что пользователи все чаще обращаются к этим инструментам за пределами офиса.
Согласно исследованию, опубликованному в прошлом месяце экономической командой OpenAI и экономистом из Гарварда, большинство запросов ChatGPT (73%) в июне не были связаны с работой — по сравнению с 53% в 2024 году.
Ирония в том, что все это может оказаться хорошей новостью для некоторых сотрудников консалтинговых гигантов, подобных тем, кто участвовал в нынешней негативной реакции. Оказывается, ИИ пока не так уж хорош в своей работе.
Чем больше дрянной работы накапливается в офисе, тем ценнее становится человеческий интеллект.
