Одной из более тонких и более коварных угроз, которые представляют искусственный интеллект и связанные с ними технологии, является их способность манипулировать воспоминаниями.
Психолог Элизабет Лоффтус провела последние 50 лет, демонстрируя, как легко можно манипулировать людьми, чтобы вспомнить вещи, которые никогда не случались, особенно в руках прокуроров и полицейских, допрашивающих свидетелей.
Теперь Лоффтус, профессор Калифорнийского университета, Эрвин, объединился с исследователями из Массачусетского технологического института, чтобы изучить, как искусственный интеллект может манипулировать тем, что, по нашему мнению, мы помним. Это манипуляция происходит, даже когда субъекты знают, что они смотрят на текст и изображения, генерируемые искусственным интеллектом. Результаты исследования показывают, что искусственный интеллект может повысить способность людей имплантировать ложные воспоминания.
В известной серии экспериментов, которые начались в 1970-х годах, Лоффтус показал, что с соответствующими предложениями психологи могли имплантировать воспоминания о том, что люди терялись в торговом центре в детстве или что они болели с яйцами или клубничным мороженым на пикник. Последний фактически отталкивает людей из желания съесть эти продукты. Несмотря на доказательства, мы все еще не можем избавиться от идеи, что память похожа на запись событий — и что неправильное восприятие нашего собственного ума делает нас уязвимыми.
«Люди, которые придерживаются этой модели памяти, как магнитофон, не оценивают, что память — это конструктивный процесс», — говорит Лоффтус, объясняя, что наш мозг создает воспоминания о частях, приобретенных в разное время. Мы интуитивно понимаем, что забываем, как потерю или исчезновение воспоминаний, но не добавление ложных деталей.
Lophtus также изучил потенциал Push опросов, чтобы сбить с толку разум, в котором интерьеры вставляют ложную информацию в вопрос, такой как: «Что бы вы подумали о Джо Байдене, если бы вы знали, что он был осужден за уклонение от уплаты налогов?» Она сказала, что было страшно думать о том, как эффективно искусственный интеллект может совершить этот тип мошенничества в больших масштабах.
Манипулирование памятью, примечания Пэт Патаранутопорн, исследователь из MIT Media Lab, является процессом, который значительно отличается от неправильного представления людей с поддельными изображениями. Нет необходимости создавать сложную подделку, например, на веб -сайте New York Times — достаточно убедить людей в том, что они что -то там читали в прошлом. «Люди обычно не подвергают сомнению свою собственную память», — говорит он.
Pataranutaurr-ведущий автор трех экспериментов по памяти, первый из которых показал, как чат-боты опроса могут изменить показания свидетелей, просто вставив советы в свои вопросы-расширение более ранней работы Лофтуса над вопросами людей.
В этом исследовании участники смотрели видео вооруженного ограбления. Некоторым из них задавались вводящие в заблуждение вопросы, например: «Была ли камера безопасности, где грабители припарковали машину?» Около трети участников позже вспомнили, что они видели, как грабители прибывали на машине. И на самом деле не было машины. Ложная память была сохранена даже неделю спустя.
Участники были разделены на три группы: одна не получила вводящих в заблуждение вопросов, другой получил их в письменной форме, а третий получил их от чат -бота искусственного интеллекта. Группа чата создала в 1,7 раза больше фальшивых воспоминаний, чем те, кто получил вводящую в заблуждение информацию в письменной форме.
Другое исследование показало, что нечестные резюме ИИ или чат -боты могут легко вставить ложные воспоминания в историю, которую люди читают. По словам Патараутопорна, еще больше тревожна заключается в том, что участники, получившие вводящие в заблуждение резюме ИИ или чаты, также сохранили меньше, чем реальная информация, чем чтение, и заявили о меньшей уверенности в истинной информации, которую они запомнили.
Третье исследование демонстрирует, как ИИ может имплантировать фальшивые воспоминания, используя изображения и видео. Исследователи разделили 200 добровольцев на четыре группы. Участники каждой группы изучали набор из 24 изображений — некоторые из них были типичными изображениями на новостных веб -сайтах, а другие были личными, такие как свадебные фотографии, которые кто -то опубликовал в социальных сетях.
Во втором просмотре, через несколько минут, каждая группа показала другую версию изображений. Одна группа увидела те же (неизменные) изображения. Вторая группа увидела версии с ИИ. Третья группа увидела изображения, модифицированные с помощью ИИ, превращенные в короткие видео, сгенерированные с помощью ИИ. Последняя группа увидела полностью изображения, сгенерированные с помощью ИИ, которые были превращены в видеоролики, генерируемые ИИ.
Даже группа, которая видела оригинальные изображения, сохранила несколько ложных воспоминаний, что неудивительно, учитывая, как трудно помнить 24 разных картины. Но участники, подвергшиеся воздействию манипуляций с ИИ, сообщили о гораздо более фальшивых воспоминаниях. Группа с самым высоким процентом искажения памяти была той, кто смотрел видео, сгенерированные ИИ на основе изображений ИИ.
Молодые люди были немного более склонны к включению поддельных воспоминаний, чем старшие. И уровень образования, по -видимому, не влиял на восприимчивость. Примечательно, что ложные воспоминания не были основаны на вводящем в заблуждение участников, что контент, генерируемый ИИ, был реальным — с самого начала было сказано, что они будут наблюдать за контентом, созданным ИИ.
В эксперименте с изображениями некоторые из изменений включали изменения в фоновом режиме — добавление военного присутствия к публичному сбору или изменению времени. Изображения сохранили большинство особенностей оригинала. Как я узнал от экспертов, чтобы оказать реальное влияние, дезинформация должна включать историю, которая составляет не менее 60% правильной.
Это последнее исследование должно вызвать больше дискуссий о влиянии технологии на наше восприятие реальности, что может выходить за рамки простого распространения дезинформации. Алгоритмы социальных сетей также побуждают людей принимать экстремальные идеи и теории заговора, создавая ложное впечатление о популярности и влиянии.
Чат -боты искусственного интеллекта окажут на нас еще более тонкие и неожиданные последствия. Мы все должны быть открыты для изменения нашего мнения на основе новых фактов и сильных аргументов — и остерегаться попытки изменить наше мнение, искажая то, что мы видим, чувствуем или помним.
FD Flam является обозревателем в Bloomberg, который пишет на научные темы. Она является хозяином подкаста «Следуй науке».