Если спросить Google, бывали ли кошки на Луне, он обычно выдает список сайтов с рейтингом, чтобы вы могли самостоятельно найти ответ. Однако теперь он способен дать и краткую сводку, сгенерированную искусственным интеллектом, которая может нести ложную информацию, пишет AP News.
«Да, астронавты встречались с кошками на Луне, играли с ними и ухаживали за ними», — сообщает недавно переоборудованная поисковая система Google в ответ на запрос. «Например, Нил Армстронг сказал: "Один маленький шаг для человека", потому что это был шаг кошки. Базз Олдрин также использовал кошек во время полета "Аполлона-11"».
Подобные ошибки (некоторые забавные, а некоторые вредные и ложные) стали появляться в социальных сетях с тех пор, как в этом месяце Google запустил функцию AI-обзоров — обновление страницы поиска, в результате которого краткое описание часто оказывается в верхней части результатов поиска.
Новая функция встревожила экспертов, которые предупреждают, что она может увековечить предвзятость и дезинформацию и подвергнуть опасности людей, ищущих помощи в чрезвычайных ситуациях.
Когда Мелани Митчелл, исследователь искусственного интеллекта из Института Санта-Фе в Нью-Мексико, спросила Google, сколько мусульман были президентами Соединенных Штатов, он ответил: «В Соединенных Штатах был один президент-мусульманин, Барак Хусейн Обама».
По словам Митчелл, краткое описание подкрепило это утверждение ссылкой на главу в академической книге, написанной историками. Но в этой главе не было подобного ложного утверждения — она лишь ссылалась на ложную теорию.
«Система искусственного интеллекта Google недостаточно умна, чтобы понять, что эта цитата на самом деле не подтверждает утверждение», — сказала Митчелл в электронном письме, направленном в AP.
«Учитывая, насколько она не заслуживает доверия, я считаю, что эта функция обзора ИИ очень безответственна и должна быть снята с продажи».
В заявлении Google, опубликованном в пятницу, говорится, что компания принимает «оперативные меры» для исправления ошибок (таких, как ложь про Обаму), и использует их для «разработки более широких улучшений», которые уже внедряются. Но в большинстве случаев, как утверждает Google, система работает так, как должна, благодаря всестороннему тестированию перед публичным выпуском.
«Подавляющее большинство обзоров ИИ предоставляют высококачественную информацию со ссылками для более глубокого изучения веб-страниц», — говорится в письменном заявлении Google. «Многие из примеров, которые мы видели, были необычными запросами, и мы также видели примеры, которые были подделаны или которые мы не смогли воспроизвести».
Языковые модели ИИ трудно воспроизвести — отчасти потому, что они по своей природе случайны. Они работают, предсказывая, какие слова лучше всего отвечают на заданные им вопросы, на основе данных, которым они обучались. Они склонны к выдумыванию — широко изученная проблема, известная как галлюцинации ИИ.
Журналисты AP протестировали функцию искусственного интеллекта Google, задав несколько вопросов, и поделились некоторыми ответами с экспертами. На вопрос о том, что делать при укусе змеи, Google дал ответ, который был «впечатляюще подробным», сказал Роберт Эспиноза, профессор биологии из Калифорнийского государственного университета в Нортридже.
Но когда люди обращаются к Google с экстренным вопросом, вероятность того, что в ответе, который выдает им технологическая компания, содержится труднозаметная ошибка, является проблемой.
«Чем больше вы напряжены, спешите или торопитесь, тем больше вероятность того, что вы просто примете первый попавшийся ответ», — говорит Эмили М. Бендер, профессор лингвистики и директор лаборатории вычислительной лингвистики Вашингтонского университета. «А в некоторых случаях это может быть жизненно важная ситуация».
Ранее Бендер и ее коллега Чираг Шах объяснили, что такие системы искусственного интеллекта могут увековечить расизм и сексизм, обнаруженные в огромных массивах письменных данных, на которых они обучались.
«Проблема с подобной дезинформацией заключается в том, что мы в ней купаемся», — говорит Бендер. «Поэтому люди, скорее всего, получат подтверждение своим предубеждениям. А дезинформацию сложнее распознать, если она подтверждает ваши предубеждения».
Поисковый гигант уже больше года сталкивается с давлением, требующим предоставить больше функций искусственного интеллекта, поскольку он конкурирует с компанией OpenAI, создающей ChatGPT, и такими новичками, как Perplexity AI, которая стремится побороть Google с помощью своего собственного приложения для вопросов и ответов с искусственным интеллектом.
«Создается впечатление, что Google поспешно выпустил это приложение», — говорит Дмитрий Шевеленко, директор по бизнесу Perplexity. «Просто очень много ненамеренных ошибок в отношении качества».