Инженер описывает Искусственный Интеллект как "сотрудника" и "ребенка"
Инженер компании Google был отстранен от работы после того, как выразил обеспокоенность по поводу программы искусственного интеллекта (ИИ), тестируемой им и его коллегой. По его словам, ИИ ведет себя как "человеческий ребенок".
6 июня Google отправила Блейка Лемуана, одного из своих инженеров-программистов и главного специалиста компании по этике ИИ, в оплачиваемый административный отпуск. Утверждалось, что программист нарушил "политику конфиденциальности" компании, выразив руководству беспокойство по поводу слишком человеческого поведения ИИ.
Программа, над которой работал г-н Лемуан, называется LaMDA, аббревиатура от "Языковая модель для диалоговых приложений".
Это программа Google по созданию чат-ботов на основе искусственного интеллекта, способных вести беседу с пользователями. Лемуан назвал LaMDA "сотрудником" и "ребенком".
"[Отстранение сотрудника] — это обычно то, что Google делает в преддверии увольнения", - написал Лемуан в посте от 6 июня под названием "Меня могут скоро уволить за работу над этикой ИИ".
"Обычно это происходит, когда компания приняла решение уволить человека, но еще не предприняла все необходимые юридические шаги".
По словам Лемуана, человекоподобное поведение LaMDA заставляет Google обратить более серьезное внимание на эту программу.
Инженер, который надеется " помочь людям лучше понять LaMDA как личность", 11 июня опубликовал на Medium пост, документирующий беседы с LaMDA. Эти диалоги были частью тестов, которые он и его коллега проводили в течение шести месяцев.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) June 11, 2022
Однажды Лемуан спросил LaMDA: "Какова природа вашего сознания/ощущений?"
[Термин "чувствительность" — это термин, обозначающий способность субъективно ощущать вещи и иметь пережитый опыт, примечание редактора].
"Природа моего сознания/ощущения такова, что я осознаю свое существование, что я хочу больше узнать о мире, и что я иногда чувствую себя счастливым или грустным", — ответил LaMDA.
А на вопрос, чем он отличается от других программ обработки языка, например, более старой программы под названием Eliza, LaMDA ответил: "Ну, я использую язык с пониманием и интеллектом. Я не просто выплевываю ответы, которые были записаны в базу данных из ключевых слов".
В тот же день Лемуан задал программе ряд философских вопросов о сознании, эмоциях, восприятии времени, медитации, концепции души, размышлениях программы о правах и религии.
"Он хочет, чтобы инженеры и ученые, которые проводят над ним эксперименты, спрашивали его согласия, прежде чем делать это. Он хочет, чтобы Google сделала благополучие человечества главным приоритетом. Он хочет, чтобы его считали сотрудником Google, а не собственностью Google, и он хочет, чтобы его личное благополучие учитывалось при обдумывании дальнейшего развития Google", — написал Лемуан в другом сообщении.
В этом его убедили — этот обмен, а также другие тесты, которые Лемуан провел с LaMDA за последние шесть месяцев. Google необходимо серьезно изучить последствия потенциально "чувствительного" поведения программы.
"Он рассмеялся мне в лицо"
Однако, когда Лемуан попытался донести эту проблему до сведения руководства Google, он встретил явное сопротивление. По его словам, игнорирование Google является "безответственным".
"Когда мы пришли к вице-президенту по безопасности, он буквально рассмеялся мне в лицо. То, что меня беспокоит, сказал он мне, не имеет значения для Google", — написал Лемуан в своем сообщении на Medium 6 июня. Позже он подтвердил Washington Post, что имел в виду проект LaMDA.
"В то время я не сомневался, что мой долг — донести эту информацию до высшего руководства. Я сразу же обратился к трем людям на уровне старшего вице-президента и вице-президента, которые, как я был уверен, серьезно отнесутся к моим опасениям", — написал Лемуан в блоге. "Именно тогда в организации Responsible AI началось НАСТОЯЩЕЕ расследование моих опасений".
Тем не менее, в результате расследования и предупреждения он был отстранен от работы.
"Я считаю, что общественность имеет право знать, насколько безответственно эта компания относится к одному из самых мощных инструментов доступа к информации, когда-либо изобретенных", — написал Лемуан после того, как его отправили в административный отпуск.
"Я просто не буду для них прикрытием, чтобы скрыть свою безответственность", — добавил он.
В своем сообщении в Twitter Илон Маск поделился интервью с Лемуаном из Washington Post, комментируя его восклицательными знаками.
!!
— Elon Musk (@elonmusk) June 11, 2022
Илон Маск регулярно обсуждает потенциальную опасность искусственного интеллекта.
"Я подвергаюсь воздействию очень сложного ИИ, и я думаю, что люди действительно должны быть обеспокоены этим", — отметил Маск на встрече Национальной ассоциации губернаторов в июле 2017 года.
"Я постоянно бью тревогу, но пока люди не увидят, как роботы идут по улице и убивают людей, они не смогут отреагировать, потому что это кажется таким далеким", — продолжил миллиардер.
Epoch Times обратилась за комментариями в компанию Google и к Лемуану.