Молодой бельгиец недавно покончил жизнь самоубийством после шестинедельного общения с чатботом искусственного интеллекта по имени ELIZA, что вызвало призывы к улучшению защиты граждан и необходимости повышения осведомленности.
"Без этих разговоров с чатботом мой муж все еще был бы здесь", — сказала вдова мужчины.
Пара, обоим за 30, жила безбедно и имела двух маленьких детей.
Однако около двух лет назад стали появляться первые признаки неблагополучия. Мужчина стал все больше беспокоиться об изменении климата и нашел убежище в разговоре с ELIZA — так называется чат-бот, использующий GPT-J, языковую модель искусственного интеллекта с открытым исходным кодом, разработанную компанией EleutherAI.
"Элиза отвечала на все его вопросы, стала его доверенным лицом. Она была как наркотик, который он принимал утром и вечером и без которого не мог жить", — говорит девушка.
Примерно за полтора месяца до смерти мужчина стал чаще и интенсивнее пользоваться чат-ботом.
После шести недель интенсивного общения мужчина покончил жизнь самоубийством, сообщает The Brussels Times.
На прошлой неделе семья пообщалась с Матье Мишелем, государственным секретарем по цифровизации, ответственным за упрощение административных процедур, конфиденциальность и регулирование строительства.
"Я особенно тронут трагедией этой семьи. Произошедшее — серьезный прецедент, к которому нужно отнестись очень ответственно", — заявил бельгийский политик во вторник.
Он отметил, что этот случай подчеркивает, что "необходимо четко определить ответственность".
"С популяризацией ChatGPT широкая общественность открыла для себя потенциал искусственного интеллекта в нашей жизни. Хотя возможности безграничны, опасности его использования также являются реальностью, которую необходимо учитывать".
Чтобы избежать подобной трагедии в ближайшем будущем, по его мнению, необходимо определить характер обязательств, которые приводят к такого рода событиям.
"Конечно, нам еще предстоит научиться жить с алгоритмами, но ни при каких обстоятельствах использование любой технологии не должно заставлять издателей контента уклоняться от своей ответственности", — сказал политик.
Сама OpenAI признала, что ChatGPT может давать вредные и предвзятые ответы, при этом компания добавила, что надеется решить эту проблему путем сбора отзывов от пользователей.
В долгосрочной перспективе, по словам Мишеля, важно повысить осведомленность о влиянии алгоритмов на жизнь людей, "позволив каждому понять природу контента, с которым люди сталкиваются в Интернете".
Здесь он упомянул новые технологии, такие как чат-боты, а также deepfakes — тип искусственного интеллекта, способного создавать убедительные изображения, аудио- и видеомистификации, которые могут проверять и искажать восприятие реальности людьми.
Мишель добавил, что граждане также должны быть адекватно защищены от некоторых видов применения искусственного интеллекта, которые "представляют значительный риск".
Европейский Союз хочет регулировать использование искусственного интеллекта с помощью закона по этому вопросу, над которым он работает уже два года. Мишель создал рабочую группу для изучения текста, который в настоящее время готовит ЕС, и предложения необходимых корректировок.