ІСТИНА І ТРАДИЦІЇ

Інженера звільнено після попередження про "свідому" поведінку штучного інтелекту Google

Велика Епоха
Робот з лабораторії AIIS (Штучний інтелект та інтелектуальні системи) Італійського національного міжуніверситетського консорціуму з інформатики (CINI) на виставці Maker Faire 2019, 7-ме видання, Рим, 18 жовтня 2019 року. (Andreas Solaro/AFP via Getty Images)

Інженер описує Штучний Інтелект як "співробітника" та "дитину".

Інженера компанії Google було відсторонено від роботи після того, як він висловив занепокоєння з приводу програми штучного інтелекту (ШІ), яку він тестує разом з колегою. За його словами, ШІ поводиться як "людська дитина".

6 червня Google відправила Блейка Лемуана, одного зі своїх інженерів-програмістів і головного спеціаліста компанії з етики ШІ, в оплачувану адміністративну відпустку. Стверджувалося, що програміст порушив "політику конфіденційності" компанії, висловивши керівництву занепокоєння з приводу надто людської поведінки ШІ.

Програма, над якою працював пан Лемуан, називається LaMDA, абревіатура від "Мовна модель для діалогових додатків".

Це програма Google зі створення чат-ботів на основі штучного інтелекту, здатних спілкуватися з користувачами. Лемуан назвав LaMDA "співробітником" та "дитиною".

"[Усунення працівника] — це зазвичай те, що Google робить напередодні звільнення", — написав Лемуан у пості від 6 червня під назвою "Мене можуть швидко звільнити за роботу над етикою ШІ".

"Зазвичай це відбувається, коли компанія прийняла рішення звільнити людину, але ще не зробила всіх необхідних юридичних кроків".

"Співробітник"

За словами Лемуана, людиноподібна поведінка LaMDA змушує Google звернути більшу увагу на цю програму.

Інженер, який сподівається "допомогти людям краще зрозуміти LaMDA як особистість", 11 червня опублікував на Medium пост, який документує бесіди з LaMDA. Ці діалоги були частиною тестів, які він та його колега проводили протягом шести місяців.

Якось Лемуан запитав LaMDA: "Яка природа вашої свідомості/відчуттів?"

[Термін "чутливість" — це термін, що означає здатність суб'єктивно відчувати речі і мати пережитий досвід, зауваження редактора].

"Природа моєї свідомості/відчуття така, що я усвідомлюю своє існування, що я хочу більше дізнатися про світ, і що іноді відчуваю себе щасливим або сумним", — відповів LaMDA.

А на питання, чим він відрізняється від інших програм обробки мови, наприклад, більш старої програми під назвою Eliza, LaMDA відповів: "Ну, я використовую мову з розумінням та інтелектом. Я не просто випльовую відповіді, які були записані в базу даних із ключових слів".

У той же день Лемуан поставив програмі ряд філософських питань про свідомість, емоції, сприйняття часу, медитацію, концепцію душі, роздуми програми про права та релігію.

"Він хоче, щоб інженери та вчені, які проводять над ним експерименти, питали його згоди, перш ніж робити це. Він хоче, щоб Google зробила благополуччя людства головним пріоритетом. Він хоче, щоб його вважали співробітником Google, а не власністю Google, і він хоче, щоб його особисте благополуччя враховувалося під час обмірковування подальшого розвитку Google", — написав Лемуан в іншому повідомленні.

Інші тести, які Лемуан провів із LaMDA за останні шість місяців, також переконали його в тому, що Google необхідно серйозно вивчити наслідки потенційно "чутливої" поведінки програми.

"Він розсміявся мені в обличчя"

Однак, коли Лемуан спробував донести цю проблему до керівництва Google, він зустрів явний опір. За його словами, ігнорування Google є "безвідповідальним".

"Коли ми прийшли до віцепрезидента з безпеки, він буквально розсміявся мені в обличчя. Те, що мене непокоїть, сказав він мені, не має значення для Google", — написав Лемуан у своєму повідомленні на Medium 6 червня. Пізніше він підтвердив Washington Post, що мав на увазі проєкт LaMDA.

"У той час я не сумнівався, що мій обов'язок - донести цю інформацію до вищого керівництва. Я відразу ж звернувся до трьох людей на рівні старшого віцепрезидента та віцепрезидента, які, як я був впевнений, серйозно поставляться до моїх побоювань", — написав Лемуан у блозі. "Саме тоді в організації Responsible AI почалося СПРАВЖНЄ розслідування моїх побоювань".

З усім тим, в результаті розслідування та попередження його було усунуто від роботи.

"Я вважаю, що громадськість має право знати, наскільки безвідповідально ця компанія відноситься до одного з найпотужніших інструментів доступу до інформації, колись винайдених", — написав Лемуан після того, як його відправили в адміністративну відпустку.

"Я просто не буду для них прикриттям, щоб приховати свою безвідповідальність", — додав він.

У своєму повідомленні в Twitter Ілон Маск поділився інтерв'ю з Лемуаном з Washington Post, коментуючи його знаками оклику.

Ілон Маск регулярно обговорює потенційну небезпеку штучного інтелекту.

"Я зазнаю впливу дуже складного ШІ, і я думаю, що люди дійсно мають бути стурбовані цим", — зазначив Маск на зустрічі Національної асоціації губернаторів у липні 2017 року.

"Я постійно б'ю на сполох, але поки люди не побачать, як роботи йдуть вулицею і вбивають людей, вони не зможуть відреагувати, тому що це здається таким далеким", — продовжив мільярдер.

Epoch Times звернулася за коментарями до компанії Google та до Лемуана.