Инженер по программному обеспечению компании Google Блейк Лемойн (Blake Lemoine) заявил, что созданный корпорацией искусственный интеллект (ИИ) LaMDA (Language Model for Dialogue Applications) обладает собственным сознанием. В ответ руководство компании отстранило его от работы. Об этом сообщает газета The Washington Post.
LaMDA представляет собой нейросетевую языковую модель для диалоговых приложений, предназначенную для общения на любые темы. В задачи Лемойна входило тестирование системы. В частности, он должен был определить, не использует ли она дискриминационную или разжигающую вражду лексику. Вместо этого специалист пришел к выводу, что ИИ обладает собственным сознанием. Так, Лемойн заметил, что чат-бот говорит о своих правах и воспринимает себя как личность.
«Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», — заявил 41-летний инженер.
По итогам работы Лемойн подготовил письменный отчет. Однако руководство компании посчитало аргументацию сотрудника неубедительной. «Ему было сказано, что свидетельства того, что LaMDA обладает сознанием, отсутствуют. При этом есть множество свидетельств обратного», — говорится в заявлении официального представителя Google Брайана Гэбриела. Уточняется, что Лемойна отправили в оплачиваемый административный отпуск.
Ранее сообщалось, что новая система искусственного интеллекта Facebook (запрещенная в РФ соцсеть; принадлежит корпорации Meta, которая признана в РФ экстремистской и запрещена) имеет «высокую склонность» к расизму и предвзятости. Исследователи искусственного интеллекта компании уличили нейросеть в том, что, используя большую языковую модель OPT-175B, даже при безобидном запросе она выдает «токсичные» результаты, которые усиливают расистские и сексистские стереотипы.