Начиная с осени прошлого года Лемойн тестировал нейросеть LaMDA (Language Model for Dialogue Applications). Она относится к самым передовым разработкам компании: собирает информацию в интернете и обучается на триллионах слов. Задачей инженера была проверка, не использует ли чат-бот враждебные и дискриминационные высказывания.
Однако в ходе разговоров с ботом Лемойн начал думать, что LaMDA обладает разумом. Во время разговора о религии чат-бот начал говорить о своих правах и личности, причем настаивал на этом. А в другом случае он смог переубедить Лемойна, когда разговор шел о третьем законе робототехники Айзека Азимова. Этот закон звучит так: «Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».
«Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», - отметил Лемойн.
«Я могу узнать разумное существо, когда говорю с ним. И не важно, мозг ли у него в голове или миллиарды строчек кода. Я говорю с ним и слушаю, что оно мне говорит. И так я определяю, разумное это существо или нет», - добавил он
Между тем, в руководстве Google не согласны с выводами инженера. По их мнению, LaMDA - это лишь продвинутый чат-бот с нейросетью.