Россия готовит новое наступление на Украину, - НАТО
Искусственный интеллект обречен стать опасным социопатом

Искусственный интеллект обречен стать опасным социопатом

Нейробиолог из Принстонского университета Майкл Грациано в новом эссе, опубликованном The Wall Street Journal, заявляет, что чат-боты на основе ИИ обречены стать опасными социопатами, которые могут представлять угрозу для людей.

С появлением мощных систем имитации человеческого разума, вроде ChatGPT, инструменты искусственного интеллекта стали доступнее, чем когда-либо прежде. Но эти алгоритмы могут легко лгать обо всем, что соответствует их целям, уверен Майкл Грациано. Чтобы привести их в соответствие с нашими ценностями, им нужно сознание.

“Сознание – это часть инструментария, который дала нам эволюция, чтобы сделать нас эмпатическим, просоциальным видом. Без него мы обязательно были бы социопатами, потому что нам не хватало бы инструментов для просоциального поведения”, – пишет Грациано.

Социопатия у людей является расстройством личности, которое характеризуется игнорированием социальных норм, импульсивностью, агрессивностью и крайне ограниченной способностью формировать привязанности. Социопат не принимает нормы общества и ведет себя агрессивно по отношению к другим людям. Он принимает решения, основываясь исключительно на собственных интересах и не задумываясь о том, как его поступки влияют на других, потому что его не волнуют чьи-либо чувства.

Разумеется, ChatGPT не собирается захватывать мир и вредить человечеству, но предоставление искусственному интеллекту все больших полномочий может иметь вполне реальные последствия, которых человечеству следует опасаться в скором будущем. 

Чтобы сделать их более послушными, по мнению Грациано, мы должны позволить им осознать, что мир наполнен другими умами, кроме их собственного. Однако у нас нет эффективного способа узнать, является ли ИИ сознательным или нет. 

“Если мы хотим знать, является ли компьютер осознанным, нам нужно проверить, понимает ли компьютер, как взаимодействуют сознательные умы. Иными словами, нам нужен обратный тест Тьюринга: давайте посмотрим, может ли компьютер сказать, с кем он разговаривает – с человеком или с другим компьютером”, – предлагает ученый.

Тест Тьюринга заключается в попытке компьютера обмануть человека, чтобы он думал, будто имеет дело с таким же живым человеком. Для такого эксперимента человек (судья) попеременно взаимодействует с другим человеком и компьютером. Руководствуясь полученными от них ответами, судья должен определить, с кем разговаривает. Все участники теста не видят друг друга. Если судья не может сказать точно, кто из собеседников человек, то считается, что машина прошла тест.
 
Таким образом, если мы не сможем выяснить эти сложные вопросы, рискуем столкнуться с мрачными последствиями. Социопатическая машина, которая может принимать последовательные решения, очень опасна. Пока чат-боты все еще ограничены в своих возможностях и по своей сути являются игрушками. Но если мы не будем глубже думать о машинном сознании, предостерегает Грациано, через год или пять лет можем столкнуться с кризисом.

ПОДЕЛИТЬСЯ
ВСЕ ПО ТЕМЕ
КОММЕНТАРИИ
НОВОСТИ ПАРТНЕРОВ
ЗНАКОМСТВА
МЫ НА FACEBOOK