Учёный выявил «алгоритмическую шизофрению» нейросетей

by · Код Дурова · Подписаться

Петербургский учёный исследовал склонность больших языковых моделей к галлюцинациям и «цифровой шизофрении».

Статья научного сотрудника Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растяма Алиева опубликована в журнале «Логос». В ней он напоминает, что ИИ-алгоритмы не просто искажают реальность, но и заменяют её. В итоге мы получаем «новый уровень реальности, где симуляция и оригинал утрачивают различия».

Учёный проводит параллель между «галлюцинациями» больших языковых моделей — их склонностью генерировать вымышленные факты — и симптомами психических заболеваний.

«Наше общество долго вдохновлялось научной фантастикой и представляло ИИ как холодного и неэмоционального андроида. Этот образ скорее соответствует диагнозу расстройства аутистического спектра. Однако в реальности нейросети не проявляют себя как носители РАС. Они интерпретируют эмоциональные оттенки текста, создают нечто похожее на когнитивные искажения», — говорится в статье.

Алгоритмы, по словам Алиева, создают новые способы мышления. Учёный считает это ещё одним признаком «психических болезней» искусственного интеллекта.

«Убедиться в том, что «пациент» болен, довольно несложно: если попросить ИИ отвечать в духе больного шизофренией, то точность его ответов увеличивается, как будто он становится более внимателен к деталям, то есть знакам», — продолжает автор.

Если поставить перед чат-ботом сложный вопрос, его галлюцинации обостряются: «не находя готового ответа, нейросеть комбинирует факты из собственной базы знаний со своей «фантазией».

«С одной стороны, продукты ИИ созданы на основе реальности, с другой — предвосхищают её. В современном мире ИИ становится частью повседневности. К нему обращаются люди, которые нуждаются в психологической помощи, им заменяют сотрудников. Но относиться к нему нужно осторожно. Всегда помните, что ваш собеседник тяжело «болен», перепроверяйте за ним все», — отмечает автор статьи.