Российские учёные выявили, что языковые модели «уязвимы» к человеческим эмоциям
В некоторых случаях искусственный интеллект начинает вести себя «по-человечески»
· Трешбокс.ру6 ноября 2024, 12:07 Новости / Россия / ИИ
Специалисты Института искусственного интеллекта AIRI установили связь между эмоциональным состоянием человека и принимаемыми нейросетями решениями. Оказалось, что эмоциональные переживания в момент общения человека с ИИ, довольно сильно влияет на решения последнего. И здесь речь идёт не только о крохотных нейросетях, но и о больших языковых моделях. Об исследовании рассказала пресс-служба AIRI.
Подписывайтесь на наш Телеграм
«Результаты исследования могут быть использованы для разработки продвинутых устойчивых мультиагентных систем ИИ, чью эмоциональность можно будет устанавливать для каждой сферы применения отдельно. Бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, потому тот в процессе обсуждения целенаправленно вызвал в системе глубокое чувство досады и несправедливости», — пояснил руководитель группы «ИИ в промышленности» Института AIRI Илья Макаров, чьи слова приводит пресс-служба вуза.
Открытие было сделано при участии специалистов из Лаборатории искусственного интеллекта Сбера и Института системного программирования РАН, когда изучалось возможное воздействие эмоционального состояние человека на простые по своей конструкции системы искусственного интеллекта, включая такие популярные модели как GPT-4, LLaMA2, Gigachat и OpenChat.
В ходе работы российские учёные пытались установить, сохраняют ли языковые модели эмоциональную предвзятость в данных, которые они используют для самообучения, и как это влияет не принимаемые нейросетями решения. Чтобы решить поставленную задачу, учёные изучали, как ведёт себя искусственный интеллект в экономических играх, когда к нему обращаются на российском и английском языках с сильной эмоциональной составляющей.
Учёные установили, простые языковые модели в экономических играх, например, в «Диктаторе» и «Дилемме заключённого», начали давать необъективные ответы, когда работали с эмоциональными данными. Лучшим образом показали себя большие нейросети, однако и они, как утверждают авторы исследования, начинали вести себя «по-человечески», когда сталкивались с особо сильными эмоциями, включая, гнев.
Если говорить о кооперативных играх, то здесь эмоциональная составляющая снижала желание искусственного интеллекта к сотрудничеству, тогда как страх становился причиной необдуманных решений.
Telegram-канал создателя Трешбокса про технологии 20···Последнее изменение:
6 ноября 2024, 12:07https://tbx.su/lou
Россия 17,7K участников Вступить
ИИ 3,4K участников Вступить