«AI slop». Как искусственный интеллект засоряет интернет низкокачественным контентом
В соцсетях все чаще появляются картинки, напоминающие смесь фото и компьютерной графики. Одни выглядят фантастически, другие — более реалистично, на первый взгляд.
by Дарья Позняковская · NV | nv.ua | Радіо NV | Новини України | Аналітика | Відео | НВ | · ПодписатьсяСделать резюме статьи:
ChatGPT
Это примеры так называемого «AI slop» — низко- или среднекачественного контента (видео, фото, текст, аудио или их комбинации), созданного искусственным интеллектом без проверки на точность. Такой материал делают быстро, дешево и массово, а распространяют его преимущественно в соцсетях, чтобы зарабатывать на просмотрах и отвлекать внимание от более качественных источников.
В июле 2025 года The Guardian опубликовало анализ, где говорилось, что этот контент заполонил YouTube. Журналисты обнаружили: девять из 100 самых быстрорастущих каналов полностью состоят из материалов, сгенерированных искусственным интеллектом — от «зомби-футбола» до «кошачьих мыльных опер».
Еще один пример — группа The Velvet Sundown, которая появилась на Spotify с вымышленной историей и песнями. На самом деле вся музыка создана нейросетью.
Из-за легкости в использовании ИИ люди массово присылают в медиа низкокачественные тексты. Так, научно-фантастический онлайн-журнал Clarkesworld в 2024 году вынужден был прекратить прием новых работ, ведь его завалили искусственными текстами. Подобные проблемы возникают даже в Википедии, где ИИ-статьи перегружают систему модерации.
«AI slop» не только засоряет информационное пространство, но и используется для распространения дезинформации. Например, во время урагана Хелен в 2024 году в соцсетях распространяли поддельное фото девочки со щенком, чтобы критиковать действия администрации президента Джо Байдена в ликвидации последствий стихии.
Даже когда очевидно, что картинка создана нейросетью, она все равно способна ввести людей в заблуждение.
Кроме того, искусственный контент вредит художникам и авторам, ведь вытесняет их работу и уменьшает возможности заработка. Алгоритмы соцсетей не отличают качественный материал от низкокачественного, поэтому настоящие создатели оказываются в менее выгодном положении.
На многих платформах пользователи могут помечать проблемный контент или добавлять объяснения для сообщества. Вредные материалы можно также обжаловать администрации.
Автор материала, Адам Немерофф, заместитель проректора по инновациям в обучении, преподавании и технологиях Университета Квиннипиак, подытоживает:
«Мы уже привыкли остерегаться дипфейков и фейковых аккаунтов, а теперь имеем дело еще и с массовым потоком низкокачественного мусора, который ухудшает информационную среду. По крайней мере теперь у этого явления есть меткое название».