Старые боты были тупыми. Их вычисляли по шаблонным постам, одинаковым аватаркам и нулевой истории. Новые — принципиально другие.
По данным апрельского исследования, ИИ-персонажи стали настолько реалистичными, что способны проникать в онлайн-сообщества и незаметно управлять общественным мнением. В отличие от традиционных ботов, они адаптируются к контексту, координируют действия между собой и уточняют свои нарративы в промышленных масштабах, создавая искусственное ощущение консенсуса.
Ключевое слово здесь — адаптируются. Старый бот публиковал один и тот же текст в разных ветках. Новый агент читает обсуждение, понимает тон, находит точку входа и встраивается в дискуссию органично. Он не спамит — он участвует. И именно поэтому его труднее обнаружить.
Координация между агентами добавляет ещё один уровень сложности. Один персонаж поднимает тезис, второй «случайно» его поддерживает, третий добавляет «личный опыт». Для наблюдателя со стороны это выглядит как органически сложившееся мнение сообщества. На деле — оркестрованная операция влияния.
Это не гипотетический сценарий из академической статьи. Это то, что уже происходит на форумах, в комментариях и тематических группах — в политических дискуссиях, потребительских отзывах, медицинских сообществах.
Отдельная ремарка о природе проблемы. Традиционные методы детекции ботов — анализ частоты постинга, сравнение текстов, проверка аккаунта на молодость — перестают работать, когда агент ведёт аккаунт месяцами, публикует разнообразный контент и встраивается в реальные беседы.
Индустрия модерации контента построена для войны с прошлым поколением угроз. Это примерно как защищать периметр от конницы, когда противник уже освоил дроны.
Решений пока нет — есть только осознание масштаба проблемы. И это уже прогресс по сравнению с ситуацией год назад, когда большинство платформ делали вид, что проблемы не существует.
Источники: ScienceDaily (sciencedaily.com), Artificial Intelligence News (artificialintelligence-news.com)
