Восприятие, отражение в сознании действительности зависит от мнений окружающих людей. Это используется для навязывания той или иной позиции. Огромный процент комментариев в сети генерируется ботами. Аккаунты с рандомными цветочкми на аватарках активизирующиеся во время выборов - про это. Сейчас боты выглядят и ведут себя более натурально. Для пиара нужных позиций нанимаются популярые блоггеры, выпускающие контент под конкретное техзадание. Ну а теперь навязывать "правильное" мышление им недостаточно. Думайте только то что разрешено. В России началось тестирование системы обезвреживания инфобомб в интернете «Вепрь», которую планируют запустить в полноценном режиме уже в этом году. Целью новой системы информационного слежения в ГРЧЦ называют выявление потенциальных точек напряженности в сети, которые в будущем могут перерасти в информационные угрозы. Все эти всплески будут анализировать, а также создавать прогнозы «последующего распространения деструктивных материалов». Еще одна задача «Вепря» — определять вероятного автора анонимных сообщений, а также «вероятный трафик для заданного медиаматериала при его публикации». Критерии определения авторства анонимных публикаций, а также степень погрешности работы системы при расшифровке контента официально не называются. Ожидается, что новая система также сможет прогнозировать всплески распространения «инфобомб» в публичном пространстве и самостоятельно прогнозировать дальнейшее развитие тем, включая оценку вызванных ими рисков. Полученную информацию «Вепрь» будет поставлять в компетентные органы, которые уже будут принимать необходимые меры реагирования на государственном уровне. «Вепрь» станет дополнением уже запущенной Роскомнадзором системы «Окулус». В то время как «Окулус» будет анализировать изображения и видео, выявляя в нем противоправный контент, «Вепрь» призван анализировать тексты. В какой степени искусственный интеллект будет влиять на механизмы принятия решений в госорганах власти, пока не сообщается.