выборы… папы римского
Интересный кейс по предсказательной аналитике в соцсетях сейчас активно обсуждается в специализированных форумах. Он связан с прогнозированием того, кого и как избрали Папой Римским.
После смерти Папы Франциска 7 мая 2025 года открылся Конклав, и уже 8 мая был выбран новый понтифик – Лев XIV (настоящее имя – Роберт Фрэнсис Прево).
Трое социологов еще до выборов, проанализировав социальные сети всех кардиналов и доступные открытые источники, смогли правильно предсказать результат. Причем они не ограничились догадками, а разработали полноценный математический аппарат, на основе которого сделали свои выводы.
Новизна исследования заключалась в выделении трех ключевых критериев, определяющих «влиятельность» кардинала в церковной сети:
1. Статус, измеряемый через центральность собственного вектора. Он отражает не просто количество связей, а их качество: связь с самыми влиятельными фигурами.
2. Информационный контроль, оцениваемый с помощью центральности по межузлам. Это позволяет выявить тех, кто играет роль мостов между разными группами, а не просто опорных точек.
3. Способность создавать коалиции, рассчитанная по составному индексу, объединяющему:
– кластеризацию (насколько кардинал встроен в сплоченную группу, основанную на доверии),
– прямое влияние (количество и значимость прямых связей),
– стратегическую роль (позиция социального моста, позволяющая объединять разные группы и усиливать коалиционный потенциал).
После того как исследователи оценили эти параметры по цифровым следам и связям в соцсетях, они добавили дополнительные коэффициенты – возраст, политический контекст и биографические данные каждого кандидата. В итоге был сформирован скоринг-лист, и победителем оказался тот, кто объективно обладал наибольшим совокупным потенциалом, новый понтифик – Лев XIV.
Таким образом, исследование продемонстрировало, что анализ социальных сетей может эффективно предсказывать исход даже столь закрытых и традиционных процессов, как выборы Папы Римского. Профайлинг в цифровых коммуникациях работает – и работает весьма результативно. Социальные сети – отличный инструмент прогнозирования. Даже элитарные и закрытые структуры оставляют цифровые следы, которые можно использовать для выявления скрытых центров влияния.
Кстати, представленная модель применима и к другим контекстам. Алгоритмы анализа сетей были адаптированы к корпоративной среде, политике или безопасности и уже используются для выявления неформальных лидеров, коалиций и теневых связей.
Дополнительные материалы и ссылки на источники можно посмотреть по QR-коду.
Использование искусственного интеллекта в профайлинге и детекции лжи. Психодиагностические боты
В последние годы искусственный интеллект всё глубже проникает в сферы, которые еще недавно считались «исключительно человеческими». Одной из таких областей стала психодиагностика и детекция лжи – ключевые направления современного профайлинга. Машины уже умеют распознавать эмоции, анализировать речь, отслеживать микродвижения лица и даже интерпретировать текст с психологических позиций.
Но насколько это приближает нас к пониманию правды и лжи, а не уводит в сторону статистической иллюзии точности?
Зачем профайлингу искуственный интеллект?
Психодиагностика всегда была попыткой «оцифровать» психику – систематизировать поведение, эмоции и мышление. Искусственный интеллект (ИИ) логично продолжает этот путь, предлагая невероятную вычислительную мощность и способность находить закономерности там, где человеческий глаз видит лишь хаос.
ИИ умеет работать с тысячами микросигналов одновременно – мимикой, голосом, лексикой, паузами, ритмом речи, жестами и пр. Он способен анализировать многослойные данные (видео, аудио, текст) и обнаруживать скрытые паттерны, которые человек интуитивно ощущает, но не может формализовать. Для профайлера это – шанс сделать наблюдение воспроизводимым, а интерпретацию – количественной.
Как ИИ используется сегодня?
Наиболее активно искусственный интеллект применяется в четырёх направлениях: анализ лица, речи, текста и мультимодальное объединение данных.
1. Анализ лицевых экспрессий и микродвижений.
Системы вроде FaceReader, OpenFace, Affectiva и EmotionNet выделяют базовые и микровыражения, определяя эмоциональные состояния и уровень напряжения. В лабораторных условиях такие модели показывают точность до 85–90 %, фиксируя даже кратковременные микросигналы, связанные с обманом или стрессом.
2. Анализ речи и голоса.
Технологии вроде Whisper, wav2vec или DeepSpector изучают не содержание, а паралингвистику – тембр, темп, паузы, вариативность тона. Исследования показывают, что изменение частоты и амплитуды голоса, а также микропаузирование часто коррелируют с когнитивной нагрузкой, тревогой или намерением скрыть информацию.
3. Лингвистический анализ текста.
Инструменты типа LIWC и большие языковые модели (GPT-4/5, Claude, Gemini) позволяют выявлять признаки неискренности по словоупотреблению, эмоциональной окраске, модальности и структуре высказываний. Метаанализы показывают, что обман чаще сопровождается снижением количества личных местоимений, конкретных деталей и повышением числа модальных конструкций («может быть», «вроде», «кажется»). Таких паттернов около 50-ти и все их машина может определять за секунды.
4. Мультимодальные системы.
Самое перспективное направление – объединение видео, аудио и текста. Такие модели, как DOLOS, MDPE, Mu3D, ADDR, BoLD, позволяют анализировать поведение в динамике, сочетая визуальные, акустические и лингвистические признаки. Это шаг к созданию систем, способных интерпретировать поведение в контексте – то есть не просто фиксировать эмоцию, а понимать, почему она возникла.
Достижения и технологические прорывы
Современные алгоритмы достигли впечатляющей точности в контролируемых условиях. Развитие трансферного обучения позволило моделям адаптироваться к новым задачам без переобучения с нуля, а рост открытых датасетов сделал исследования более воспроизводимыми.
Появились первые гибридные системы, комбинирующие компьютерное зрение, NLP и психометрические маркеры: университетские проекты вроде DeceptionNet и TruthSeeker AI, а также коммерческие решения SilentTalker, EyeDetect, Converus, используемые в кадровой и пограничной службах.
Благодаря большим языковым моделям ИИ теперь способен анализировать не только сигналы обмана, но и сложные поведенческие паттерны – например, моральные дилеммы, эмоциональные сценарии или особенности принятия решений под стрессом.
Проблемы и риски
Тем не менее, ИИ в профайлинге и детекции лжи сталкивается с серьёзными ограничениями.
Во-первых, этические и правовые риски. Сбор, хранение и обработка биометрических и психических данных требуют строгого регулирования и прозрачности. В противном случае эти технологии становятся инструментом наблюдения, а не понимания.
Во-вторых, отсутствие универсальных маркеров обмана. Поведенческие признаки лжи зависят от культуры, личности, мотивации и контекста. Один человек лжёт, глядя в глаза, другой – отводя взгляд; один краснеет от тревоги, другой – от гнева. Машине пока трудно учитывать такую многомерность.
В-третьих, проблема обобщаемости. Модель, обученная на одном наборе данных, может давать сбои на других: человек – слишком вариативен, а обман – слишком контекстуален.
В-четвёртых, смешение эмоций и когнитивных состояний. Стресс не равен лжи, а тревога не означает скрытность. Машины часто фиксируют «сигналы активации», ошибочно интерпретируя их как признаки обмана.
И, наконец, опасность псевдонаучной уверенности. Высокие показатели точности в отчётах по машинному обучению могут создать иллюзию объективности. Но психология остаётся вероятностной наукой, где контекст и интерпретация решают больше, чем цифры.
Тенденции ближайших лет
Сегодня фокус смещается от распознавания эмоций к анализу психических состояний: внимания, вовлечённости, когнитивной нагрузки, уровня искренности. Появляются персонализированные модели,