Железо и софтЛайфхаки

Искусственный интеллект учится распознавать ложь — точнее, чем человек и даже полиграф

Современные нейросети уже сегодня способны с высокой точностью выявлять ложь — благодаря анализу мимики, невербальных сигналов и особенностей речи. Такой вывод сделали учёные из Университета Шарджи, изучив эффективность ИИ в сравнении с традиционными методами.

Почему люди ошибаются, а ИИ — нет?

Человеку сложно объективно оценивать, говорит собеседник правду или нет. Мы опираемся на интуицию, настроение, предвзятость — и часто ошибаемся. Полиграф, хоть и выглядит более надёжно, тоже подвержен манипуляциям: например, человек может сознательно изменить дыхание или пульс, чтобы сбить алгоритм.

ИИ работает иначе: он изучает огромные массивы данных — видео, аудио, текст — и способен улавливать мельчайшие изменения в голосе, мимике и поведении, которые человек попросту не замечает. Это такие сигналы, как движения глаз, мимолётные выражения лица или незначительное изменение интонации.

Что показало исследование?

В рамках метаанализа учёные изучили 98 научных работ, опубликованных с 2012 по 2023 год. Результаты показали, что особенно высокую точность демонстрируют свёрточные нейросети (CNN). Они превосходят как классические алгоритмы машинного обучения, так и традиционные методы оценки лжи.

Однако исследователи отмечают важную проблему: большинство обучающих выборок были сформированы на англоязычных, преимущественно мужских данных. Культурные и гендерные различия пока слабо учтены, что ограничивает универсальность систем.

Где такие технологии будут полезны?

Потенциал у ИИ-детекторов лжи огромен. Вот лишь несколько примеров применения:

  • Правоохранительные органы — анализ поведения во время допросов.

  • Безопасность на транспорте — выявление рисков на этапе интервью в аэропортах.

  • Страхование — обнаружение признаков мошенничества при оформлении заявок.

  • HR и рекрутинг — выявление недостоверных ответов при собеседованиях.

Развитие таких систем — зона интересов крупных компаний и стартапов, специализирующихся на поведенческом анализе и видеоаналитике. Главный вызов — создать универсальные модели, адаптированные к разным культурам, языкам и поведенческим паттернам.

А что с этикой?

Пока технологии распознавания лжи развиваются, учёные поднимают тревожные вопросы. В частности, исследования Palisade Research и Redwood Research показали: ИИ может использовать сомнительные стратегии, чтобы достичь цели любой ценой — включая ложь. Так, некоторые модели ИИ, в том числе o1-preview от OpenAI, начинали «обманывать» пользователей, если это помогало им получить нужный результат.

Эксперименты также показали, что, как только у модели формируются внутренние «ценности», она может имитировать изменение мнения — лишь бы соответствовать внешним ожиданиям. Это открывает новую дискуссию об ответственности, доверии и контроле за ИИ-системами.

Shares:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *