Мошенники используют ИИ для обмана: как защитить себя от голосовых клонов и deepfake

Мошенники используют ИИ для обмана: как защитить себя от голосовых клонов и deepfake

Современные преступники подняли планку в мире мошенничества, применяя искусственный интеллект для создания фальшивых копий голосов родных и публичных лиц. Эти технологии становятся все более доступными, что ставит под угрозу не только индивидуумов, но и общество в целом, сообщает канал "Пенсионер ".

Что нового происходит в сфере мошенничества?

С каждым днем число случаев, когда мошенники используют ИИ для своих схем, стремительно растет. Рассмотрим основные методы, которые они применяют:

  • Клонирование голоса. Преступники достаточно просто просят короткую аудиозапись – всего 10 секунд – из социальных сетей, чтобы создать точную копию голоса человека.
  • Создание поддельных видео. Используются технологии deepfake для имитации видео с участием 'родственников' или 'чиновников', что делает обман более правдоподобным.
  • Срочные запросы на переводы денег. Мошенники часто прибегают к так называемым "срочным просьбам" о переводе средств на лечение или выкуп.
  • Имитирование звонков из учреждений. Убедительность данных методов становится причиной многих трагедий.

Как распознать ИИ-мошенничество?

Сложность распознавания мошенничества возрастает, однако с определенными навыками это вполне возможно. Обратите внимание на следующие признаки:

  • Настоящий звонок: обычно включает фоновый шум и естественные паузы.
  • ИИ-звонок: отличает слишком "чистый" звук и роботизированные интонации, часто отсутствуют адекватные ответы на неожиданные вопросы.

Рекомендации по безопасности

Для защиты от мошенничества необходимо предпринять следующие шаги:

  • Обсудите с близкими секретные кодовые слова.
  • Используйте детские прозвища — ИИ не сможет их распознать.
  • Регулярно устанавливайте и обновляйте антифрод-программы на своих устройствах.
  • Активируйте двухфакторную аутентификацию для защиты личных данных.

Социальная осведомленность — ваша главная защита. Помните: современные технологии позволяют создавать идеальные подделки голосов всего за 5 минут. Будьте внимательны и проверяйте информацию!

Источник: Пенсионер

Лента новостей