Современные преступники подняли планку в мире мошенничества, применяя искусственный интеллект для создания фальшивых копий голосов родных и публичных лиц. Эти технологии становятся все более доступными, что ставит под угрозу не только индивидуумов, но и общество в целом, сообщает канал "Пенсионер ".
Что нового происходит в сфере мошенничества?
С каждым днем число случаев, когда мошенники используют ИИ для своих схем, стремительно растет. Рассмотрим основные методы, которые они применяют:
- Клонирование голоса. Преступники достаточно просто просят короткую аудиозапись – всего 10 секунд – из социальных сетей, чтобы создать точную копию голоса человека.
- Создание поддельных видео. Используются технологии deepfake для имитации видео с участием 'родственников' или 'чиновников', что делает обман более правдоподобным.
- Срочные запросы на переводы денег. Мошенники часто прибегают к так называемым "срочным просьбам" о переводе средств на лечение или выкуп.
- Имитирование звонков из учреждений. Убедительность данных методов становится причиной многих трагедий.
Как распознать ИИ-мошенничество?
Сложность распознавания мошенничества возрастает, однако с определенными навыками это вполне возможно. Обратите внимание на следующие признаки:
- Настоящий звонок: обычно включает фоновый шум и естественные паузы.
- ИИ-звонок: отличает слишком "чистый" звук и роботизированные интонации, часто отсутствуют адекватные ответы на неожиданные вопросы.
Рекомендации по безопасности
Для защиты от мошенничества необходимо предпринять следующие шаги:
- Обсудите с близкими секретные кодовые слова.
- Используйте детские прозвища — ИИ не сможет их распознать.
- Регулярно устанавливайте и обновляйте антифрод-программы на своих устройствах.
- Активируйте двухфакторную аутентификацию для защиты личных данных.
Социальная осведомленность — ваша главная защита. Помните: современные технологии позволяют создавать идеальные подделки голосов всего за 5 минут. Будьте внимательны и проверяйте информацию!






























