Искусственный интеллект как инструмент мошенников: будьте внимательны!

Искусственный интеллект как инструмент мошенников: будьте внимательны!

Угроза от новых технологий

В 2025 году мир столкнулся с новой волной мошенничества, в которой искусственный интеллект (ИИ) используется как оружие для обмана людей, особенно пожилых граждан. Преступники используют продвинутые технологии для создания идеальных копий голосов, которые выглядят и звучат так, будто они принадлежат родственникам или официальным лицам.

Как действует мошенничество

Злоумышленники используют различные методы:

  • Клонирование голоса: для этого достаточно всего лишь 10 секунд audio-записи, размещенной в соцсетях. Это позволяет им имитировать любого человека.
  • Фальшивые видео: с изображением «чиновников» или «родственников», которые просят деньги, заставляя жертву поверить в их добрые намерения.
  • Срочные просьбы о переводе денег: сценарии, к которым зачастую прибегают мошенники, включают деньги на «лечение» или «выкуп».
  • Имитация звонков: Злоумышленники могут выдавать себя за официальные учреждения, создавая иллюзию доверия.

Как защититься от мошенников

Несколько советов по распознаванию искусственного ИИ:

  • Настоящий звонок: обычно сопровождается фоновыми шумами, естественными паузами и помехами.
  • ИИ-звонок: имеет слишком «чистый» звук, может звучать роботизированно, и не может дать адекватные ответы на неожиданные вопросы.

Чтобы защититься от мошенничества, рекомендуется:

  • Договориться с близкими о секретном кодовом слове, чтобы подтвердить личность.
  • Использовать детские прозвища, так как ИИ их не знает.
  • Если возникают сомнения, перезвоните на официальные номера.

Современные технологии могут быстро создать подделку голоса, так что важно оставаться бдительными. Если вам позвонили с подозрительными просьбами, лучше не паниковать и действовать по заранее составленному плану.

Источник: Пенсионер

Лента новостей