deepfake

  • Как хакерите използват AI срещу нас и какво трябва да направим, за да се защитим

    Хакерите все по-често използват изкуствен интелект (AI), за да подобрят качеството и ефективността на своите онлайн измами. Те варират от романтични и инвестиционни схеми до такива за наемане на работа.

    Някои от често срещаните кампании включват използване на текст, изображения и видеоклипове, генерирани от AI, за:

    • създаване на реалистични профили в социалните мрежи за социално инженерство, фишинг и измами;
    • комуникация в реално време от името на организации, ръководители или институции с цел получаване на плащания или информация;
    • създаване на рекламни материали и страници за привличане на жертви в измамни инвестиционни схеми;
    • фалшиви порнографски изображения или видеоклипове на жертви или публични личности с цел изнудване;
    • генериране на реалистични изображения и видеоклипове на природни бедствия и конфликти с цел набиране на дарения за фалшиви благотворителни организации.

    Ето какво трябва да направите, за да се предпазите от подобни измами, според ФБР:

    • създайте тайна дума или фраза със семейството си, с която да потвърждавате самоличността си;
    • търсете фини несъвършенства в изображенията/видеоклиповете (напр. изкривени ръце, неправилни лица, странни сенки или нереалистични движения);
    • слушайте внимателно, за да можете да откриете неестествен тон или избор на думи в обажданията. Подобни знаци издават гласовото клониране, генерирано от AI;
    • ограничете публично достъпното съдържание на лицето/гласа си. Настройте акаунтите си в социалните мрежи като лични и ограничете последователите си до доверени хора;
    • проверявайте информацията, която получавате, както и организацията, от която идва. След това се свържете, като използвате официален номер;
    • никога не споделяйте поверителна информация с непознати онлайн или по телефона.
  • 2025: Киберзаплахите, свързани с AI, се задълбочават

    Заплахите, свързани с AI, ще се задълбочат през 2025 и ще се появят нови сложни случаи на злонамерена употреба на технологията. 

    В същото време supply chain атаките ще се пренасочат от големите доставчици на софтуер към глобално възприетите библиотеки и рамки с отворен код. 

    Не на последно място, ще нараснат случаите на кражба на идентификационни данни и използването на infostealer злонамерени софтуери. Това важи и за атаките срещу уязвимости на web3 услуги. 

    Това са основните заключения в доклада на Google Cloud Cybersecurity Forecasts 2025. Според него киберпрестъпниците ще продължат да използват AI и LLM за разработване и мащабиране на сложни схеми за социално инженерство. Групите за кибершпионаж пък ще разчитат в по-голяма степен на deepfake като инструмент за кражба на самоличност и заобикаляне на системите за сигурност. 

    През 2025 г. LLM ще навлезе по-силно в инструментариума за разработка на зловреден софтуер. Технологията ще играе по-голяма роля и в изследването на уязвимостите и писането на код от страна на хакерите. 

    Авторите на доклада очакват също така LLM и deepfake технологиите да захранват повече кампании за манипулиране на информация в социалните медии и дезинформация. 

    „2025 е годината, в която AI ще премине от пилотни проекти и прототипи към широкомащабно приемане“, предупреждават авторите на доклада. 

     

     

Back to top button