AI

  • Фалшив AI видеогенератор заразява Windows и macOS с малуер за кражба на критични данни

    Фалшив AI генератор на снимки и видео заразява Windows и macOS със зловредните софтуери Lumma Stealer и AMOS 

    Той е наречен EditProAI и се популяризира чрез резултати в Google Search и реклами в X, които споделят deepfake политически видеоклипове. 

    Lumma Stealer е насочен към Windows, а AMOS – към macOS. И двата крадат информация за криптопортфейли и кредитни карти, идентификационни данни, пароли и история на сърфирането в браузърите. Тези данни се събират в архив и се изпращат обратно към нападателите. Те могат да използват информацията при следващи атаки или да я продадат на други киберпрестъпници. 

    Според компанията за киберсигурност g0njxa заразяването протича така: 

    • клик върху рекламата отвежда потребителя в сайтовете на EditProAI (editproai.pro за Windows и editproai.org за macOS). Те са направени професионално, за да изглеждат легитимни; 
    • бутонът Get Now изтегля изпълним файл, който се представя за приложението EditProAI; 
    • зловредният софтуер изпраща откраднатите данни към сървър, контролиран от нападателя. 

    Ако вече сте изтегляли тази програма, трябва да считате всичките си запазени пароли, криптопортфейли и удостоверения за компрометирани. Незабавно ги сменете с уникални комбинации за всеки сайт, който посещавате. 

    Трябва също така да активирате MFA за всички критични платформи като онлайн банкиране, имейл и финансови услуги. 

  • 2025: Киберзаплахите, свързани с AI, се задълбочават

    Заплахите, свързани с AI, ще се задълбочат през 2025 и ще се появят нови сложни случаи на злонамерена употреба на технологията. 

    В същото време supply chain атаките ще се пренасочат от големите доставчици на софтуер към глобално възприетите библиотеки и рамки с отворен код. 

    Не на последно място, ще нараснат случаите на кражба на идентификационни данни и използването на infostealer злонамерени софтуери. Това важи и за атаките срещу уязвимости на web3 услуги. 

    Това са основните заключения в доклада на Google Cloud Cybersecurity Forecasts 2025. Според него киберпрестъпниците ще продължат да използват AI и LLM за разработване и мащабиране на сложни схеми за социално инженерство. Групите за кибершпионаж пък ще разчитат в по-голяма степен на deepfake като инструмент за кражба на самоличност и заобикаляне на системите за сигурност. 

    През 2025 г. LLM ще навлезе по-силно в инструментариума за разработка на зловреден софтуер. Технологията ще играе по-голяма роля и в изследването на уязвимостите и писането на код от страна на хакерите. 

    Авторите на доклада очакват също така LLM и deepfake технологиите да захранват повече кампании за манипулиране на информация в социалните медии и дезинформация. 

    „2025 е годината, в която AI ще премине от пилотни проекти и прототипи към широкомащабно приемане“, предупреждават авторите на доклада. 

     

     

  • Новооткрита уязвимост в ChatGPT разкрива пропуските в защитата на AI системите

    Новооткрита уязвимост позволява заобикаляне на защитните механизми на ChatGPT с помощта на шестнайсетично кодирани инструкции. Откритието, направено чрез bug bounty програмата за откриване на грешки в сигурността 0Din, повдига сериозни въпроси относно сигурността на AI системите. 

    Новата jailbreaking тактика позволява на потребителите да заобиколят вградените ограничения на ChatGPT чрез кодиране на злонамерени инструкции. В демонстрация на Марко Фигероа, мениджър по сигурността на AI в Mozilla, ChatGPT е накаран да генерира експлойт код на Python за известна уязвимост. Това обикновено е забранено от системата. 

    Изследователят разкрива и втора техника, използваща емоджита за заобикаляне на защитите. Чрез специално форматирана заявка системата е подведена да създаде инструмент за SQL инжекция. 

    „Този пробив демонстрира нуждата от по-усъвършенствани мерки за сигурност в AI моделите, особено по отношение на кодирането“, коментира Фигероа пред CybersecurityNews.

    OpenAI, компанията зад ChatGPT, е реагирала бързо и въпросните уязвимостите вече са отстранени. Този случай обаче подчертава нуждата от усъвършенствани функции за защита на AI платформите, включително подобрена контекстуална осведоменост и по-стабилни механизми за филтриране.  

    Организациите, от своя страна, трябва да останат бдителни и да следят най-новите разработки в областта на атаките, базирани на AI, за да се предпазят от тези нови заплахи. 

     

  • Искате 1 млн. USD? Пробийте защитите на AI сървърите на Apple

    Apple предлага до 1 млн. USD възнаграждение на всеки, който успее да пробие защитата на нейната система Private Cloud Compute (PCC). Тя захранва най-взискателните от изчислителна гледна точка задачи на AI платформата на компанията – Apple Intelligence. 

    За целта гигантът от Купертино за първи път създава Виртуална изследователска среда (Virtual Research Environment) и предоставя изходния код на няколко „ключови компонента“ на системата. Този набор от инструменти позволява извършването на оценки на сигурността на PCC директно от Mac. 

    Максималната награда е за идентифициране на уязвимости, които биха могли да застрашат основните защити и механизмите за поверителност на платформата.  

    За да подпомогне усилията на изследователите по сигурността, Apple публикува Ръководство за сигурност на Private Cloud Compute. То описва подробно как различните компоненти на PCC работят заедно, за да осигурят високи нива на поверителност за обработката на изкуствен интелект в облака.  

     

  • Фирмите масово неглижират киберсигурността при интеграцията на AI

    Все повече организации обмислят пълномащабната интеграция на системи с изкуствен интелект (AI). В малко от тях обаче в този процес са въвлечени екипите за киберсигурност.

    45% от респондентите в ново проучване на ISACA посочват, че не участват в разработването, внедряването или прилагането на решения за AI. В същото време едва 35% от 1800 специалисти казват, че участват в разработването на подобни решения и политики.

    AI се използва от различни звена в една организация, а хакерите вече разработват набори от инструменти за използването му като входна точка за кибератаки. Така че тази тенденция крие много рискове, между които:

    • отравяне на данни, което компрометира процеса на обучение на AI;
    • вграждане на „задни вратички“ в моделите, които позволяват неоторизиран достъп впоследствие;
    • атаки към компонентите, участващи в разработването и внедряването на AI модели;
    • кражба на модели, при която нападателите използват слабостите на системата, за да деактивират защитните ѝ механизми.

    Затова е задължително киберсигурността винаги да бъде основна част от процеса на имплементация на подобни системи.

     

     

  • Хакерски групи използват ChatGPT за създаване на малуер и кибератаки

    Спонсорирани от държавата хакерски групи от страни като Китай и Иран използват възможностите на ChatGPT, за да подобрят своите офанзивни кибер операции.  

    Според доклада Influence and Cyber Operations: An Update на OpenAI случаите на употреба варират от отстраняване на грешки в злонамерен код до генериране на съдържание за фишинг кампании и дезинформация в социалните медии. 

    Един от забележителните случаи включва китайска кампания, наречена SweetSpecter. Тя използва ChatGPT за шпиониране, изследване на уязвимости и разработване на зловреден софтуер. Групата дори е насочила неуспешна фишинг атака срещу служители на OpenAI. 

    CyberAv3ngers, иранска група, свързана с Корпуса на гвардейците на ислямската революция, пък изследва уязвимостите в индустриалните системи с помощта на AI модела. Освен това тя е генерирала скриптове за потенциални атаки срещу критична инфраструктура. 

    Друга иранска група – STORM-0817 – е разчитала на ChatGPT за разработване на зловреден софтуер за Android. Той е способен да открадне чувствителни потребителски данни, включително контакти, регистър на обажданията и информация за местоположението. 

  • Пробив в кол център компрометира над 10 милиона разговора между потребители и AI

    Мащабно нарушение на данните в базиран на изкуствен интелект кол център в Близкия изток разкри над 10 милиона разговора между потребители, оператори и AI агенти. Пробивът е включвал неоторизиран достъп до таблото за управление на платформата.  

    От компанията за киберсигурност Resecurity предупреждават, че откраднатата информация може да бъде използвана за социално инженерство, фишинг схеми и други злонамерени дейности. Името на платформата все още не е ясно, но Infosecurity Magazine твърди, че тя се използва широко във финтех индустрията и електронната търговия.  

    Този пробив подчертава нарастващата уязвимост на базираните на AI платформи, които се използват все повече за подобряване на обслужването на клиентите 

    Въпреки че предлагат персонализирана, ефективна комуникация, те също така представляват значителна заплаха за поверителността на данните, ако бъдат компрометирани. Така че внимателно обмисляйте каква информация споделяте при взаимодействие с тях и при всички случаи избягвайте въвеждането на критични лични или фирмени данни. 

      

  • Deepfake генератори разпространяват зловреден софтуер за кражба на данни

    Руската хакерска група FIN7 разпространява зловреден софтуер за кражба на данни чрез мрежа от фалшиви сайтове за генериране на nudefake deepfake технология за създаване на голи версии на снимки на облечени хора – с помощта на AI.  

    Мрежата от генератори работи под една и съща марка – AI Nude – и се популяризира чрез black hat SEO тактики, за да могат сайтовете да се класират високо в резултатите от търсенето. 

    Според компанията за следене на зловредната активност в интернет Silent Push сайтовете позволяват на потребителите да качват снимки на хора, които искат да „съблекат“. След като предполагаемият „deepnude“ бъде направен обаче, той не се показва на екрана. Вместо това потребителят е подканен да кликне върху връзка, за да изтегли създаденото изображение.  

    Това го води към друг сайт, който показва връзка за защитен с парола архив, хостван в Dropbox. Архивът обаче съдържа зловредния софтуер Lumma Stealer, който краде информация, идентификационни данни и бисквитки, записани в уеб браузърите, портфейли за криптовалута и др. 

    Всичките седем сайта, открити от Silent Push, са свалени вече, но винаги бъдете много внимателни, когато различни онлайн платформи ви предлагат свободен достъп до напреднали технологии. Понякога безплатното излиза най-скъпо. Особено в интернет. 

  • 38% от служителите споделят чувствителна служебна информация с AI чатботове

    Според ново проучване на CybSafe и National Cybersecurity Alliance (NCA) повече от 1/3 (38%) от служителите споделят чувствителна служебна информация с AI инструменти без разрешението на работодателя си.  

    Това поведение е особено силно изразено сред по-младите поколения – около половината (46%) от анкетираните представители на поколението Z и 43% от милениалите признават, че го правят. 

    Проучването също така установява, че 52% от респодентите разкриват, че все още не са преминали никакво обучение за безопасно използване на AI. 

    Въпреки фрапиращия процент на служителите, които споделят критична информация с AI модели, 2/3 от анкетираните (65%) изразяват загриженост относно киберпрестъпленията, свързани с AI. Повече от половината (52%) смятат, че технологията ще затрудни откриването на измами, а 55% – че тя ще влоши сигурността в интернет. 

    Тази статистика е изключително притеснителна, тъй като въвеждането на служебни данни в AI чатбот без подходящи мерки за сигурност може да доведе до сериозни рискове: 

    • изтичане на критична информация; 
    • злоупотреба с данни; 
    • нарушаване на регламенти като GDPR; 
    • употребата им за фишинг атаки и социално инженерство. 

    Затова компаниите трябва да провеждат постоянни обучения по киберсигурност за служителите си и да въведат ясни процеси и строги правила за работа със служебни данни.  

     

  • Използването на AI за писане на код притеснява 92% от CISO

    Разработчиците в почти всички организации (83%) използват AI за генериране на код, което притеснява лидерите в областта на киберсигурността. 

    Това е един от основните изводи от новото проучване на доставчикът на услуги за управление на машинна идентичност Venafi – Organizations Struggle to Secure AI-Generated and Open Source Code. То показва, че макар 72% от CISO да смятат, че нямат друг избор, освен да позволят използването на AI, 92% от тях имат опасения, свързани с това. 63% дори са обмисляли да забранят използването на технологията в кодирането заради рисковете за сигурността.   

    Тъй като развитието на AI и особено на GenAI е изключително бързо, 66% от CISO смятат, че не могат да бъдат в крак с него. Още по-голям брой (78%) са убедени, че генерираният от AI код ще доведе организацията им до проблеми със сигурността. 59% са изключително притеснени.   

    Първите три опасения, които най-често се посочват от участниците в проучването, са:   

    • разработчиците ще станат прекалено зависими от AI, което ще доведе до понижаване на стандартите;
    • кодът, написан с AI, няма да бъде ефективно проверяван за качество;   
    • AI ще използва остарели библиотеки с отворен код, които не са добре поддържани.  
Back to top button