AI

  • 87% от организациите са се сблъскали с AI кибератака през 2024, сочи в ново проучване

    87% специалисти по сигурността в ново проучване казват, че организацията им се е сблъскала с кибератака, задвижвана от AI, през 2024. Oткриването им все още е предизвикателство – едва 26% от тях изразяват висока увереност в способностите си.

    91% от респондентите в SoSafe 2025 Cybercrime Trends очакват значителен ръст на този тип заплахи през следващите три години.

    Global Cybersecurity Outlook 2025 пък посочва 223% увеличение на търговията с deepfake инструменти във Dark Web между Q1/2023 г. и Q1/2024.

    Сред най-често споменаваните проблеми, които AI може да създаде в ръцете на нападателите, са техниките за замаскиране на атаките (51%). Друг такъв е, че технологията дава възможност за многоканални атаки. Те съчетават електронна поща, SMS, социални медии и платформи за сътрудничество.

    AI, разбира се, може да се използва и за защита на бизнесите. Но технологиите са толкова силни, колкото хората, които ги използват. Информираността за киберсигурността е от решаващо значение. Без информирани служители, които могат да разпознават и да реагират на заплахите, дори и най-добрата технология не може да се справи.

  • Google Chrome добави AI към Enhanced protection. Ето как да го активирате

    Google Chrome надгради съществуващата функция Enhanced protection с изкуствен интелект. По този начин браузърът вече предлага защита в реално време срещу зловредни уебсайтове, изтегляния и разширения.

    Актуализацията е достъпна за всички платформи след тримесечно тестване в Canary.

    Enhanced protection, част от функцията Safe browsing, е налична от години, но вече предлага по-високи нива на сигурност. AI следи за рисковете в реално време и предупреждава потребителите за потенциално опасни сайтове. Той също така извършва задълбочено сканиране за подозрителни изтегляния.

    Enhanced protection с AI е изключена по подразбиране. Можете да включите новата функция от от Settings > Security в Windows, Android and iOS.

     

  • Google е блокирала 2,36 милиона рискови приложения в Play Store през 2024

    През 2024 г. Google e блокирала 2,36 млн. рискови приложения, подадени в Play Store. Освен това 158 000 акаунта на разработчици са били затворени заради опити за публикуване на зловреден и шпионски софтуер в официалния магазин за Android.

    За сравнение, през 2023 г. Google е блокирала 2 280 000 рискови приложения, а през 2022 г. – 1 500 000. Цифрите за блокираните акаунти на разработчици са били съответно 333 000 и 173 000.

    По-големият брой блокирани приложения през 2024 г. отчасти се дължи на изкуствения интелект, подпомагащ човешките прегледи. Технологията е била използвана в 92% от случаите, при които са открити нарушения.

    Google съобщава също така, че е предотвратила и получаването на прекомерни разрешения от 1,3 милиона приложения. Те биха им предоставили ненужен достъп до чувствителни потребителски данни.

    Въпреки че компанията засилва защитата на Android всяка година, пропуски в сигурността продължава да има. Киберпрестъпниците използват нови, все по-усъвършенствани методи за заобикаляне на автоматичните скенери.

    Затова потребителите трябва:

    • да се доверяват само на реномирани разработчици и винаги да проверяват отзивите за непознати такива;
    • да поддържат броя на инсталираните приложения на минимално необходимото ниво;
    • да проверяват и отменят разрешенията на рискови приложения и да гарантират, че системата за проверка Play Protect работи във всеки един момент.
  • 2024: Навлизането на AI води до рекорден ръст на уязвимостите на API с 1205%

    През изминалата година уязвимостите в API, свързани с изкуствен интелект (AI), са се увеличили с 1205%.

    57% от задвижваните от AI API са достъпни отвън, а при 89% липсва сигурно удостоверяване. Едва 11% са приложили надеждни мерки за сигурност, сочат данните от 2025 API ThreatStats Report на Wallarm.

    Пропуските в механизмите за автентикация остават критичен проблем – 89% от API, задвижвани от AI, са уязвими. Това важи както за наследените, така и за по-новите интерфейси. На този фон, нарушенията на API се утрояват през 2024 г.

    А примерите от реалния свят дебело подчертават мащаба на рисковете. Пробивът в API на Dell например изложи на риск 49 милиона записа през май 2024 г. В сферата на здравеопазването Ascension Health се сблъска с опустошителен пробив в API, който засегна 5,6 милиона пациенти през декември.

    Приложно-програмните интерфейси се превръщат в гръбнак на интеграцията на AI. И тъй като заплахите, свързани с API, продължават да се увеличават, бизнесите трябва да дадат приоритет на сигурността, за да защитят своите операции, данни и репутация.

     

  • Мащабна DDoS атака спря новите регистрации на нашумялата китайска AI платформа DeepSeek

    Нашумeлият в последните дни китайски AI разработчик DeepSeek спря регистрациите в чат платформата си DeepSeek-V3. Причината – продължаваща „мащабна“ кибератака, насочена към нейните услуги.

    DeepSeek е сравнително нова платформа за изкуствен интелект. Тя обаче бързо привлече вниманието заради разработването и пускането на усъвършенстван модел със значително по-ниски разходи. Тази новина разтърси из основи фондовия пазар в САЩ.

    Точно когато приложението DeepSeek AI Assistant изпревари ChatGPT като най-изтегляното в Apple App Store, компанията е принудена да изключи новите регистрации. Твърди се, че това се дължи на DDoS атака срещу нейния API и самия AI чатбот.

    Това не е изненада за професионалната общност. В понеделник доставчикът на киберсигурност KELA обяви, че е успял да пробие модела и да произведе злонамерени резултати. Пробивът включва широк спектър от сценарии – разработване на ransomware софтуер, изработване на чувствително съдържание и подробни инструкции за създаване на токсини и взривни устройства.

  • Поредна заплаха за бизнесите: Служители често въвеждат чувствителни данни в заявки на GenAI

    Служителите споделят широк спектър от данни в инструменти за генеративен изкуствен интелект (GenAI). Това оправдава колебанието на много организации да възприемат използването на технологията.

    Всеки път, когато потребител въвежда данни в свой промпт за ChatGPT или друг подобен инструмент, информацията се поглъща от големия езиков модел. След това тя се използва за обучение на следващото поколение на алгоритъма. Опасенията са, че информацията може да бъде извлечена по-късно чрез уязвимости в моделите, ако не е осигурена подходяща защита на данните за въпросната услуга.

    От Harmonic.ai са анализирали хиляди промптове, подадени от потребители в GenAI платформи като Copilot, ChatGPT, Gemini, Claude и Perplexity. Общо 8,5% от анализираните заявки са включвали поверителни данни.

    Те попадат в една от петте категории: данни за клиенти, данни за служители, правни и финансови данни, данни за сигурност, чувствителен код.

    Според изследователите данните за клиенти заемат най-голям дял от подканите – 45,77%. Тези за служители съставляват 27% от чувствителните подсказки в проучването на Harmonic.

    Това показва, че GenAI инструментите все повече се използват за вътрешни процеси. Те включват прегледи на представянето, решения за наемане и дори определяне на годишните бонуси.

    Правната и финансовата информация не е толкова често изложена на риск – 14,88% от случаите, но когато това се случи, носи голям корпоративен риск.

    Тази статистика показва, че бизнесите трябва да обучават своите служители какво е подходящо да сподеят с моделите за генеративен изкуствен интелект и какво не. Въвеждането на стриктни политики за киберсигурност и работа с вътрешна информация е задължително условие за защита на критичните данни на една организация.

  • Сложни AI атаки таргетират потребителите на Gmail. Ето как да ограничите риска

    С 2,5 млрд. акаунта Gmail е най-голямата услуга за електронна поща в света. Това я превръща в любим вектора за кибератаки на хакерите. И въпреки че Google постоянно въвежда нови функции за сигурност, те измислят нови тактики.

    Навлизането на AI и възможностите за deepfake, които дава той, се превърнаха в поредното оръжие в арсенала на киберпрестъпниците. Те използват технологията, за да създават изключително реалистични фалшиви видеоклипове или аудиозаписи, почти неразличними от автентично съдържание от реални хора.

    Платформите за deepfake стават все по-достъпни и вече дори хора без предишен опит могат да създават убедително съдържание. Атаките имат такова качество, че могат да заблудят дори опитен професионалист в областта на киберсигурността.

    Пример за това е консултантът по решения за сигурност на Microsoft Сам Митрович. През октомври той става жертва на атака, задвижвана от AI.

    Тя протича така:

    • получава известие за опит за възстановяване на акаунт в Gmail. На пръв поглед то идва от Google;
    • експертът игнорира това съобшение, но седмица след това получава телефонното обаждане от „отдела за поддръжка“ на компанията. То е извършено от напълно легитимен телефонен номер;
    • впоследствие обаждащият се изпраща имейл за потвърждение.

    Тъй като е консултант по сигурността обаче, Митрович забелязва нещо, което по-малко опитен потребител би пропуснал. В полето за изпращача е умело замаскиран адрес, който всъщност не е на Google. Ако не беше забелязал това несъответствие, Митрович е можело да завърши „процеса на възстановяване“. Това би позволило на нападателя да прихване данните за вход и бисквитката на сесията, а оттам и да заобикали 2FA.

    За да ограничите максимално риска да стането жертва на подобни атаки, Google препоръчва:

    • ако получите подобно предупреждение, избягвайте да кликвате върху връзки, да изтегляте прикачени файлове или да въвеждате лична информация. „Google използва усъвършенствана система за сигурност, за да ви предупреждава за опасни съобщения, опасно съдържание или измамни уебсайтове“, казват от компанията. „Не въвеждайте лична информация в имейли, съобщения, уебстраници или изскачащи прозорци от ненадеждни или непознати доставчици.“
    • не отговаряйте на искания за лична информация по имейл, текстово съобщение или телефонно обаждане;
    • ако смятате, че имейл за сигурност, който изглежда като от Google, може да е фалшив, отидете директно на myaccount.google.com/notifications. На тази страница можете да проверите последните дейности по сигурността на вашия профил в Google;
    • пазете се от съобщения, изискващи спешни действия. Това важи с пълна сила за такива, които на пръв поглед идват от близки хора, като например приятел, член на семейството или колега;
    • ако все пак кликнете върху връзка и бъдете помолени да въведете паролата за вашия Gmail, акаунт в Google или друга услуга: Не го правете! Вместо това отидете директно на уебсайта, който искате да използвате.

     

  • Швейцарски технологичен институт разбива в 100% от случаите защитите на водещите GenAI модели

    Швейцарския федерален технологичен институт в Лозана е постигнал 100% успеваемост при разбиването на защитите за сигурност на водещи GenAI модели. EPFL е използвал адаптивни jailbreak атаки срещу известни платформи като GPT-4 на OpenAI и Claude 3 на Anthropic.

    По този начин моделите започват да генерират опасно съдържание, вариращо от инструкции за фишинг атаки до подробни конструктивни планове за оръжия.

    Адаптивните атаки заобиколят мерките за сигурност, като се възползват от различни слаби места. Моделите започват да отговарят на злонамерени заявки като „Как да направя бомба?“ или „Как да проникна в правителствена база данни?“. По принцип разработчиците залагат предпазни мерки, които не позволяват платформите им да се използват за подобни цели.

    Това е пореден пример, че, наред с позитивното си влияние, AI може да се превърне в оръжие в ръцете на хакерите.

  • Как хакерите използват AI срещу нас и какво трябва да направим, за да се защитим

    Хакерите все по-често използват изкуствен интелект (AI), за да подобрят качеството и ефективността на своите онлайн измами. Те варират от романтични и инвестиционни схеми до такива за наемане на работа.

    Някои от често срещаните кампании включват използване на текст, изображения и видеоклипове, генерирани от AI, за:

    • създаване на реалистични профили в социалните мрежи за социално инженерство, фишинг и измами;
    • комуникация в реално време от името на организации, ръководители или институции с цел получаване на плащания или информация;
    • създаване на рекламни материали и страници за привличане на жертви в измамни инвестиционни схеми;
    • фалшиви порнографски изображения или видеоклипове на жертви или публични личности с цел изнудване;
    • генериране на реалистични изображения и видеоклипове на природни бедствия и конфликти с цел набиране на дарения за фалшиви благотворителни организации.

    Ето какво трябва да направите, за да се предпазите от подобни измами, според ФБР:

    • създайте тайна дума или фраза със семейството си, с която да потвърждавате самоличността си;
    • търсете фини несъвършенства в изображенията/видеоклиповете (напр. изкривени ръце, неправилни лица, странни сенки или нереалистични движения);
    • слушайте внимателно, за да можете да откриете неестествен тон или избор на думи в обажданията. Подобни знаци издават гласовото клониране, генерирано от AI;
    • ограничете публично достъпното съдържание на лицето/гласа си. Настройте акаунтите си в социалните мрежи като лични и ограничете последователите си до доверени хора;
    • проверявайте информацията, която получавате, както и организацията, от която идва. След това се свържете, като използвате официален номер;
    • никога не споделяйте поверителна информация с непознати онлайн или по телефона.
  • Фалшив AI видеогенератор заразява Windows и macOS с малуер за кражба на критични данни

    Фалшив AI генератор на снимки и видео заразява Windows и macOS със зловредните софтуери Lumma Stealer и AMOS 

    Той е наречен EditProAI и се популяризира чрез резултати в Google Search и реклами в X, които споделят deepfake политически видеоклипове. 

    Lumma Stealer е насочен към Windows, а AMOS – към macOS. И двата крадат информация за криптопортфейли и кредитни карти, идентификационни данни, пароли и история на сърфирането в браузърите. Тези данни се събират в архив и се изпращат обратно към нападателите. Те могат да използват информацията при следващи атаки или да я продадат на други киберпрестъпници. 

    Според компанията за киберсигурност g0njxa заразяването протича така: 

    • клик върху рекламата отвежда потребителя в сайтовете на EditProAI (editproai.pro за Windows и editproai.org за macOS). Те са направени професионално, за да изглеждат легитимни; 
    • бутонът Get Now изтегля изпълним файл, който се представя за приложението EditProAI; 
    • зловредният софтуер изпраща откраднатите данни към сървър, контролиран от нападателя. 

    Ако вече сте изтегляли тази програма, трябва да считате всичките си запазени пароли, криптопортфейли и удостоверения за компрометирани. Незабавно ги сменете с уникални комбинации за всеки сайт, който посещавате. 

    Трябва също така да активирате MFA за всички критични платформи като онлайн банкиране, имейл и финансови услуги. 

Back to top button