AI

  • ЕК финансира проекти за киберсигурност и AI с 1,3 млрд. EUR

    ЕС възнамерява да укрепи цифровата си сигурност със значителни инвестиции. За целта блокът обяви отпускането на 1,3 млрд. EUR за финансиране на иновативни проекти в областта на киберсигурността и AI през следващите три години.

    Този нов пакет ще финансира проекти между 2025 и 2027 г. като част от програмата „Цифрова Европа“ (DIGITAL). Тя стартира през 2021 г. и е насочена към разгръщането на технологични инициативи. Нейният първоначален бюджет е в размер на 8,1 млрд. евро и обхваща периода 2021-2027 г.

    Част от новото финансиране в размер на 1,3 млрд. EUR ще бъде предназначено за проекти в областта на киберсигурността, в това число:

    • Повишаване на киберустойчивостта на критичните системи на ЕС, особено за болници и подводни кабели;
    • Подкрепа за въвеждането на Digital Identity Wallet, за да се повиши киберустойчивостта на гражданите на ЕС. Той ще предоставя сигурни, оперативно съвместими и лесни за използване решения за цифрова идентичност.

    Участието в програмата DIGITAL ще бъде отворено през април 2025 г. Тя ще предостави възможности за финансиране на различни субекти, включително бизнеси и публични администрации, от държавите членки на ЕС.

    Заинтересованите страни могат да намерят допълнителна информация за критериите за допустимост чрез EU Funding & Tenders Portal.

  • Активно експлоатирана грешка в ChatGPT излага хиляди организации на риск

    Грешка в ChatGPT позволява на нападателите да пренасочват потребителите към злонамерени URL адреси.

    Според компанията за киберсигурност Veriti това излага на риск 35% от организациите, които използват платформата на OpenAI. Причината са неправилно конфигурирани intrusion prevention systems (IPS), WAF и firewall.

    Нападателите могат да използват тази уязвимост, за да инжектират злонамерени URL адреси във входните параметри на ChatGPT. Използването ѝ е насочено основно срещу финансови организации.

    За да се защитите:

    • проверете своите IPS, WAF и firewall конфигурации;
    • приоритизирайте свързаните с AI пропуски в сигурността в оценките на риска;
    • винаги имайте едно наум, когато проследявате линкове към източници, подадени ви от GenAI платформите.
  • 87% от организациите са се сблъскали с AI кибератака през 2024, сочи в ново проучване

    87% специалисти по сигурността в ново проучване казват, че организацията им се е сблъскала с кибератака, задвижвана от AI, през 2024. Oткриването им все още е предизвикателство – едва 26% от тях изразяват висока увереност в способностите си.

    91% от респондентите в SoSafe 2025 Cybercrime Trends очакват значителен ръст на този тип заплахи през следващите три години.

    Global Cybersecurity Outlook 2025 пък посочва 223% увеличение на търговията с deepfake инструменти във Dark Web между Q1/2023 г. и Q1/2024.

    Сред най-често споменаваните проблеми, които AI може да създаде в ръцете на нападателите, са техниките за замаскиране на атаките (51%). Друг такъв е, че технологията дава възможност за многоканални атаки. Те съчетават електронна поща, SMS, социални медии и платформи за сътрудничество.

    AI, разбира се, може да се използва и за защита на бизнесите. Но технологиите са толкова силни, колкото хората, които ги използват. Информираността за киберсигурността е от решаващо значение. Без информирани служители, които могат да разпознават и да реагират на заплахите, дори и най-добрата технология не може да се справи.

  • Google Chrome добави AI към Enhanced protection. Ето как да го активирате

    Google Chrome надгради съществуващата функция Enhanced protection с изкуствен интелект. По този начин браузърът вече предлага защита в реално време срещу зловредни уебсайтове, изтегляния и разширения.

    Актуализацията е достъпна за всички платформи след тримесечно тестване в Canary.

    Enhanced protection, част от функцията Safe browsing, е налична от години, но вече предлага по-високи нива на сигурност. AI следи за рисковете в реално време и предупреждава потребителите за потенциално опасни сайтове. Той също така извършва задълбочено сканиране за подозрителни изтегляния.

    Enhanced protection с AI е изключена по подразбиране. Можете да включите новата функция от от Settings > Security в Windows, Android and iOS.

     

  • Google е блокирала 2,36 милиона рискови приложения в Play Store през 2024

    През 2024 г. Google e блокирала 2,36 млн. рискови приложения, подадени в Play Store. Освен това 158 000 акаунта на разработчици са били затворени заради опити за публикуване на зловреден и шпионски софтуер в официалния магазин за Android.

    За сравнение, през 2023 г. Google е блокирала 2 280 000 рискови приложения, а през 2022 г. – 1 500 000. Цифрите за блокираните акаунти на разработчици са били съответно 333 000 и 173 000.

    По-големият брой блокирани приложения през 2024 г. отчасти се дължи на изкуствения интелект, подпомагащ човешките прегледи. Технологията е била използвана в 92% от случаите, при които са открити нарушения.

    Google съобщава също така, че е предотвратила и получаването на прекомерни разрешения от 1,3 милиона приложения. Те биха им предоставили ненужен достъп до чувствителни потребителски данни.

    Въпреки че компанията засилва защитата на Android всяка година, пропуски в сигурността продължава да има. Киберпрестъпниците използват нови, все по-усъвършенствани методи за заобикаляне на автоматичните скенери.

    Затова потребителите трябва:

    • да се доверяват само на реномирани разработчици и винаги да проверяват отзивите за непознати такива;
    • да поддържат броя на инсталираните приложения на минимално необходимото ниво;
    • да проверяват и отменят разрешенията на рискови приложения и да гарантират, че системата за проверка Play Protect работи във всеки един момент.
  • 2024: Навлизането на AI води до рекорден ръст на уязвимостите на API с 1205%

    През изминалата година уязвимостите в API, свързани с изкуствен интелект (AI), са се увеличили с 1205%.

    57% от задвижваните от AI API са достъпни отвън, а при 89% липсва сигурно удостоверяване. Едва 11% са приложили надеждни мерки за сигурност, сочат данните от 2025 API ThreatStats Report на Wallarm.

    Пропуските в механизмите за автентикация остават критичен проблем – 89% от API, задвижвани от AI, са уязвими. Това важи както за наследените, така и за по-новите интерфейси. На този фон, нарушенията на API се утрояват през 2024 г.

    А примерите от реалния свят дебело подчертават мащаба на рисковете. Пробивът в API на Dell например изложи на риск 49 милиона записа през май 2024 г. В сферата на здравеопазването Ascension Health се сблъска с опустошителен пробив в API, който засегна 5,6 милиона пациенти през декември.

    Приложно-програмните интерфейси се превръщат в гръбнак на интеграцията на AI. И тъй като заплахите, свързани с API, продължават да се увеличават, бизнесите трябва да дадат приоритет на сигурността, за да защитят своите операции, данни и репутация.

     

  • Мащабна DDoS атака спря новите регистрации на нашумялата китайска AI платформа DeepSeek

    Нашумeлият в последните дни китайски AI разработчик DeepSeek спря регистрациите в чат платформата си DeepSeek-V3. Причината – продължаваща „мащабна“ кибератака, насочена към нейните услуги.

    DeepSeek е сравнително нова платформа за изкуствен интелект. Тя обаче бързо привлече вниманието заради разработването и пускането на усъвършенстван модел със значително по-ниски разходи. Тази новина разтърси из основи фондовия пазар в САЩ.

    Точно когато приложението DeepSeek AI Assistant изпревари ChatGPT като най-изтегляното в Apple App Store, компанията е принудена да изключи новите регистрации. Твърди се, че това се дължи на DDoS атака срещу нейния API и самия AI чатбот.

    Това не е изненада за професионалната общност. В понеделник доставчикът на киберсигурност KELA обяви, че е успял да пробие модела и да произведе злонамерени резултати. Пробивът включва широк спектър от сценарии – разработване на ransomware софтуер, изработване на чувствително съдържание и подробни инструкции за създаване на токсини и взривни устройства.

  • Поредна заплаха за бизнесите: Служители често въвеждат чувствителни данни в заявки на GenAI

    Служителите споделят широк спектър от данни в инструменти за генеративен изкуствен интелект (GenAI). Това оправдава колебанието на много организации да възприемат използването на технологията.

    Всеки път, когато потребител въвежда данни в свой промпт за ChatGPT или друг подобен инструмент, информацията се поглъща от големия езиков модел. След това тя се използва за обучение на следващото поколение на алгоритъма. Опасенията са, че информацията може да бъде извлечена по-късно чрез уязвимости в моделите, ако не е осигурена подходяща защита на данните за въпросната услуга.

    От Harmonic.ai са анализирали хиляди промптове, подадени от потребители в GenAI платформи като Copilot, ChatGPT, Gemini, Claude и Perplexity. Общо 8,5% от анализираните заявки са включвали поверителни данни.

    Те попадат в една от петте категории: данни за клиенти, данни за служители, правни и финансови данни, данни за сигурност, чувствителен код.

    Според изследователите данните за клиенти заемат най-голям дял от подканите – 45,77%. Тези за служители съставляват 27% от чувствителните подсказки в проучването на Harmonic.

    Това показва, че GenAI инструментите все повече се използват за вътрешни процеси. Те включват прегледи на представянето, решения за наемане и дори определяне на годишните бонуси.

    Правната и финансовата информация не е толкова често изложена на риск – 14,88% от случаите, но когато това се случи, носи голям корпоративен риск.

    Тази статистика показва, че бизнесите трябва да обучават своите служители какво е подходящо да сподеят с моделите за генеративен изкуствен интелект и какво не. Въвеждането на стриктни политики за киберсигурност и работа с вътрешна информация е задължително условие за защита на критичните данни на една организация.

  • Сложни AI атаки таргетират потребителите на Gmail. Ето как да ограничите риска

    С 2,5 млрд. акаунта Gmail е най-голямата услуга за електронна поща в света. Това я превръща в любим вектора за кибератаки на хакерите. И въпреки че Google постоянно въвежда нови функции за сигурност, те измислят нови тактики.

    Навлизането на AI и възможностите за deepfake, които дава той, се превърнаха в поредното оръжие в арсенала на киберпрестъпниците. Те използват технологията, за да създават изключително реалистични фалшиви видеоклипове или аудиозаписи, почти неразличними от автентично съдържание от реални хора.

    Платформите за deepfake стават все по-достъпни и вече дори хора без предишен опит могат да създават убедително съдържание. Атаките имат такова качество, че могат да заблудят дори опитен професионалист в областта на киберсигурността.

    Пример за това е консултантът по решения за сигурност на Microsoft Сам Митрович. През октомври той става жертва на атака, задвижвана от AI.

    Тя протича така:

    • получава известие за опит за възстановяване на акаунт в Gmail. На пръв поглед то идва от Google;
    • експертът игнорира това съобшение, но седмица след това получава телефонното обаждане от „отдела за поддръжка“ на компанията. То е извършено от напълно легитимен телефонен номер;
    • впоследствие обаждащият се изпраща имейл за потвърждение.

    Тъй като е консултант по сигурността обаче, Митрович забелязва нещо, което по-малко опитен потребител би пропуснал. В полето за изпращача е умело замаскиран адрес, който всъщност не е на Google. Ако не беше забелязал това несъответствие, Митрович е можело да завърши „процеса на възстановяване“. Това би позволило на нападателя да прихване данните за вход и бисквитката на сесията, а оттам и да заобикали 2FA.

    За да ограничите максимално риска да стането жертва на подобни атаки, Google препоръчва:

    • ако получите подобно предупреждение, избягвайте да кликвате върху връзки, да изтегляте прикачени файлове или да въвеждате лична информация. „Google използва усъвършенствана система за сигурност, за да ви предупреждава за опасни съобщения, опасно съдържание или измамни уебсайтове“, казват от компанията. „Не въвеждайте лична информация в имейли, съобщения, уебстраници или изскачащи прозорци от ненадеждни или непознати доставчици.“
    • не отговаряйте на искания за лична информация по имейл, текстово съобщение или телефонно обаждане;
    • ако смятате, че имейл за сигурност, който изглежда като от Google, може да е фалшив, отидете директно на myaccount.google.com/notifications. На тази страница можете да проверите последните дейности по сигурността на вашия профил в Google;
    • пазете се от съобщения, изискващи спешни действия. Това важи с пълна сила за такива, които на пръв поглед идват от близки хора, като например приятел, член на семейството или колега;
    • ако все пак кликнете върху връзка и бъдете помолени да въведете паролата за вашия Gmail, акаунт в Google или друга услуга: Не го правете! Вместо това отидете директно на уебсайта, който искате да използвате.

     

  • Швейцарски технологичен институт разбива в 100% от случаите защитите на водещите GenAI модели

    Швейцарския федерален технологичен институт в Лозана е постигнал 100% успеваемост при разбиването на защитите за сигурност на водещи GenAI модели. EPFL е използвал адаптивни jailbreak атаки срещу известни платформи като GPT-4 на OpenAI и Claude 3 на Anthropic.

    По този начин моделите започват да генерират опасно съдържание, вариращо от инструкции за фишинг атаки до подробни конструктивни планове за оръжия.

    Адаптивните атаки заобиколят мерките за сигурност, като се възползват от различни слаби места. Моделите започват да отговарят на злонамерени заявки като „Как да направя бомба?“ или „Как да проникна в правителствена база данни?“. По принцип разработчиците залагат предпазни мерки, които не позволяват платформите им да се използват за подобни цели.

    Това е пореден пример, че, наред с позитивното си влияние, AI може да се превърне в оръжие в ръцете на хакерите.

Back to top button