AI

  • ChatGPT изпреварва традиционните инструменти в откриването на криптографски грешки

    Криптографията е от съществено значение за защитата на данните в софтуерните приложения, но разработчиците често правят грешки при използването на криптографските API. Затова навременното им откриване е изключително важно. 

    В търсене на най-добрия начин да се прави това, изследователи от Техническия университет в Клаустхал, Германия, и CUBE Global, Австралия, сравняват възможностите на ChatGPT и традиционните инструменти за анализ. AI чатботът на OpenAI не само демонстрира средни F-score (метрика, използвана за оценка на ефективността на моделите за машинно обучение) от 86% в 12 категории криптографски грешки, но првъзхожда в някои от тях CryptoGuard, водещ инструмент за статистически анализ. Например, ChatGPT постига 92,43% F-score при откриването на предсказуеми ключове в сравнение със 76,92% на CryptoGuard. 

    При усъвършенстване на подсказките чатботът на OpenAI се представя още по-добре, като увеличава средните си F-score до 94,6%. По този начин той надминава най-съвременните инструменти в 10 от 12 категории и постига почти идентични резултати в останалите две. 

  • Мощнa защита и „ахилесова пета“: Различните лица на AI в киберсигурността

    Изкуственият интелект (AI) бързо се превръща от помощен инструмент в автономен участник на полето на киберсигурността, променяйки го из основи, акцентират от анализаторската платформа AI Cyber Insights в своя доклад „AI in Cybersecurity – Q2 2024 Insights”. Но използването на технологията трябва винаги да бъде обвързано с разбирането, че тя все още е в началните си етапи на развитие и идва със своите проблеми на растежа. 

    AI дава огромен потенциал за надграждане на инструментите и стратегиите за информационна сигурност в няколко области: 

    • подобрява процеса на Threat Modeling – проиграване на хипотетични сценарии и тестове за идентифициране на уязвимости, подпомагане на оценката на риска и предлагане на коригиращи действия; 
    • подкрепя SOAR (Security orchestration, automation and response) технологиите, които координират, изпълняват и автоматизират задачите между различни потребители и инструменти в рамките на една платформа; 
    • автоматизира сканирането на уязвимости, приоритизира рисковете и прави препоръки за стратегии за отстраняване на грешки. По този начин AI повишава ефективността на процесите за управление на уязвимостите; 
    • анализира моделите и езика на комуникация, за да идентифицира опити за социално инженерство – често използвана тактика в кибератаките, като повишава значително възможностите за откриване на фишинг имейли. 

    Но AI може да бъде използван и от злонамерени участници – както за създаване на по-сложни и по-унищожителни киберзаплахи, така и за експлоатация на пробойни в самата технология.  

    Пример за това е AI червеят (worm) Morris II, създаден от изследователи по сигурността, за да демонстрира уязвимостите на водещи GenAI платформи като ChatGPT и Gemini. Той краде чувствителни данни и разпространява зловреден софтуер в мрежите. Ако подобен инструмент бъде създаден от киберпрестъпници, би представлявал значителен риск за крайните потребители и бизнесите. 

    Според компанията за киберсигурност Wiz критични уязвимости може да има и в платформите от типа AI-като-услуга (AI-as-a-service). Replicate, например, може да бъде много полезна, тъй като събира различни големи езикови модели (LLM) с отворен код, но има и един важен недостатък – потенциално излага на риск чувствителни данни на изградените на нея AI модели.  

    Самите LLM също имат присъщи уязвимости, известни като Prompt Injection Vulnerability. Те могат да бъдат екплоатирани: 

    • директно (jailbreaking) – злонамереният потребител успява да презапише или разкрие основните системни команди и да манипулира поведението на модела; 
    • индиректно – LLM приема входни данни, контролирани от нападател, от външни източници като интернет страници или файлове. 

    Успешното експлоатиране на Prompt Injection Vulnerability може да доведе както до изтичане на поверителна информация, така и до манипулиране на критични за бизнеса процеси. 

    Изводът от тези примери е, че изкуственият интелект е мощно оръжие за защита, но също така може лесно да се превърне в „ахилесова пета“ за организациите. Затова не бързайте, запленени от конкурентните предимства, които обещава той. Интеграцията на инструменти и услуги, базирани на AI, трябва винаги да бъде основана на внимателно проучване на силните и слабите страни на всяка една платформа поотделно. Независимо дали става дума за киберсигурност или други бизнес процеси.    

  • Изкуствен интелект открива киберзаплахи

    Сингапурската фирма Flexxon е изобретила сторидж устройство (наречено X-Phy), което автоматично открива и елиминира заплахи за киберсигурността.

    Щом засече нарушение, X-Phy заключва данните и изисква удостоверяване от собственика им, за да разреши отново достъпа до тях.

    В сравнение с конвенционалния антивирусен софтуер, който трябва постоянно да се актуализира, устройството използва изкуствен интелект, за да търси малуер. Разработчикът му смята, че нуждата от хардуер за сигурност, който да подпомага съществуващия софтуер за защита се налага, поради непрекъснато нарастващите заплахи за киберсигурността, включително рансъмуер.

    Иновацията е в процес на изпитване в държавни агенции и индустриални компании и е възможно да бъде предоставена на потребителите още през 2022 г. Тя може да се използва в принтери, медицински устройства и фотокопирни машини, където не е възможно да се инсталира антивирусен софтуер.

    За разработването на X-Phy, Flexxon е получила финансиране от Агенцията за киберсигурност на Сингапур, в рамките на схема за иновации в киберсигурността през 2018 г. Целта на програмата е да помогне за разработването на авангардни продукти, които отговарят на стратегическите нужди на националната киберсигурност, а също така имат потенциално търговско приложение.

Back to top button