Все повече компании се обръщат към големите езикови модели (LLM) за извличане на информация от неструктурирани данни, но експертите предупреждават за възможни уязвимости, които могат да доведат до дезинформация и изтичане на данни. Без подходящи мерки за сигурност, тези усъвършенствани AI системи също могат да бъдат експлоатирани, което представлява сериозни рискове като отравяне на данни и разпространение на дезинформация.
Тази седмица Synopsys разкри критична уязвимост в компонента EmbedAI, разработен от AI доставчика SamurAI. Проблемът се състои в уязвимост от тип cross-site request forgery (CSRF), която може да позволи на нападателите да инжектират злонамерени данни в частни инстанции на LLM. Изследователят от Synopsys Мохамед Алшехри който идентифицира уязвимостта, отбелязва, че тя произтича от недостатъчната сигурна CORS политика и липса на добро и сигурно управление на сесиите. Такива слабости могат да застрашат частни AI модели или чатбот имплементации, подчертавайки необходимостта от по-силни мерки за сигурност.
Алшехри подчертава, че комбинирането на съществуващи AI разработки с компоненти с отворен код могат да създадат иновативни уеб базирани решения и бързо да влязат в продуктивна среда, но също така изискват задълбочено тестване, за да се гарантира, че мерките за сигурност са на нивото на тези в традиционните уеб приложения.
Интеграцията на AI в бизнес процесите се ускорява, като данни на US Census Bureau показват, че 4% от американските компании са внедрили AI. С по-високи нива на приемственост са сектори като информационните технологии (14%) и професионалните услуги (9%). Въпреки че това вероятно носи значителни ползи на компаниите използващите новите технологии, тези бързи темпове на внедряване крият и огромни рискове.
Моделите не са причина за уязвимостите
Дан МакИнърни, водещ изследовател по киберсигурност в Protect AI, посочи, че уязвимостите често се намират в софтуерните компоненти и инструменти около LLM, а не в самите модели. Той отбеляза, че „има много уязвимости в сървърите, които се използват за хостване на LLM,“ което прави тези инструменти още по-вероятни мишени за атаки.
Проблеми в киберсигурността на AI не са хипотетични и са вече факт. През март Oligo Security съобщи за активни атаки срещу фреймуърка Ray, широко използван за създаване на AI приложения. Въпреки поправките на редица уязвимости, нападателите все пак са успели да намерят начини за експлоатиране на публичните сървъри на Ray, засягайки сектори като образование, криптовалути и биофармация.
Какви са препоръчителните мерки
За да се предотвратят подобни заплахи и успешни пробиви, експертите препоръчват няколко ключови стратегии.
Тайлър Йънг, CISO в BigID, съветва компаниите да сегментират данните и да ограничат достъпа въз основа на привилегии за достъп, предотвратявайки прекомерно излагане и гарантирайки, че само релевантни данни са достъпни за специфични LLM инстанции и функции.
Редовните проверки на сигурността, подобни на тестовете black-box и white-box, използвани в традиционното разработване на софтуер, също са от съществено значение.
Задълбочено преглеждане на кода, особено като се има предвид зависимостта от отворени компоненти с ограничен надзор също трябва да бъде задължително при разработване и внедряване на AI решения.
Безспорна е ползата на съвременните големи генеративни модели. И докато компаниите продължават да използват тези инструменти, те също така трябва да останат бдителни към рисковете които поемат. Имплементиране на строги мерки за сигурност, редовното обновяване на софтуерните компоненти и осигуряването на подходяща сегментация на данните могат да намалят рисковете от отравяне на данни, дезинформация и изтичане на данни.