Снимката е илюстративна
Учени предупреждават за нова „невидима“ заплаха за изкуствения интелект – стелт атаката DarkMind, която може тайно да манипулира разсъжденията на AI системи, без да оставя видими следи.
Според изследване на специалисти от университета в Сейнт Луис, колкото по-интелигентен е един AI модел, толкова по-уязвим става за подобни атаки. DarkMind използва слабости в т.нар. „верига на мисълта“ (Chain of Thought – CoT), върху която се базират напредналите езикови модели, включително ChatGPT и LLaMA-3.
Техниката действа чрез инжектиране на „скрити задействания“ в персонализирани AI приложения, като остава незабележима при нормална употреба и се активира само при определени логически процеси. Това я прави изключително трудна за откриване с традиционните методи за киберсигурност.
Тестовете на учените показват, че най-модерните AI модели с по-силни аналитични способности всъщност са по-податливи на тази атака. Това повдига сериозни въпроси за сигурността на AI в индустрии като банкиране и здравеопазване, където манипулацията на данни може да доведе до сериозни последици.
Изследователите подчертават, че работата им разкрива значителна уязвимост в настоящите AI системи. Те планират да разработят защитни механизми, които да предотвратяват подобни атаки и да гарантират по-голяма надеждност на изкуствения интелект.
Днес ще бъде предимно слънчево. Около и след обяд ще се развива купеста облачност. На…
Проблемите със заспиването са често срещан спътник на модерния човек. Стресът, забързаният начин на живот…
Трима души са получили наранявания при пътнотранспортно произшествие, случило се днес около 13:00 часа по…
Високото кръвно налягане, известно още като хипертония, е сериозен здравословен проблем, който засяга милиони хора…
Хората трябва да бъдат подготвени за продължаваща слънчева активност, тъй като днес, 4 април, се…
В рамките на мащабна специализирана полицейска операция, проведена на територията на област Сливен, са задържани…
Leave a Comment