Учени предупреждават за нова „невидима“ заплаха за изкуствения интелект – стелт атаката DarkMind, която може тайно да манипулира разсъжденията на AI системи, без да оставя видими следи.
Според изследване на специалисти от университета в Сейнт Луис, колкото по-интелигентен е един AI модел, толкова по-уязвим става за подобни атаки. DarkMind използва слабости в т.нар. „верига на мисълта“ (Chain of Thought – CoT), върху която се базират напредналите езикови модели, включително ChatGPT и LLaMA-3.
Техниката действа чрез инжектиране на „скрити задействания“ в персонализирани AI приложения, като остава незабележима при нормална употреба и се активира само при определени логически процеси. Това я прави изключително трудна за откриване с традиционните методи за киберсигурност.
Тестовете на учените показват, че най-модерните AI модели с по-силни аналитични способности всъщност са по-податливи на тази атака. Това повдига сериозни въпроси за сигурността на AI в индустрии като банкиране и здравеопазване, където манипулацията на данни може да доведе до сериозни последици.
Изследователите подчертават, че работата им разкрива значителна уязвимост в настоящите AI системи. Те планират да разработят защитни механизми, които да предотвратяват подобни атаки и да гарантират по-голяма надеждност на изкуствения интелект.