Снимката е илюстративна
Учени предупреждават за нова „невидима“ заплаха за изкуствения интелект – стелт атаката DarkMind, която може тайно да манипулира разсъжденията на AI системи, без да оставя видими следи.
Според изследване на специалисти от университета в Сейнт Луис, колкото по-интелигентен е един AI модел, толкова по-уязвим става за подобни атаки. DarkMind използва слабости в т.нар. „верига на мисълта“ (Chain of Thought – CoT), върху която се базират напредналите езикови модели, включително ChatGPT и LLaMA-3.
Техниката действа чрез инжектиране на „скрити задействания“ в персонализирани AI приложения, като остава незабележима при нормална употреба и се активира само при определени логически процеси. Това я прави изключително трудна за откриване с традиционните методи за киберсигурност.
Тестовете на учените показват, че най-модерните AI модели с по-силни аналитични способности всъщност са по-податливи на тази атака. Това повдига сериозни въпроси за сигурността на AI в индустрии като банкиране и здравеопазване, където манипулацията на данни може да доведе до сериозни последици.
Изследователите подчертават, че работата им разкрива значителна уязвимост в настоящите AI системи. Те планират да разработят защитни механизми, които да предотвратяват подобни атаки и да гарантират по-голяма надеждност на изкуствения интелект.
ОДМВР Варна издаде важно предупреждение към всички шофьори, пътуващи по автомагистрала „Хемус“ в посока Варна.…
Великият пост през 2026 г. започва на 23 февруари – понеделник, непосредствено след Сирни заговезни…
Сигнал за прострелян мъж в дома му в Сливен е подаден тази сутрин около 8:30…
Движението по път I-5 в участъка Русе – Бяла, в района на Борово при километър…
Мъж на 65 години е загинал при пожар в апартамента си на втория етаж в…
Домашната погача е един от ключовите компоненти, които задължително трябва да присъстват на празничната трапеза…
Leave a Comment