Учени предупреждават за нова „невидима“ заплаха за изкуствения интелект – стелт атаката DarkMind, която може тайно да манипулира разсъжденията на AI системи, без да оставя видими следи.
Според изследване на специалисти от университета в Сейнт Луис, колкото по-интелигентен е един AI модел, толкова по-уязвим става за подобни атаки. DarkMind използва слабости в т.нар. „верига на мисълта“ (Chain of Thought – CoT), върху която се базират напредналите езикови модели, включително ChatGPT и LLaMA-3.
Техниката действа чрез инжектиране на „скрити задействания“ в персонализирани AI приложения, като остава незабележима при нормална употреба и се активира само при определени логически процеси. Това я прави изключително трудна за откриване с традиционните методи за киберсигурност.
Тестовете на учените показват, че най-модерните AI модели с по-силни аналитични способности всъщност са по-податливи на тази атака. Това повдига сериозни въпроси за сигурността на AI в индустрии като банкиране и здравеопазване, където манипулацията на данни може да доведе до сериозни последици.
Изследователите подчертават, че работата им разкрива значителна уязвимост в настоящите AI системи. Те планират да разработят защитни механизми, които да предотвратяват подобни атаки и да гарантират по-голяма надеждност на изкуствения интелект.
Проектобюджетът на правителството „Желязков“ предвижда увеличение на тол таксите и връщане на цените на винетките…
Инспектори проверяват сигнал за мазутни петна на плаж „Харманите“ в Созопол Експерти от Регионалната инспекция…
Три филиала на детски градини във Варна се обединяват в нова самостоятелна образователна единица –…
31-годишен мъж е осъден на 8 години затвор за извършване на блудствени действия с 13-годишно…
Отменят бедственото положение в Дългопол и Долни чифлик. Засега остава само в Бяла, съобщават от…
Пътнически влак дерайлира, след като се сблъска със стадо слонове близо до природен резерват в…
Leave a Comment