реклама

Невидима заплаха за AI: Новата атака DarkMind може да манипулира изкуствения интелект

Снимката е илюстративна

Учени предупреждават за нова „невидима“ заплаха за изкуствения интелект – стелт атаката DarkMind, която може тайно да манипулира разсъжденията на AI системи, без да оставя видими следи.

Според изследване на специалисти от университета в Сейнт Луис, колкото по-интелигентен е един AI модел, толкова по-уязвим става за подобни атаки. DarkMind използва слабости в т.нар. „верига на мисълта“ (Chain of Thought – CoT), върху която се базират напредналите езикови модели, включително ChatGPT и LLaMA-3.

Техниката действа чрез инжектиране на „скрити задействания“ в персонализирани AI приложения, като остава незабележима при нормална употреба и се активира само при определени логически процеси. Това я прави изключително трудна за откриване с традиционните методи за киберсигурност.

Тестовете на учените показват, че най-модерните AI модели с по-силни аналитични способности всъщност са по-податливи на тази атака. Това повдига сериозни въпроси за сигурността на AI в индустрии като банкиране и здравеопазване, където манипулацията на данни може да доведе до сериозни последици.

Изследователите подчертават, че работата им разкрива значителна уязвимост в настоящите AI системи. Те планират да разработят защитни механизми, които да предотвратяват подобни атаки и да гарантират по-голяма надеждност на изкуствения интелект.



🚀 За реклама в "Нова Варна

Супер оферта! Две рекламни публикации за само 300 лв. – максимална видимост за бизнеса ти! 📩 Свържи се на mediashop.bg@gmail.com

📲 Изпрати сигнал

Изпращате вашите сигнали и нередности по статии публикувани в медия “Нова Варна” на имейл: 📩 press.novavarna@gmail.com

➡️ Последвайте ни за още актуални новини в Google News

➡️ Следете за важни новини от Варна във Viber