in

Невидима заплаха за AI: Новата атака DarkMind може да манипулира изкуствения интелект

Учени предупреждават за нова „невидима“ заплаха за изкуствения интелект – стелт атаката DarkMind, която може тайно да манипулира разсъжденията на AI системи, без да оставя видими следи.

Според изследване на специалисти от университета в Сейнт Луис, колкото по-интелигентен е един AI модел, толкова по-уязвим става за подобни атаки. DarkMind използва слабости в т.нар. „верига на мисълта“ (Chain of Thought – CoT), върху която се базират напредналите езикови модели, включително ChatGPT и LLaMA-3.

Техниката действа чрез инжектиране на „скрити задействания“ в персонализирани AI приложения, като остава незабележима при нормална употреба и се активира само при определени логически процеси. Това я прави изключително трудна за откриване с традиционните методи за киберсигурност.

Тестовете на учените показват, че най-модерните AI модели с по-силни аналитични способности всъщност са по-податливи на тази атака. Това повдига сериозни въпроси за сигурността на AI в индустрии като банкиране и здравеопазване, където манипулацията на данни може да доведе до сериозни последици.

Изследователите подчертават, че работата им разкрива значителна уязвимост в настоящите AI системи. Те планират да разработят защитни механизми, които да предотвратяват подобни атаки и да гарантират по-голяма надеждност на изкуствения интелект.

Публикувано от Редакция "Нова Варна"

Изпращайте ни вашите сигнали и снимки от Варна и региона по всяко време на чрез платформата signali.novavarna.net , на имейл press.novavarna@gmail.com или на нашата фейсбук страница https://www.facebook.com/media.novavarna
За реклама - https://novavarna.net/реклама/