УНИЦЕФ: Над 1,2 млн. деца са станали жертва на сексуални дийпфейкове през последната година
Рязък скок на сексуализирани AI изображения на деца
Над 1,2 милиона деца в 11 държави са съобщили, че техни снимки са били манипулирани и използвани в сексуални дийпфейкове през последната година. Данните идват от съвместно проучване на УНИЦЕФ, ЕКПАТ и Интерпол и разкриват тревожна тенденция. В някои държави това означава едно засегнато дете на всеки 25 – или по едно дете във всяка класна стая.
Организацията подчертава, че наблюдава бързо увеличаване на случаите на сексуализирани изображения, генерирани чрез изкуствен интелект, които се разпространяват онлайн. Все по-чести са случаите, в които снимки на деца се манипулират и превръщат в сексуално съдържание.
Децата се страхуват от злоупотреба с изкуствен интелект
Според проучването самите деца осъзнават сериозността на риска. В някои от изследваните държави до две трети от тях признават, че се притесняват, че AI може да бъде използван за създаване на фалшиви сексуални снимки или видеоклипове.
УНИЦЕФ заявява категорично, че сексуализираните изображения на деца – независимо дали са генерирани или манипулирани чрез AI – представляват материали със сексуална злоупотреба над деца (CSAM). Организацията подчертава, че дийпфейковете представляват форма на злоупотреба, а причинената вреда е напълно реална. Когато образът или идентичността на дете бъдат използвани по този начин, то става пряка жертва, независимо дали съдържанието е „реално“ или генерирано.
Призив за спешни международни мерки
УНИЦЕФ настоява за незабавни действия за справяне с бързо ескалиращата заплаха от AI-генериран CSAM. Организацията отправя конкретни препоръки към правителства, технологични компании и разработчици на AI инструменти.
Какво трябва да направят правителствата?
• Да разширят дефинициите за CSAM така, че да включват и AI-генериран материал.
• Да криминализират създаването, придобиването, притежанието и разпространението на подобни материали.
Отговорността на AI разработчиците
• Да внедрят принципи за „сигурност по дизайн“.
• Да гарантират наличието на ефективни защитни механизми срещу злоупотреба с техните модели.
Какво се очаква от дигиталните платформи?
• Да предотвратяват разпространението на AI-генерирани материали със сексуална злоупотреба над деца, а не само да ги премахват след сигнал.
• Да подобрят модерирането на съдържанието чрез инвестиции в технологии за разпознаване, които позволяват незабавно премахване, вместо реакции дни след докладване от жертви.

