Криминално

Нов доклад разкрива мащаба на злоупотребите с AI изображения на деца

Реклама

УНИЦЕФ: Над 1,2 млн. деца са станали жертва на сексуални дийпфейкове през последната година

Рязък скок на сексуализирани AI изображения на деца

Над 1,2 милиона деца в 11 държави са съобщили, че техни снимки са били манипулирани и използвани в сексуални дийпфейкове през последната година. Данните идват от съвместно проучване на УНИЦЕФ, ЕКПАТ и Интерпол и разкриват тревожна тенденция. В някои държави това означава едно засегнато дете на всеки 25 – или по едно дете във всяка класна стая.

Организацията подчертава, че наблюдава бързо увеличаване на случаите на сексуализирани изображения, генерирани чрез изкуствен интелект, които се разпространяват онлайн. Все по-чести са случаите, в които снимки на деца се манипулират и превръщат в сексуално съдържание.

Децата се страхуват от злоупотреба с изкуствен интелект

Според проучването самите деца осъзнават сериозността на риска. В някои от изследваните държави до две трети от тях признават, че се притесняват, че AI може да бъде използван за създаване на фалшиви сексуални снимки или видеоклипове.

УНИЦЕФ заявява категорично, че сексуализираните изображения на деца – независимо дали са генерирани или манипулирани чрез AI – представляват материали със сексуална злоупотреба над деца (CSAM). Организацията подчертава, че дийпфейковете представляват форма на злоупотреба, а причинената вреда е напълно реална. Когато образът или идентичността на дете бъдат използвани по този начин, то става пряка жертва, независимо дали съдържанието е „реално“ или генерирано.

Призив за спешни международни мерки

УНИЦЕФ настоява за незабавни действия за справяне с бързо ескалиращата заплаха от AI-генериран CSAM. Организацията отправя конкретни препоръки към правителства, технологични компании и разработчици на AI инструменти.

Какво трябва да направят правителствата?

• Да разширят дефинициите за CSAM така, че да включват и AI-генериран материал.
• Да криминализират създаването, придобиването, притежанието и разпространението на подобни материали.

Отговорността на AI разработчиците

• Да внедрят принципи за „сигурност по дизайн“.
• Да гарантират наличието на ефективни защитни механизми срещу злоупотреба с техните модели.

Какво се очаква от дигиталните платформи?

• Да предотвратяват разпространението на AI-генерирани материали със сексуална злоупотреба над деца, а не само да ги премахват след сигнал.
• Да подобрят модерирането на съдържанието чрез инвестиции в технологии за разпознаване, които позволяват незабавно премахване, вместо реакции дни след докладване от жертви.

Реклама
Leave a Comment

Последни новини

Тежка верижна катастрофа на АМ „Тракия“ блокира движението към София – няколко коли и бус с тежки щети

Верижна катастрофа с множество превозни средства на магистрала "Тракия" при Враня - полицията на място…

преди 7 минути

Скрита камера в гинекологичен кабинет: СРЗИ потвърди, прокуратурата поема случая

За скандала с камера в гинекологичен кабинет в София – министър Кирилов разпореди спешна проверка…

преди 19 минути

Финално решение: Мъж от Варна осъден за причиняване на телесни повреди на собствената си майка

Мъж от Варна осъден на пробация за серия от побои над майка си Варненският районен…

преди 44 минути

Спор за улична регулация от 2007 г.: Блокирано дело във Варна и назначаване на нова техническа експертиза

Административният съд във Варна остави без движение дело за улична регулация от 2007 година Административен…

преди 49 минути

Нови професии и повече места за седмокласниците: Kакво предвижда план-приемът във Варна?

Трайна тенденция на увеличение на професионалните паралелки в област Варна Ръст в професионалното образование за…

преди 52 минути

Обсъжда се Закон за прозрачност и почтеност

Закъсняла, но ключова стъпка След близо 25 години дебати, неуспешни инициативи и международен натиск България…

преди един час