Япония арестува четирима души за продажба на неприлични изображения, генерирани с помощта на ИИ
Японската полиция проведе първи по рода си арести, насочени срещу използването на генеративен изкуствен интелект за създаване и продажба на неприлични изображения. Четирима души, на възраст между 20 и 50 години, са задържани за изработката и разпространението на плакати с провокативни изображения на жени, които не съществуват в реалния свят.
Как е използван изкуственият интелект за генериране на изображения?
Според японската обществена телевизия NHK и други медии, заподозрените са използвали безплатен ИИ софтуер и инструменти за генериране на изображения, интегрирани с подсказки като „отворени крака“. Създадените визуализации са под формата на плакати, които са продавани в онлайн аукционни платформи за няколко хиляди йени всеки.
Арестите бележат първия подобен случай в Япония, свързан с предполагаема злоупотреба с изкуствен интелект за генериране и продажба на подобни материали.
Глобални проблеми, свързани с злоупотреба с ИИ
Технологията за генеративен ИИ предоставя впечатляващи възможности за създаване на видеоклипове, изображения и аудио, но злоупотребите с нея поставят сериозни етични и правни въпроси. Дълбокофалшиви изображения и видеа често се използват за неконсенсусна порнография, която се разпространява онлайн.
Според проучване на холандската компания Sensiti от 2019 г., 96% от дълбокофалшивите видеоклипове са именно неконсенсусна порнография, като повечето от тях изобразяват жени. Това допринася за нарастващата загриженост на световно ниво относно сигурността и защитата на личния живот в дигиталната ера.
Какво показват случаите в Япония?
Арестите в Япония подчертават необходимостта от регулации около използването на ИИ и технологии за генериране на съдържание. Въпреки че този случай е първи в страната, той се присъединява към глобалната борба срещу използването на ИИ за създаване на порнография или друго неетично съдържание без съгласие.
Експертите призовават за засилване на законодателствата, за да се установи сериозен контрол върху технологиите и да се предотвратят подобни злоупотреби в бъдеще. Докато генеративният ИИ се развива, подобни случаи могат да послужат като предупредителен сигнал за рисковете, които идват с напредъка му.