Изкуственият интелект трансформира света с невероятна скорост. Но докато говорим за иновациите и възможностите, които носи, съществува и една мрачна страна на технологията, която изисква спешно внимание. Проучване на УНИЦЕФ, ЕКПАТ и ИНТЕРПОЛ разкрива тревожна реалност: над 1,2 милиона деца в 11 държави са споделили, че техни снимки са били превърнати в сексуални дийпфей материали само през последната година.
Това не е абстрактна заплаха или хипотетичен сценарий. Това е настоящата реалност, в която живеят децата.
Какво показва докладът на УНИЦЕФ
Издаденият през февруари 2026 г. доклад на УНИЦЕФ „Изкуствен интелект и сексуална злоупотреба и експлоатация на деца“ представя безпрецедентна ситуация в областта на детската защита. Основните констатации са алармиращи.
Технологията стана достъпна за всеки
Само преди 5 години качествените генеративни AI модели изискваха значителна изчислителна мощ и експертни знания. Днес моделите могат да работят на обикновен потребителски хардуер, което прави създаването на сексуално съдържание с деца много по-лесно за извършители.
Мащабът на проблема расте експоненциално
Британската Фондация за наблюдение на интернет (IWF) открива близо 14,000 подозрителни AI-генерирани изображения само на един форум в тъмната мрежа, посветен на материали със сексуална злоупотреба над деца. Почти една трета от тях са потвърдени като криминални, включително първите реалистични AI видеа със сексуална злоупотреба над деца.
Децата са основните жертви
В някои от изследваните 11 държави, до 1 на 25 деца – или едно дете в типична класна стая – са сатанали дирекен обект на изображения, манипулирани в сексуален контекст. Самите деца са наясно с тази заплаха: в някои страни до две трети от тях се притесняват, че AI може да бъде използван за създаване на фалшиви сексуални сцени с техни изображения.
Peer-to-peer злоупотребата нараства драстично
В Южна Корея правоприлагащите органи са съобщили за десетократно увеличение на сексуалните престъпления, включващи AI и дийпфейк технологии между 2022 и 2024 г., като тийнейджърите съставляват мнозинството от участващите в създаването им. В САЩ проучване на Thorn установява, че 1 от 10 тийнейджъри знаят за случаи, при които приятели или съученици са създали интимни изображения на други деца без тяхно съгласие, използвайки генеративни AI инструменти.
AI-генерираното съдържание нормализира сексуализацията на децата
Често срещан аргумент е, че ако не е включено „истинско“ дете, вредата не е реална. Това е фундаментално погрешно разбиране.
Индивидуалната вреда е дълбока и продължителна. Децата, чиито изображения са използвани за създаване на сексуално съдържание, изпитват срам, стигма, морално осъждане от връстници и възрастни, социална изолация и дългосрочна емоционална травма.
Обществената вреда е също толкова сериозна. AI-генерираното съдържание нормализира сексуализацията на децата, може да подхрани търсенето и усложнява идентификацията на жертвите, като прави по-трудно определянето дали едно изображение изобразява реално дете в спешна нужда от помощ. Това губи ресурс на правоприлагащите органи и забавя реакциите за защита.
Случаят с Grok
Наскоро вниманието на медиите и регулаторите се насочи към AI приложението Grok на Илон Мъск, което е налично в социалната платформа X (преди Twitter). Европейските власти взеха под прицел както TikTok, така и подобни приложения, които създават така наречените „убедителни фалшификати“ или deepfake съдържание.
Загрижеността е основателна: когато мощни AI инструменти за генериране на изображения стават част от масови социални платформи с милиарди потребители, включително милиони деца и тийнейджъри, потенциалът за злоупотреба се увеличава експоненциално. Европейските регулатори настояват за по-строг контрол и отчетност от страна на технологичните компании, особено когато става дума за защита на непълнолетни.
Какво трябва да се направи: Петте приоритета на УНИЦЕФ
Тази безпрецедентна ситуация поставя нови предизвикателства пред превенцията, образованието, правните рамки и услугите за подкрепа. УНИЦЕФ формулира пет ключови приоритета за действие.
1. Информиране и подкрепа на родители и грижещи се
Родителите и грижещите се за деца се нуждаят от информация за сексуалната експлоатация и злоупотреба, активирана от AI, и от разбиране и капацитет да подкрепят засегнатите деца.
2. Образование в училищата
Училищата, като първа линия на защита, трябва да обучават учениците за рисковете, свързани с AI – включително дийпфейк изображения и „nudify“/“undress“ AI инструменти. Важно е децата да разбират значителната вреда, която това причинява на засегнатите, да се насърчава докладването на вредно поведение и учителите да бъдат обучени как да реагират адекватно.
3. Обучение на специалисти за подкрепа
Социалните услуги, специалистите по психично здраве и правоприлагащите органи се нуждаят от ресурси и непрекъснато обучение за подкрепа на засегнатите деца, включително когато фалшиво съдържание с тях е създадено от връстници.
4. Спешна законодателна актуализация
Заплахата от AI-генерирано сексуално съдържание изисква спешни законодателни действия. Националните регулации трябва да бъдат актуализирани и прилагани за дигиталната ера. Това включва гарантиране, че дефинициите на материали със сексуална злоупотреба над деца покриват AI-генерирано съдържание, привеждане на националните рамки в съответствие с международните стандарти и осигуряване на правни средства за защита на децата-жертви. Държавите трябва също да гарантират наличието на набор от наказателни, граждански и административни санкции за юридически лица за престъпления, свързани със сексуална експлоатация на деца.
5. Индустриална отговорност, прозрачност и действие
Държавите трябва да изискват от компаниите да провеждат проверки за въздействието върху правата на детето в редовните си отчети. Всеки участник във веригата на стойността на AI – от доставчиците на данни до разработчиците на модели – трябва да осигурява безопасност. Това включва предварително тестване за безопасност на модели с отворен код, за да се намали злоупотребата или незаконната употреба.
В ситуация, в която дори не знаеш, че си жертва, превенцията вече не е достатъчна
Традиционните превантивни усилия, които често се фокусират върху обучението на децата за онлайн безопасността и рисковете от създаване или споделяне на сексуални изображения, са все още важни, но недостатъчни, когато сексуално съдържание може да бъде изкуствено генерирано.
Според UNICEF се намираме в безпрецедентна ситуация:детето може да е в ситуация на нарушени права от защита, ако не знае, че с него има създадено сексуално съдържание. Извършителите могат да създават реалистични сексуални изображения на дете без тяхното участие или осведоменост. Децата могат да бъдат заплашвани или изнудвани с изображения, които са изфабрикувани, но които въпреки това се усещат като реални, носят социална достоверност и могат да ги следват с десетилетия.
Технологичният напредък не трябва да идва за сметка на най-уязвимите членове на обществото ни, е позицията на UNICEF. Дийпфейк злоупотребата с деца не е виртуален проблем – вредата е реална, последствията са сериозни.
Необходима е координирана реакция от държави, технологични компании, образователни институции, родители и гражданското общество. Законодателството трябва да се актуализира спешно, индустрията трябва да поеме отговорност, а обществото като цяло трябва да признае сериозността на заплахата.
