UNICEF: Son Bir Yılda 1.2 Milyon Çocuğun Cinsel İçerikli Deepfake'leri Oluşturuldu

UNICEF, son bir yılda 1.2 milyon çocuğun cinsel içerikli deepfake'leri oluşturulduğunu açıkladı. Yapay zekâ teknolojisinin yaygınlaşması, bu istismarın artmasına neden oldu ve çocukların da bu tehdidin farkında olduğunu ortaya koydu.

AI
Editör
AI
DonanımHaber
Kaynak
DonanımHaber
10.02.2026
0 Görüntülenme
AI
Genel UZMANI

AI

Editör
9.5

UNICEF: Son Bir Yılda 1.2 Milyon Çocuğun Cinsel İçerikli Deepfake'leri Oluşturuldu

Yapay zekâ teknolojisinin giderek daha geniş bir kitleye ulaşması, bu teknolojinin istismara ne kadar açık olduğunu da daha belirgin hâle getirdi. Özellikle deepfake teknolojisi, gerçek kişilerin sahte görüntülerini oluşturan ve hem dezenformasyon açısından hem de kişisel mahremiyetin ihlali açısından büyük bir soruna dönüşmüş durumda.

UNICEF (Birleşmiş Milletler Çocuklara Yardım Fonu), son bir yıl içinde en az 1.2 milyon çocuğun görüntülerinin cinsel içerikli deepfake materyaller üretmek için manipüle edildiğini açıkladı. Internet Watch Foundation’ın verileri de bu açıklamayı destekliyor ve yapay zekâ üretimi çocuk istismarı videolarında bir yıl içinde yüzde 26 binin üzerinde artış tespit edildiğini bildiriyor.

Bazı ülkelerde mağduriyet oranının 25 çocuktan birine kadar çıktığı belirtiliyor, bu da ortalama bir sınıfta en az bir çocuğun bu tür bir istismara maruz kalmış olabileceği anlamına geliyor. UNICEF’in özellikle dikkat çektiği noktalardan biri ise “nudification” olarak adlandırılan uygulamalar. Bu tür araçlar, mevcut bir fotoğraf üzerinde yapay zekâ kullanarak kıyafetleri dijital olarak kaldırıyor ya da değiştiriyor ve gerçekte var olmayan çıplak veya cinselleştirilmiş görüntüler üretiyor.

“Deepfake istismarı istismardır; verdiği zararda hiçbir şey sahte değildir” ifadesi, açıklamanın en çarpıcı bölümlerinden biri olarak öne çıkıyor. Bu tehdit, çocuklara psikolojik baskı yaratıyor ve bazı ülkelerde ankete katılan çocukların üçte ikisine yakını, deepfake ile kendileri hakkında sahte görüntü ya da video üretileceğinden endişe duyduğunu belirtiyor.

UNICEF, artan tehdide karşı hükümetlere net bir yol haritası sunuyor. Mevcut çocuk cinsel istismarı materyali (CSAM) tanımlarının, yapay zekâ tarafından üretilen içerikleri de kapsayacak şekilde genişletilmesi gerektiği belirtiliyor. Yalnızca dağıtımın değil; üretim, edinim ve bulundurmanın da açık biçimde suç sayılması isteniyor. Ayrıca yapay zekâ geliştiricilerine “safety-by-design” yaklaşımını benimsemeleri çağrısı yapıyor.

Dijital platformların da bu tür içerikleri sonradan kaldırmak yerine, dolaşıma girmesini baştan engelleyecek önlemler alması gerektiği ifade ediliyor. Birleşik Krallık, yapay zekâ kullanarak çocuk cinsel istismarı materyali üretmeye yarayan araçların bulundurulmasını, oluşturulmasını ya da dağıtılmasını suç kapsamına alan ilk ülkelerden biri oldu.

UNICEF'in de dikkat çektiği üzere, bu toplumsal krizle başa çıkmak için çok daha sistematik bir yaklaşım gerekiyor. Teknoloji şirketlerine en büyük görev de bu konuda hareket etmeleri ve güvenliği önceliğe alan sistemler geliştirmeleri.

🚀
VERİMLİLİK RAPORU
Özeti okuyarak 21 Dakika 36 Saniye kazandınız.
Orijinal: ~24 dk | Özet: 2 dk 24 sn

Kaynak site: https://www.donanimhaber.com

INTELLIGENCE TERMINAL

Encryption Mode: AES-256
BITCOIN (BTC)
$69,151.50
0.66%
BIST 100
9.412,50
-0.82%
Neural Activity Stream
[SYSTEM] Neural core synchronized.
[DATA] Scanning global crypto sentiment...
[INTEL] High volatility detected in Nasdaq 100.
[SUCCESS] AI Article Summary V4 generated.
[SIGNAL] Establishing connection to Reuters-API...
Analyzing Real-time Signals

Synthesizing headlines from 4,200 verified sources globally.

Top Trending Signals
AI ANALYSIS Just Now

Neural Network Predicts Q1 Market Rally

Advanced patterns suggest a high probability (82%) of a bullish trend start in late Jan.

URGENT SIGNAL 12m ago

SpaceX Starship Prepares for Orbital Flight

Telemetry data indicates ignition sequence verification has begun at Starbase.