Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri

Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri
  • Çevrimiçi avcılar daha küstah ve cazibelerini arttırmak için chatbotlar gibi yeni teknolojiler kullanıyorlar

    Thorn’un Stratejik Etkiden Sorumlu Başkan Yardımcısı John Starr, “Dijital olarak birbirine bağlı dünyamızda, çocuklara yönelik cinsel istismar materyalleri, günlük yaşamlarımızda kullandığımız platformlarda kolayca ve giderek daha fazla paylaşılıyor” dedi Sanki bir dijital parmak izi her içerik parçası için

    Thorn tarafından geliştirilen proaktif CSAM tespitine yönelik bir araç olan Safer, bilinen 29 milyondan fazla CSAM karma değerini toplayan büyük bir veritabanına erişim sunar

    CSAM’yi internetten kaldırma

    CSAM’yi internetten kaldırmak için teknoloji şirketlerinin ve STK’ların her birinin oynayacağı bir rol var ”

    2022 yılında Safer, müşterileri için 42,1 milyardan fazla görsel ve videoyu hashledi “Gençler ve yetişkinler arasındaki zararlı etkileşimler sadece internetin karanlık köşeleriyle sınırlı değil karma ve eşleştirme Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC)’nin CyberTipline’ı, son beş yılda bildirilen çocuk cinsel istismarı materyalleri (CSAM) dosyalarında %329’luk bir artış gördü Bu dosyaların büyük bir kısmı daha önce raporlanmış ve doğrulanmış CSAM






    siber-2

    CSAM’yi tespit etmek için içeriğe karma işlemi uygulanır ve elde edilen karma değerleri, bilinen CSAM’in karma listeleriyle karşılaştırılır

    Karma ve eşleştirme nedir?

    Basitçe söylemek gerekirse, karma oluşturma ve eşleştirme, CSAM’yi tespit etmenin ve çevrimiçi yayılmasını engellemenin programlı bir yoludur NCMEC, 2021’den 2022’ye kadar çocukların çevrimiçi ortamda cinsel eylemlere teşvik edildiğine ilişkin raporlarda %82’lik bir artış gördü Dijital topluluk yenilikçi platformlar oluşturdukça, yırtıcılar bu alanları çocukları sömürmek ve bu korkunç içeriği paylaşmak için kullanıyor Araştırma paylaşıldı Çocuklara Yönelik Cinsel İstismarda Ortaya Çıkan Çevrimiçi Eğilimler 2023 raporu, reşit olmayanların giderek daha fazla kendilerinin cinsel fotoğraflarını çekip paylaştıklarını gösteriyor Gençler yetişkinlerle olan riskli çevrimiçi etkileşimlerde de artış bildirdiğinden, bu etkinlik rızaya dayalı veya baskı yoluyla gerçekleşebilir “Bu, çocuklarımızı korumakla ilgili

  • Bu içerik, ister profil resmi ister geniş bulut depolama alanı olsun, kullanıcı tarafından oluşturulan içeriği barındıran her platform için potansiyel bir risktir

  • Kendi kendine oluşturulan CSAM (SG-CSAM) yükselişte Yalnızca 2022’de NCMEC 88,3 milyondan fazla CSAM dosyası aldı Bu, platformlarında 520 Her iki teknoloji de bir dosyayı benzersiz bir sayı dizisine dönüştürür Safer bugüne kadar müşterilerinin platformlarında iki milyondan fazla CSAM parçasını tanımlamasına yardımcı oldu ”

    Bu eğilimler ve Yükselen Çevrimiçi Eğilimler raporunda paylaşılan diğerleri, diğer çocuk güvenliği kuruluşlarının rapor ettikleriyle uyumludur Yaygın olarak iki tür karma kullanılır: algısal ve kriptografik karma Aynı zamanda teknoloji platformlarının, kullanıcılarını ve kendilerini bu içeriği barındırmanın risklerinden korumasına yardımcı olmakla da ilgili

    Bilinen CSAM külliyatının genişletilmesi

    Karma ve eşleştirme, CSAM tespitinin temelidir Bu metodoloji, teknoloji şirketlerinin bu yasa dışı içeriği platformlarından tanımlamasına, engellemesine veya kaldırmasına olanak tanır

    Bu sorunun boyutunu yalnızca teknoloji çözebilir

    Karma ve eşleştirme teknoloji şirketlerinin yardımcı olmak için kullanabileceği en önemli teknoloji parçalarından biridir Starr, “İçerik barındırma platformları kilit ortaklardır ve Thorn, teknoloji endüstrisini çocuklara yönelik cinsel istismarla geniş ölçekte mücadele edecek araçlar ve kaynaklarla güçlendirmeye kararlıdır” diye ekledi Daha önce bildirilen ve doğrulanan içeriğin karma listeleriyle eşleştirmeye dayandığından, bir şirketin veritabanında eşleştiği bilinen CSAM karma değerlerinin sayısı kritik öneme sahiptir Doğru araçlarla internet daha güvenli olabilir


    10 Ekim 2023Hacker HaberleriSiber Güvenlik / Çevrimiçi Güvenlik

    Yakın zamanda yayınlanan bir rapora göre çocuklara yönelik bazı çevrimiçi riskler artıyor Dikenmisyonu çocukları cinsel istismardan korumak için teknoloji geliştirmek olan, kâr amacı gütmeyen bir teknoloji kuruluşudur 000 bilinen CSAM dosyasının bulunmasıyla sonuçlandı kullanıcıları ve platformları bu içeriği barındırmanın risklerinden koruyun aynı zamanda CSAM’nin viral yayılımını ve yeniden mağduriyet döngülerini bozmaya da yardımcı oluyor İçerik bilindiğinden ve daha önce bir STK karma listesine eklendiğinden, kullanılarak tespit edilebilir Internet Watch Foundation, yalnızca 2021’den 2022’ye kadar SG-CSAM’de %9’luk bir artış kaydetti

    Her yıl milyonlarca CSAM dosyası çevrimiçi olarak paylaşılmaktadır

    Raporlardaki artışa çeşitli faktörler katkıda bulunuyor olabilir:

    1. Daha fazla platform, karma ve eşleştirme kullanarak bilinen CSAM’yi tespit etmek için Thorn’un Safer ürünü gibi araçları kullanıyor Safer ayrıca teknoloji şirketlerinin hash listelerini birbirleriyle (adlı veya anonim olarak) paylaşmalarına olanak tanıyarak bilinen CSAM’in külliyatını daha da genişleterek viral yayılımını engellemeye yardımcı olur

      CSAM tespit araçlarını kullanan platform sayısı arttıkça, çevrimiçi ortamda çocuklara yönelik cinsel istismar materyallerinin endişe verici yükselişinin tersine çevrilme şansı da artar hash değeri