28.04.2019 21:36

Şiddeti tespit etmekte geç kaldı

YENİ Zelanda’daki vahim terör saldırısının en çok konuşulan noktalarından biri de terörist Bren-ton Tarrant’m saldırıları tamamen dijital ortam için hazırlamış olmasıydı. AvustralyalI ırkçı ve Islamofo-bik terörist, saldırıdan 10 dakika önce aralarında Yeni Zelanda Başbakanlık Ofisi ve bazı medya organlarının da bulunduğu 30 kadar e-posta adre-sine, 87 sayfadan oluşan nefret manifestosunu gönderdi. Büyük Yer Değiştirme isimli bu manifestoyu e-posta yoluyla alan Başbakanlık ofisi, 2 dakika sonra harekete geçerek bu bildirinin ne anlama geldiğini anlamaya çalıştı. Ancak Yeni Zelanda Başbakanlık Ofisi, bildiride bir saldırının haberini veren yer, saat, mekan gibi ifadeler olmadığı, durum anlaşılıncaya kadar katliamın gerçekleştiği bilgisini paylaştı. Terörist amacına ulaşmıştı. Cephaneliğe çevirdiği aracına binip 15 Mart günü yaklaşık 20 dakika süren cami katliamını Facebook’tan canlı yayınladı. Bu video Tvvitter, Youtube, Reddit gibi başka sosyal medya platformlarına da sıçradı. Hatta Tvvitter’da yaklaşık 700 bin takipçisi olan bir kişi de bu görüntüleri paylaştı. Görüntüler kopyalandı da kopyalandı. Dünyanın en çok tıklanan haber sitelerinin bazıları da bu kanlı görüntüleri paylaştı.

YETERSİZ KALIYOR

O günün sonunda dünyanın pek çok yerinden sosyal medya kullanıcısı, dünyanın en büyük sosyal medya platformlarının bu şiddet görüntülerini tespit etmekte neden geç kaldığını sorguladı. Katliamı takip eden bir iki gün içinde, sosyal medya platformları bu sakıncalı görüntüleri temizlediklerini açıkladı. Ancak ortaya çıkan sonuç, sakıncalı görüntüleri ortadan kaldırmaya yarayan makine öğrenmesi teknolojisinin nesnel içeriği tespit etmekte henüz iyi olmadığıydı. Makine öğrenmesi algoritmaları, söz gelimi bir silah veya bir nefret konuşması metni ile eğitildiğinde bunları tespit etmekte başarılı, ancak bu paylaşımları kimin yazdığı veya platforma yüklediği konusunda tahmin yürütmekte iyi değil. Paylaşılan görüntü ve metnin ne tür sosyal veya kültürel sonuçları olabileceğini de bir insan gibi öngöremiyor. Öte yandan bir video görüntüsünde silahın görülmemesi veya görüntüde kullanılan ışık, arka plandaki görüntüler gibi etkenler de göz önünde bulundurulduğunda makine öğrenmesi tekniğinin yanılmasına veya yanlış çıkarımlar yapmasına neden oluyor. Bir de Youtube’da dakikada 400 saatten fazla görüntünün yüklendiğini düşünürseniz, yapay zekanın yeterli veya fonksiyonel olmayacağını söylemek.
 

—————

Geri