COVID-19’dan sonra teknoloji şirketlerinin üzerimizdeki kolluk uygulamaları için algoritmaları kullanmalarına izin veremeyiz

Salgın, zararlı içerikleri kaldırmak için algoritmalara bel bağlamanın ne gibi tehlikeler içerdiğini gösteriyor Çevrimiçi olarak ne gönderip gönderemeyeceğimizi algoritmaların kararlaştırması şimdi her zamankinden daha yaygın. Teknoloji şirketleri, koronavirüs salgını nedeniyle mahremiyet ve güvenlik gerekçeleriyle evden çalışamayan binlerce insan denetleyicinin yerine yapay zekâya bel bağlıyor. İçerik denetimini otomatikleştirmenin kendince avantajları var: algoritmalar hızlı ve ucuz. Ancak […]

(Yazar)
(Yazar)
(Çevirmen)

Salgın, zararlı içerikleri kaldırmak için algoritmalara bel bağlamanın ne gibi tehlikeler içerdiğini gösteriyor

Çevrimiçi olarak ne gönderip gönderemeyeceğimizi algoritmaların kararlaştırması şimdi her zamankinden daha yaygın. Teknoloji şirketleri, koronavirüs salgını nedeniyle mahremiyet ve güvenlik gerekçeleriyle evden çalışamayan binlerce insan denetleyicinin yerine yapay zekâya bel bağlıyor.

İçerik denetimini otomatikleştirmenin kendince avantajları var: algoritmalar hızlı ve ucuz. Ancak aynı zamanda hataya açıklık konusunda oldukça kötü bir şöhrete sahipler ve büyük ölçekte yanlılık uygulayabilirler. Yakın zamandaki başarısızlık çığının da gösterdiği gibi, kriz bittiğinde algoritmaların direksiyonda kalmasına izin verilmemelidir.

Otomatik sansür, virüs dünya çapında yer edindiği süre boyunca insanların anahtar bilgi paylaşmasını durdurdu. New Yorker yazarı Paige Williams, Mart ortalarında virüsün yayılmasını önlemeye ilişkin güvenilir bir kılavuz göndermeye çalıştığında, gönderisi Facebook tarafından spam olarak sansürlendi. Sağlık çalışanları için kritik yüz maskesi eksikliğine bir yanıt olarak gönüllüler binlerce ev yapımı maske diktiler ve Facebook üzerinden bağışlamaya çalıştılar, fakat kendilerini “Facebook nezaretinde” buldular. Yazılım onların iyilikseverliğini, bir krizden çıkar sağlama çabasından ayırt edemiyordu, bu yüzden bu gönderiler ve bir sürü başka gönderi yanlışlıkla sansürlendi ve birçok hesap tümüyle askıya alındı.

Kullanıcılar Facebook algoritmasının, başkalarına tedarik öneren gönderileri yanlışlıkla kaldırdığından şikâyetçi.

Otomasyonun tehlikeli yanlış bilginin yayılmasını durdurma konusunda derde deva olmadığı da kanıtlandı. Koronavirüs ve 5G kuleleri arasındaki (tamamen sahte) bir bağlantıyı ileri süren komplo teorilerinin paylaşılmasını durdurmada başarısız olduğu gibi, insanların çamaşır suyu içmesini öneren reklamları da engelleyemedi.

Bu başarısızlıklar, ilgili şirketlerde çalışan kişiler de dahil olmak üzere, nefret veya taciz içeriğini tespit etmek için otomatikleştirilmiş araçlar oluşturmayı deneyen veya üzerinde çalışan kişiler için hiç de şaşırtıcı değil. Bu nedenle Facebook, Twitter ve YouTube, kullanıcıları birçok hatalı ‘yayından kaldırma’yı beklemeleri ve bu hataların düzeltilmesinin uzun zaman alabileceği konusunda uyardılar.

İçerik denetimi birçok yöntemle otomatikleştirilebilir, bu yöntemlerin her birinin belirgin kısıtlamaları var. Anahtar kelime filtreleri ve özet eşleme algoritmaları gibi araçlar sadece daha önce tanımlanmış malzemeyi bulabilirler ve bağlamı dikkate alamazlar. Saldırgan içeriğin yeni örneklerini tespit etmek için tasarlanan makine öğrenmesi araçlarının, neyin ihlal olup olmadığına ilişkin açık örneklerle eğitilmesi gerekiyor. Bu durum, iletişim biçimleri sürekli değiştiğinde zordur ve bu değişimler salgın olsa da olmasa da vardır. Facebook’un teknolojiden sorumlu başkanı Mike Schroepfer geçen yıl New York Times’a şirketin yapay zekâsının platformdaki nefret söyleminin sadece %51’ini yakalayabildiğini söylemişti.

Nefret söylemi ve tacizi yazılımla tespit etmek oldukça zor ve bu açıdan kötü bir şöhrete sahipler, çünkü dünyadaki en düzgün algoritmalar, insan iletişimindeki ince farkları ayrıştıramıyor. Algoritmalar sıklıkla şakayla hakareti birbirinden ayırt etmekte başarısız oluyorlar veya insanların başkalarına saldırdığı ve aşağıladığı çoğu yaratıcı şekli, mesela başka bir grubun konuşma kalıplarını taklit etmeyi, yakalayamıyorlar. İnsanlar her zaman başka insanların ne kastettiğini anlamasalar da kültürel, dil bilimsel ve toplumsal ba��lamı dikkate alabiliyorlar.

Bununla birlikte, içerik denetimi, toplumun önerebileceği en kötü şeylerin bitmez tükenmez akışıyla yüzleşen ve genellikle düşük ücretle ve kötü çalışma koşullarında çalışan insan işçiler için son derece travmatik olabiliyor. Otomasyon, platform kurallarını uygulayan kişiler için uygun bir ruh sağlığı desteği ve adil ücret sağlamanın ikamesi olarak kullanılmamalıdır.

Yapay zekânın iyi bilinen zayıflıklarını telafi etmek için birçok şirket kriz sırasında otomatik olarak kaldırılmış içerik için kullanıcılara daimi bir ceza vermeyeceklerini söylediler. Otomatik kaldırmalar, kullanıcının platformdaki kötü davranış toplamı kapsamında kaydedilmeyecek.

Başka bir ifadeyle otomasyon, acil bir durum karşısında üretilen geçici ve eksik bir yanıt. Şirketlerin bunu unutmaması, hükümetlerin de bunu anlaması gerekiyor. Her iki tarafın da otomatik izlemenin veya “filtrelemenin” yeni mevcut durum haline gelmemesini güvence altına alması gerekiyor. Avrupa Birliği (AB) hâlihazırda zorunlu filtrelemeye doğru rahatsız edici adımlar atmış durumda. Geçen yaz, AB temel olarak, kullanıcının ürettiği içerikleri barındıran sitelerin, telifli çalışmaların lisanssız kullanımını engelleme amacıyla “yükleme filtreleri” uygulamasını gerektiren Telif Hakkı Yönergesi’ni kabul etti. Fakat agresif telif hakkı filtreleri sıklıkla atıf hataları yapıyorlar ve adil kullanımı göz önüne almakta hep başarısız oluyorlar. Bu durumu, J. S. Bach’ın yüzyıllardır kamuya açık olan bir parçasını kendi oturma odasında çalarken canlı olarak yayımlayan kemancıya, Facebook tarafından telif hakkı ihlali nedeniyle görüntüdeki sesin kısılması bağlamında sorabilirsiniz.

Bu arada, şirketlerin engellediği veya kaldırdığı içeriği saklamaları da gerekiyor, çünkü gönderilerinin veya hesaplarının yanlışlıkla sansürlendiğini düşünen kişiler, bu itirazları değerlendirebilecek insanlar mevcut olduğunda itiraz edebilirler. Bu ayrıca araştırmacıların daha sonra otomatik kaldırmanın acil kullanımının özgül ve sistemik etkilerini keşfetmesine de olanak sağlar. Şimdilik, otomatik sansürün hangilerinin şirketin politikalarına uygun olduğunu, hangilerinin algoritmalarının arızalarının sonucu olduğunu bilmiyoruz. Buna yönelik bir kavrayış olmadan, şirketlerin koydukları sınırları yararlı bir şekilde eleştirmek imkânsızdır.

Teknoloji şirketleri, herhangi bir mevcut veya önceki hükümetten çok daha fazla bir şekilde insan iletişimini denetliyorlar. Acil durumlarda ve olağan zamanlarda, bu çok geniş gücü mümkün olduğunca adilce ve şeffafça uygulamaları gerekiyor.

Özgün Metin: https://www.opendemocracy.net/en/digitaliberties/we-cant-let-tech-companies-use-algorithms-to-police-us-after-covid-19/

Kaynak: https://sendika.org/2020/05/covid-19dan-sonra-teknoloji-sirketlerinin-uzerimizdeki-kolluk-uygulamalari-icin-algoritmalari-kullanmalarina-izin-veremeyiz-susan-benesch-emma-llanso-588207