Kapitalist zekâ mı? (II)

I. kısım Büyük Veri Bir makinenin, mantıksal kurallara ve anlama değil, bir kelime veya metin biriminin diğerini takip etme olasılığının ne kadar yüksek olduğuna dayanarak dil üretmesi bayağı çılgıncadır. Çünkü bu süreç devasa bilgisayar kapasiteleri, muazzam güç tüketimi ve birçok yeniden çalışma gerektirir. Ancak iş modelinin kalbinde tam da bu çılgınlık var. Çünkü sadece büyük […]

(Çevirmen)

I. kısım

Büyük Veri

Bir makinenin, mantıksal kurallara ve anlama değil, bir kelime veya metin biriminin diğerini takip etme olasılığının ne kadar yüksek olduğuna dayanarak dil üretmesi bayağı çılgıncadır. Çünkü bu süreç devasa bilgisayar kapasiteleri, muazzam güç tüketimi ve birçok yeniden çalışma gerektirir. Ancak iş modelinin kalbinde tam da bu çılgınlık var. Çünkü sadece büyük teknoloji şirketleri bu devasa veri merkezlerine sahipler ve son yirmi yılda gerekli veri hacimlerini ve parayı biriktirdiler. Bu nedenle büyük dil modelleri, kimsenin onlarla rekabet edemeyeceği bir iş modelidir; devlet araştırma kurumları veya en iyi uluslararası üniversiteler değil veri, gerekli bilgisayarlara bile sahip değiller!

Google, Facebook, Amazon vb. tüm insanlığın dijital ayak izini ele geçirdi. Örneğin Google, son on iki yılda eğitim verileri için herkese açık diyalog verilerinden ve web metinlerinden 1,56 trilyon kelime çıkarmak için özel tarama botları kullandı. Tarama botları herkese açık İnternetteki her şeyi ele geçiren veri emicilerdir. Yıllardır reklam amaçlı veri toplama olarak kabul edilen şey artık tersine çevrilemez. Eğitim modelleri verileri işledikten sonra, artık silinemez.

Bununla birlikte, sohbet robotlarının eğitim verileri yalnızca kendilerine “gönüllü olarak” sunduğumuz milyarlarca ve milyarlarca veriyi değil, aynı zamanda telif hakkıyla korunan metinleri de içerir. Yapay zekâlar ayrıca, korunan çalışmaları yasa dışı olarak kullanıma sunan veritabanlarıyla da eğitilir. ABD dergisi The Atlantic’ten gazeteciler, her yapay zekâyı besleyen yaklaşık 100 gigabaytlık Books3 veritabanında bir arama yaptılar. Sonuç olarak, 25 Eylül’de [2023] ISBN’leriyle birlikte yaklaşık 183.000 başlık içeren aranabilir bir veritabanı yayınladılar.

Aynısı görüntü üreteçleri için de geçerlidir: İnternetteki milyarlarca fotoğraf, Dall-E gibi programlardaki görüntülerin yapı malzemesidir. Bazı fotoğraflar, profesyonel fotoğrafçılar tarafından oluşturulmuştur ve bunlar, yapay zekâ tarafından profesyonel web sitelerinden kolayca taranabilir. Kimse eserlerin sahiplerine, herhangi bir ücret teklif etmeyi bir kenara bırakın, buna rızaları olup olmadığını sormadı. Fotoğraflarının yapay üreteçlerin eğitimi sırasında kullanılıp kullanılmadığını kanıtlayamazlar. Tanım gereği, bir makine görüntüsünü oluşturmak için hangi fotoğrafların kullanıldığını yeniden oluşturmak mümkün değildir.

Kaynak tüketimi

Sohbet robotlarında ve görüntü üreteçlerinde üretken yapay zekânın mevcut yayılımıyla ilgili belki de en büyük sorun, muazzam kaynak tüketimleridir. 2010 yılında, standart bir dizüstü bilgisayarda bir yapay zekâ eğitmek hala mümkünken, bugün bu amaçla binlerce GPU’lu özel bilgisayarlar kullanılıyor.

Enerji

Küresel enerji tüketiminin %12’si dijital uygulamalara atfedilebilir. Bunun yarısından biraz fazlası (%6 ile %8) büyük veri merkezleri tarafından kullanılmaktadır. Yapay zekâ canlanmasına zar zor ayak uyduruyorlar. HPE1çn. Hewlett Packard Enterprise başkanına göre, veri merkezleri beş yıl içinde dünya enerjisinin %20’sini tüketebilir. Yapay zekâ modellerini eğitmek, tüm diğer bilgisayar işlerinden daha fazla enerji tüketir. Bu gelişme ancak GPT-2’nin yayınlandığı 2019’dan bu yana gerçekten kalkışa geçti; GPT-2 altı milyar parametreyle çalışıyordu. GPT-3 algoritması 175 milyar parametreden oluşmaktadır. GPT-4, 1,7 trilyon parametreyle çalışır. Her yeni modelin parametreleri 10 kat artarken enerji tüketimi, işlenen veri miktarı ile üstel olarak artıyor. GPT-3’ün son eğitim çalışması, tek başına, Almanya’nın kişi başına düşen yıllık karbondioksit emisyonunun yaklaşık dokuz katına tekabül eden 189 megavat saat enerji tüketti. Ve aslında çevrim içi olan her model için, öncesinde ıskartaya çıkarılan yüzlerce model var.

Ancak durum sadece yapay zekâ eğitimiyle sınırlı değil, aslında bu programları kullanmak da çok daha fazla güç gerektiriyor. Yaklaşık 230 kelimelik tek bir istek 581 vat saat gerektiriyor. ChatGPT’ye Şubat 2023’te yapılan bir milyar talep dolayısıyla 581 gigavat saat tüketmiştir. Mayıs ayında sadece ChatGPT için zaten 1,9 milyardı. Bu yaklaşık 464.000 ton CO₂’ye karşılık gelir. Ve onun yerine geçen GPT-4’ün enerji açlığı daha da büyük. Yapay zekâ artık kripto madenciliğinden daha fazla elektrik tüketiyor (Bitcoin’in elektrik ihtiyacının 2021’de 120 teravat saat olduğu tahmin ediliyor).

Eski günlerde (2016’da) Google, bir arama sorgusunun işlenmesinin 60 vatlık bir ampulü 17 saniye boyunca yakmak kadar enerji tükettiğini hesapladı. Bu nedenle Google, o dönemde yılda yaklaşık 3,3 trilyon arama sorgusu için yaklaşık 900 gigavat saat elektrik tüketiyordu. Bu, iki kişilik 300.000 hanenin güç tüketimine eşdeğerdi, ancak yapay zekânın güç tüketimine kıyasla önemsizdi.

Bir yıl önceki bir konferansta, bir yapay zekâyı eğitmek için gereken enerjinin son iki yılda 18.000 kat arttığı belirtildi (bu, yeni yongalardan elde edilen enerji tasarrufunu hesaba katıyor)1. Alman günlük gazetesi FAZ2 çn. Frankfurter Allgemeine Zeitung 25 Eylül’de şunu yazdı: “Yapay zekâ stratejisi yüzünden: Microsoft’un veri merkezini besleyecek olan nükleer güç”. “Küçük nükleer reaktörlerden oluşan bir filo”, şirketin veri merkezlerine “güvenli elektrik” sağlayacak. Bill Gates ayrıca şu anda Wyoming eyaletinde bir nükleer santral inşa eden Terrapower şirketini kurdu.

Ancak sorun sadece elektrik yetersizliği değil; hesaplama gücünün gelişimi de sınırlarına ulaşıyor. Yapay zekâyı eğitmek için kullanılan hesaplama gücü, 2015 ile 2021 arasında şimdiden 300.000 kat artmış durumda. Moore Yasasına göre3çn. Moore Yasası, Intel şirketinin kurucularından Gordon Moore’un 19 Nisan 1965 yılında Electronics Magazine dergisinde yayınlanan makalesi ile teknoloji tarihine kendi adıyla geçen yasa. Bkz. Moore yasası – Vikipedi, bilgisayarların saniyede gerçekleştirebileceği hesaplama işlemlerinin sayısı yaklaşık yirmi ayda bir ikiye katlanıyor. Makine öğrenmesi yoluyla hesaplama işlemlerine olan talep şu anda her üç ila dört ayda bir ikiye katlanıyor.

Su

Su daha da büyük bir sorun olabilir. Su, yongaları üretmek ve veri merkezlerini soğutmak için gerekiyor. “İki gram ağırlığındaki bir çipin üretimi … 35 litre su tüketiyor. Modern [bir yonga fabrikası] günde 45 milyon litreye kadar suya ihtiyaç duyuyor, bunun büyük bir kısmı ‘ultra saf su’ …”2.

Yonga fabrikaları ve veri merkezleri, hükümetlerin şirketlere yalnızca milyarlarca sübvansiyon ve ucuz elektrik değil, aynı zamanda pratik olarak ücretsiz su verecek kadar aptal olduğu her yerde inşa edilir (tıpkı Brandenburg’da içme suyu sağlayan bir bölgenin ortasındaki Tesla fabrikası gibi). 2021’de Google, Uruguay’da bilgisayarları soğutmak için her gün yedi milyon litre tatlı suya ihtiyaç duyan devasa bir veri merkezi kurmaya başladı. Yaz aylarında Uruguay’da bir su krizi yaşandı; bir milyondan fazla insanın temiz içme suyuna erişimi yok. Aslında teknolojiye pek de düşman olmayan Taipei Times bile Eylül ortasında “ChatGPT’nin ağır ekolojik maliyetleri” konusunda uyardı. Microsoft, sıcak bir yaz ayında, GPT-4’ü eğittiği Iowa’daki bir süper bilgisayar (10.000 GPU) için nehirlerden 43,5 milyon litre su çekiyor ve bu da civardaki tarım için bir sorun haline geliyor. Kendi rakamlarına göre, Microsoft’un 2022’deki küresel su tüketimi 2021’e göre %34 daha yüksekken, Google %20’lik bir artış bildirdi. Her ikisi için de keskin artış neredeyse yalnızca yapay zekâdan kaynaklanıyor3.

Iowa’da yeni veri merkezlerine artık yalnızca suyu daha idareli kullanırlarsa izin veriliyor. Saksonya ve Saksonya-Anhalt’ta etki henüz bilinmiyor. Saksonya’daki yonga endüstrisinin o kadar çok suya ihtiyacı var ki yeraltı suyu artık yeterli değil. Politikacılar “sorun değil”, diyor, “Elbe’den alacağız”. Şimdi 200 kilometre aşağıya bir TSMC4çn. Taiwan Semiconductor Manufacturing Company, dünyanın en büyük yarı iletken üretim ve tasarım şirketlerindendir. Tayvan’ın en büyük şirketi, dünyanın en değerli yarı iletken şirketi ve 2023’te Forbes Küresel 2000’de 44. sıradadır. https://en.wikipedia.org/wiki/TSMC yonga fabrikası eklenecek, insanlardaki ilk coşkunun yerini şimdi bir endişe alıyor. İlk resmi tahminlere göre, Magdeburg’daki Intel tesisi üretim için rekor miktarda su kullanacak. Eyaletin tahmini yılda 6,5 milyon metreküp su. Bu, Intel tesisinin Brandenburg’daki Tesla fabrikasından daha fazla su tüketeceği anlamına geliyor. Suyun hangi kaynaklardan çekileceği henüz belli değil. Elbe su şebekesi için dikkat edilmesi gereken hususlar var. Bu arada, ChatGPT sadece eğitim sırasında su tüketmekle kalmıyor, aynı zamanda birisinin 5 ile 50 soru sorduğu bir oturum sırasında da yarım litre su yutacak.

Arama motorları ve iş modelleri

“Bing yapay zekâya dayanıyor, bu nedenle sürprizler ve hatalar mümkün”
(Microsoft, arama motorunun ana sayfasından)

30 Nisan 1993’te World Wide Web (WWW) ücretsiz olarak halka açıldı. Google arama motoru 15 Eylül 1997’de çevrim içi oldu. WWW’yi şekillendirdi ve daha da şekillendirecek. WWW’nin önemli bir kısmı şu formüle göre çalışır: siteler içerik oluşturur, Google insanları bu içeriğe yönlendirir, herkes reklam yerleştirir. Büyük siteler bile tıklamalarının %40 kadarını arama motoru üzerinden alır ve arama sonuçlarındaki sıranın kaç tıklama aldığınız üzerinde büyük bir etkisi vardır. Web siteleri, mümkün olduğunca üst sıralara çıkmak için arama motoru optimizasyonunu kullanır. İnternet hep bildiğimiz gibi görünüyor çünkü Google, sayfa tasarımı, teknoloji ve içerik açısından belirli standartlara kadar, bunu talep ediyor. Reklamcılık neredeyse tüm İnterneti finanse ediyor. Dikkati (tıklamaları) paraya dönüştürür. (Bu “dikkat ekonomisi” sansasyonel başlıkları ve sahte haberleri ödüllendiriyor, ancak bu başka bir hikaye).

Geçtiğimiz birkaç yıl içinde Google, bir arama motorundan yanıt motoruna dönüşmeye devam etti. Belirli sorular, uzun bir web sitesi bağlantıları listesi görüntülemek yerine doğrudan yanıtlanıyor. Bir arama sorgusuna yanıt olarak uygun sonuçlar veriliyor ve ilgili reklamlar görüntüleniyor. Amazon da uzun süredir önceki satın alımlarınıza veya göz atma geçmişinize dayalı kitaplar ve başka ürünler öneriyor. Diğer web siteleri arkadaş öneriyor, grip salgınlarını tahmin ediyor, değişen tüketici alışkanlıklarına işaret ediyor ve müzik zevkinizi biliyor (YouTube, Facebook, Netflix, Spotify vb.). Milyonlarca ve milyonlarca insan bu hizmetleri her gün kullanıyor. İnsanların üçte ikisi doktora gitmeden önce semptomlarının ne anlama gelebileceğini googlelıyor ve dünya çapında binlerce sağlık uygulaması var. Ve şimdi ABD’de, 300 milyon hasta veri kaydı Google’ın tıbbi yapay zekâsı Med Palm2’ye beslendi.

Bu süreçte Google bir arama motoru olarak gittikçe kötüye gitti; arama sonuçları daha alakasız oldu, aramalar daha sonuçsuz kaldı. Google’ın insanların gerçekte ne aradığını “anlamasını” sağlamak için makine öğrenmesi kullanma girişimleri bazen tam tersi bir etkiye sahiptir. Bu kısmen, sık sık tıklanan sonuçları diğerlerinden daha alakalı olarak yorumlayan algoritmadan kaynaklanmaktadır (ayrıca kendi kendini pekiştiriyor!). Artık birçok kişi Google’ı yalnızca /github, /reddit veya /wiki ekleyerek favori web sitelerini aramak için kullanıyor.

Sohbet robotu Bard’ın5çn.  2 Şubat 2023’te duyurulan Bard, 8 Şubat 2024’te Duet AI ile birleştirilerek Gemini adını aldı. aramaya entegrasyonu ile Google, WWW’yi ve iş modellerini bir kez daha kökünden değiştiriyor. Bard’ın sonuçları okuması ve sonra özetlemesi gerekiyor. Birçokları için bu özetler yeterli olacaktır. Zaten tüm yanıtlara sahipken neden tıklamaya devam etsinler ki? Ancak Google artık web sitelerine aynı sayıda tıklama yönlendirmezse, bu birçok operatör için son anlamına gelecektir. Şirketler reklam yoluyla artık kendilerini finanse edemezlerse, ödeme sistemlerine geçmek ve içeriklerini yapay zekâdan korumak zorunda kalacaklar. Bu, bildiğimiz İnterneti önemli ölçüde değiştirecektir.

Papağan makalesi

Stokastik Papağanların Tehlikeleri Üzerine: Dil Modelleri Çok Büyük Olabilir mi?4 Timnit Gebru, Margaret Mitchell ve Google’ın yapay zekâ etik departmanından diğer dört meslektaşlarıyla birlikte hesaplamalı dil bilimci Emily Bender ile işbirliği içinde Mart 2021’de yayınladıkları makaledir. Tam da ChatGPT’nin öncülerinin ilk bakışta hatasız ve güvenilir görünen metinler üreterek dikkat çektikleri dönemde, 2020’de makaleleri üzerinde çalışmaya başladılar. Makale herkesin erişimine açıldığında, patronlarının tehditlerine rağmen imzalarını geri çekmeyi reddeden iki Google çalışanı Timnit Gebru ve Margaret Mitchell çoktan kovulmuştu. Makelenin son bölümlerinde, YZ’nin “bilinçli geliştirilmesi” için önerilerde bulunuyorlar. Yine de, makale bir cephe saldırısıdır; tam da sohbet robotlarının iş modelini oluşturan şeye bir eleştiri yapıyor: Büyükler (böylece kimse ayak uyduramaz); her şeyi bir kara delik gibi emerler: hesaplama gücü, elektrik, su, araştırma fonları; ve onları satmak için, akıl dışı bir yutturmaca yaratılır ve yapay zekânın olasılıkları üzerine rasyonel bir tartışmadan kasıtlı olarak kaçınılır.

Papağan makalesi ayrıca – “dünya çapında benzeri görülmemiş bir çevresel değişim zamanında” – sohbet robotlarının (elektrik, CO₂, su vb.) neden olduğu büyük kaynak israfını da eleştiriyor. Yapay zekâ için gereken elektriğin çoğu fosil yakıtlardan geliyor. Teknoloji endüstrisi her şeyin yakında yenilenebilir enerji kaynaklarından geleceğine dair bahse girse de, bu gerçekçi değildir ve yenilenebilir enerji “ücretsiz” değildir. Yüksek gelirliler için İngilizce dil modellerinin geliştirilmesinin ekolojik sonuçlarının bedelini Küresel Güney ödüyor.

Sohbet robotları, araştırma fonlarının ve bilimsel kaynakların büyük ölçüde yanlış tahsis edilmesine yol açtı. Sonuçta, gerçek dilsel ilerlemeyi ve gerçek “yapay zekâ” üzerinde çalışmayı engelliyorlar.

Dil modelleri ırkçıdır ve azınlık karşıtıdır, çünkü ana akım görüşü “aşırı temsil ederler”. Yapay zekâ, kendini pekiştiren bir döngüde yanlılığı artırır. Uygulamada, yapay zekâ ırkçı ve diğer kalıpları yeniden üretir (siyahların meşru sigorta talepleri, sağlık hizmetleri ve devlet sosyal yardımları reddedilmiştir). ABD’de yapay zekâ sistemleri, azınlıkların nispeten daha uzun süre hapis cezalarıyla hapsedilmesine müdahil oluyor.

Dil üreteçleri “dili” anlamıyor veya üretmiyor. Dil her zaman biçim ve anlama sahiptir, ancak sohbet robotları için yalnızca “biçim” vardır. Sadece dilsel biçimleri manipüle ederek ele alınabilecek görevlerde başarılıdırlar. Bununla birlikte, dil bilgisi açısından büyük ölçüde hatasız, gerçek sesli metinler ürettikleri için, insanların dilde anlam bulma ve karakter dizilerini anlamlı iletişimsel eylemler olarak yorumlama eğiliminden yararlanırlar. Bu manipülasyon potansiyeli nedeniyle, yapay zekâ geliştirmede “sentetik insan davranışı” üzerine çalışmak “apaçık kırmızı bir çizgidir”. “Sentetik” yapay olarak tercüme edilebilir, ancak tam olarak doğru noktaya parmak basmaz. Yazarlar (bu bölümlerin kaynağı muhtemelen hesaplamalı dil bilimci Emily Bender’dır), kullanıcıların kasten ve amaçlı olarak kafasını karıştırmak üzere insan konuşmasını taklit etmek için yapay dil kullanma yaklaşımını eleştiriyor.

Tıklama işçisi

Önce dijitalleşme, kaygılar sonra”
(Alman liberal partisi FDP’nin 2017 federal seçim sloganı)

Makine öğrenmesinin ön koşulları vardır ve iyileştirilmesi gerekir. Üretken yapay zekâ genellikle metinleri, anahtar kelime resimlerini analiz eden, ses kayıtlarını dinleyen ve bazen kendileri veri toplayan, örneğin önceden tanımlanmış konularda fotoğraf çeken, sıklıkla güvencesiz koşullar altında çalışan tıklama işçileri denen kişilerin çalışmalarına dayanır. Kenya, Venezuela, Arjantin, Bulgaristan vb. ülkelerdeki bu düşük ücretli tıklama işçileri ve içerik moderatörleri olmasaydı ChatGPT sosyal medyanın kendisinden önce olduğundan daha fazlası olmayacaktı. Bu insanların çalışmaları genellikle gizli kalır; çünkü yapay zekânın her şeyi kendi kendine hallettiği şeklindeki şirketlerin anlatısına uymaz. Örneğin ChatGPT için Kenya’daki üç düzine işçi, saatlik 1,32 ile 2 ABD Doları arasında bir ücret karşılığında eğitim öncesi filtreler oluşturdu. Ancak saat başı değil, parça başı ödeme alıyorlar (Doğu Avrupa, Latin Amerika ve Asya’da, işlenen bir veri kaydı, metin pasajı vb. başına en fazla 1$ alırsınız)5.

Yapay zekâlar için kaç tıklama işçisinin çalıştığını bulmak zor, iş hacmini tahmin etmek ise çok daha zor. Applause veya Clickworker gibi sağlayıcıların her biri birkaç milyon, mesela Clickworker yalnız başına 4,5 milyon civarında, tıklama işçisine sahip olduğunu iddia ediyor. Botları eğitmek için gereken emek zaman, vb. hakkında konuşmazlar. OpenAI, Google, Microsoft ve Amazon bu konuda hiçbir şey söylemiyorlar ve ciddi bağımsız çalışmalar da yok.

Berlin’deki Weizenbaum Enstitüsü’nde yapay zekâ sistemlerinin arkasındaki çalışmayı araştıran Milagros Miceli de sadece “milyonlardan” söz ediyor: “Uygulamaların arkasında içeriği denetleyen ve eğitim verilerini etiketleyen milyonlarca insan var. İlk aşamada da görüntüleri yükleyerek ve kelimeleri konuşarak verilerin oluşturulmasına yardımcı oluyorlar. Kullanıcılar için yapay zekâ gibi davranan çalışanlar bile var”. Örneğin, Madagaskar’da şöyle bir olay açığa çıkmıştı: Sadece bir tuvaleti olan bir evde 35 kişi yaşıyordu; sürekli kameraları izlemeleri ve bir şey olursa alarmı çalmaları gerekiyordu. Parisli bir girişim bu sistemi daha önce büyük Fransız süpermarketlerine “hırsızlığa karşı yapay zekâ kontrollü kamera gözetimi” olarak yüksek bir meblağa satmıştı. Başka bir örnekte, Orta Doğu’dan gelen mültecilerin Bulgaristan’da hastanelerdeki insanları kamerayla izlemesi ve örneğin biri yataktan düştüğünde veya yardıma ihtiyaç duyduğunda alarmı çalması gerekiyordu. Saatlik ücretleri yaklaşık yarım ABD Dolarıydı. Bazıları da doğrudan Suriye’den çalıştı.

Miceli, bir yapay zekâ için maliyetin %80’inin gereken hesaplama gücüne, %20’sinin gereken insan gücüne gittiğini ve bu insan gücü maliyetinin %90’ının muhtemelen ABD’deki mühendislere gittiğini tahmin ediyor.

“İşçiler çok fazla uzmanlık biriktirir. Verilerle doğrudan ilgilenme konusunda uzmanlaşıyorlar çünkü her gün bu verilerle ilgilenmek zorundalar. Kimse bu işi daha iyi öğrenmemiştir, mühendisler bile. Bazıları sefil çalışma koşullarına direniyor. İşçilerin kendi kendilerini örgütlemeleri onlara çok yardımcı oluyor. Onlarla yaptığımız konuşmalar da bunu gösterdi” (Milagros Miseli)6.

Facebook ve TikTok gibi çevrim içi ağlar için çalışan yüzlerce içerik moderatörünün daha iyi çalışma koşulları talebiyle Haziran [2023] sonunda Alman Parlamentosu’na bir dilekçe verildi6çn. Benzer alanda faaliyet gösteren İzmir’deki Telus şirketindeki işçiler bir süredir sendikalaşıyor ve işen çıkarmalara karşı eylemler düzenliyor. Daha önce, Kenyalı Meta taşeronu Sama’nın çalışanları, işverenlerine yasa dışı işten çıkarmalar nedeniyle dava açmıştı. Meta bu konuda yorum yapmak istemedi.

Özgün metin: Wildcat, 112, Sonbahar 2023

Kaynak: Angry Workers, 10 Kasım 2023

  1.  Brian Bailey, AI Power Consumption Exploding. semiengineering.com, 15 Ağustos 2022 ↩︎
  2. The Summer of Semis, Wildcat 110 ↩︎
  3. Matt O’Brian, Hannah Fingerhut, AI technology behind ChatGPT carries hefty costs. Taipei Times, 14 Eylül 2023 ↩︎
  4. Bender et al., On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜, ACM FAccT ’21, 2021 ↩︎
  5. Billy Perrigo, OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. time.com, 18 Ocak 2023 ↩︎
  6. Milagros Miceli ile mülakat: How millions of people work for AI. https://netzpolitik.org, 17 Mart 2023 ↩︎