- Meta’nın mahkemede aldığı iki yenilgi farklı davalarla ilgiliydi, ancak her ikisinde de şirketin ürünlerinin zararlarını bildiği iddia ediliyordu.
- Verilen kararlar, şirketlerin ürünlerin kullanıcıları nasıl etkilediğini analiz etmek için araştırmacılar işe alarak potansiyel sorumluluk riskine maruz kaldıklarını gösteriyor.
- Teknoloji sektörü yapay zekâya agresif bir şekilde yönelirken, uzmanlar şirket içi araştırmalara yönelik devam eden kısıtlamalar ve bunun tüketici güvenliği açısından ne anlama geldiği konusunda endişeli.
On yıldan uzun bir süre önce, Meta
O zamanlar Facebook olarak bilinen şirket, sosyal ağın hizmetlerinin kullanıcıları nasıl etkilediğini analiz etmek için sosyal bilim araştırmacıları işe aldı. Bu, şirketin ve rakiplerinin yeniliklerinin faydalarını ve potansiyel risklerini anlama konusunda ciddi olduklarını göstermenin bir yoluydu.
Ancak Meta’nın bu hafta mahkemelerde aldığı yenilgilerin de gösterdiği gibi, araştırmacıların çalışmaları bir dezavantaja dönüşebilir. Hem New Mexico’daki hem de Los Angeles’taki davalarda ifade veren eski Facebook yöneticisi Brian Boland, Meta’nın iç araştırmalarından ve belgelerinden elde edilen vahim bulguların, şirketin kendisini kamuoyuna yansıtma biçimiyle çeliştiğini söylüyor. İki davadaki jüriler, Meta’nın sitesini yeterince denetlemediğine ve çocukları tehlikeye attığına karar verdi.
Mark Zuckerberg’in şirketi, birkaç yıl önce Facebook araştırmacısı Frances Haugen’in öne çıkan bir ihbarcı haline gelmesinin ardından araştırma ekiplerine yönelik baskıyı artırmaya başladı. OpenAI ve Anthropic gibi yeni nesil teknoloji şirketleri ise bunun ardından araştırmacılara büyük yatırımlar yaptı ve onları modern yapay zekanın kullanıcılar üzerindeki etkisini incelemek ve bulgularını yayınlamakla görevlendirdi.
Yapay zekânın bazı kullanıcılar üzerindeki zararlı etkileri nedeniyle aşırı derecede dikkat çektiği şu dönemde , şirketler araştırma fonlamaya devam etmenin mi yoksa araştırmayı engellemenin mi kendi çıkarlarına daha uygun olduğunu sorgulamalıdır.
Boland bir röportajda, “Bir dönem şirket içinde oluşturulan ekipler vardı ve bu ekipler bir süreliğine, bugün sahip olduklarından biraz daha fazla özgürlükle bu ürünlerde neler olup bittiğini inceleyen son derece yetenekli araştırmacılara sahipti” dedi.
Meta’nın bu hafta aldığı iki yenilgi farklı davalarla ilgili olsa da ortak bir temaya sahipti: Şirket, ürünlerinin zararları hakkında bildiklerini kamuoyuyla paylaşmadı.
Jüri üyeleri, Meta’nın çalışanları tarafından yürütülen yönetici e-postaları, sunumlar ve iç araştırmalar da dahil olmak üzere milyonlarca kurumsal belgeyi değerlendirmek zorunda kaldı. Belgeler arasında, Instagram’da istenmeyen cinsel tacize maruz kalan genç kullanıcıların endişe verici bir yüzdesini gösteren iç anketler de yer alıyordu . Ayrıca, Meta’nın sonunda durdurduğu, Facebook kullanımını azaltan kişilerin daha az depresif ve kaygılı hale geldiğini ima eden bir araştırma da vardı .
Davacı avukatları, iddialarını desteklemek için yalnızca şirket içi araştırmalara dayanmadılar, ancak bu çalışmalar Meta’nın iddia edilen suçluluğu hakkındaki pozisyonlarını güçlendirmeye yardımcı oldu. Meta’nın savunma ekipleri ise bazı araştırmaların eski, bağlamından koparılmış ve yanıltıcı olduğunu, şirketin nasıl faaliyet gösterdiği ve güvenliğe nasıl baktığı konusunda kusurlu bir görüş sunduğunu savundu.
‘Hikayenin her iki tarafı’
Boland, “Jüri, olayın her iki tarafını da dinleme ve gerçeklerin oldukça adil bir şekilde sunulmasını izleme fırsatı buldu ve gördüklerine dayanarak bir karar verdi,” dedi. “Ve çok farklı davalara bakan her iki jüri de net kararlarla geri döndü.”
Meta ve Google’ın
Los Angeles’taki davada sanık olarak yer alan YouTube da karara itiraz edeceğini açıkladı.
New Mexico davasında şirket içi uzman danışman olarak görev yapan psikolog ve avukat Lisa Strohman, Meta’daki ve teknoloji sektöründeki liderlerin, kamuoyunun beğenisini kazanmak için şirket içi araştırmaları kendi avantajlarına kullanabileceklerini düşünmüş olabileceklerini söyledi.
Strohman, “Bence onların fark edemediği şey, araştırmacıların da ebeveyn ve aile üyeleri olduğuydu,” dedi. “Ve bence anlamadıkları bir diğer şey de bu insanların satın alınamayacaklarıydı.”
Yöneticilerin beklediği halkla ilişkiler başarısı, araştırma sonuçları kamuoyuna sızmaya başlayınca ters tepti. Meta için en büyük zarar 2021′de yaşandı; eski bir Facebook ürün yöneticisi olan ve daha sonra ihbarcıya dönüşen Haugen, şirketin ürünlerinin potansiyel zararlarının farkında olduğunu gösteren bir dizi belgeyi sızdırdı .
Kar amacı gütmeyen Çocuklar ve Ekranlar: Dijital Medya ve Çocuk Gelişimi Enstitüsü’nün araştırma ve program direktörü Kate Blocker, Haugen’in açıklamalarının “sadece şirketler için değil, araştırmacılar, politika yapıcılar ve daha geniş kamuoyu için de küresel ölçekte önemli bir dönüm noktası” olduğunu söyledi.
Sızıntılar ayrıca Meta’da ve teknoloji sektöründe büyük değişikliklere yol açtı; şirketler için verimsiz olarak görülebilecek araştırmalar elenmeye başlandı. CNBC’nin daha önce bildirdiğine göre , iddia edilen zararları ve ilgili sorunları inceleyen birçok ekip kapatıldı .
Bazı şirketler, üçüncü taraf araştırmacıların platformlarını incelemek için kullandığı bazı araçları ve özellikleri hizmetlerinden kaldırmaya başladı.
Blocker, ”Şirketler devam eden araştırmaları artık bir yükümlülük olarak görebilir, ancak bağımsız, üçüncü taraf araştırmalarına destek verilmeye devam edilmelidir” dedi.
Teknoloji Gözetim Projesi’nin genel müdürü Sacha Haworth, bu haftaki duruşmalarda kullanılan iç araştırmaların çoğunun yeni bilgiler içermediğini ve belgelerin çoğunun zaten diğer ihbarcılar tarafından yayınlandığını söyledi. Haworth, duruşmaların eklediği şeyin, gerekli bağlamı sağlayan “e-postalar, kelimeler, ekran görüntüleri, iç pazarlama sunumları ve notlar” olduğunu belirtti.
Teknoloji sektörü yapay zekâya agresif bir şekilde yönelirken, Meta, OpenAI ve Google gibi şirketler araştırma ve güvenlikten ziyade ürün geliştirmeye öncelik veriyor . Bu durum, Blocker’ı endişelendiriyor ve şöyle diyor: “Tıpkı daha önce sosyal medyada olduğu gibi, yapay zekâ şirketlerinin ürünleri hakkında neler araştırdığı konusunda kamuoyunun bilgisi sınırlı.”
Blocker, “Yapay zeka şirketleri çoğunlukla modellerin kendilerini – model davranışı, model yorumlanabilirliği ve uyumu – inceliyor gibi görünüyor, ancak sohbet robotlarının ve dijital asistanların çocuk gelişimi üzerindeki etkisine ilişkin araştırmalarda önemli bir boşluk var” dedi. “Yapay zeka şirketlerinin geçmişteki hataları tekrarlamama şansı var – bu şirketlerin platformları hakkında bildiklerini kamuoyuyla paylaşan ve daha fazla bağımsız değerlendirmeyi destekleyen şeffaflık ve erişim sistemleri kurmamız acilen gerekiyor.”
Bu içerik, ilgili kaynaktan yararlanılarak Türkçeye uyarlanmış ve özgün hale getirilmiştir. ( Kaynak )