Araştırmacılar, Facebook’tan gelen tepkinin ardından Instagram çalışmasını kapattı | Engadget

Instagram’ın opak algoritmalarının nasıl çalıştığını araştıran bir grup araştırmacı olan AlgorithmWatch, Facebook’un kendilerine karşı yasal işlem başlatmayı planladığı endişeleri nedeniyle kısa süre önce çalışmalarını durdurmak zorunda kaldıklarını söylüyor. The Verge tarafından tespit edilen bir gönderide AlgorithmWatch, şirketin kendisini Instagram’ın hizmet şartlarını ihlal etmekle suçladığını ve proje sorunu “çözmezse” “daha resmi bir katılım” alacağını söyledi.

AlgorithmWatch’ın araştırması, 1.500’den fazla kişinin indirdiği bir tarayıcı eklentisi etrafında toplandı. Araç, ekibin, Instagram’ın belirli fotoğraflara ve videolara diğerlerine göre nasıl öncelik verdiği hakkında bazı çıkarımlar yapmasına olanak tanıdığını söylediği bilgileri toplamasına yardımcı oldu.

En önemlisi, ekip, platformun insanları cilt göstermeye teşvik ettiğini buldu. AlgorithmWatch, bulgularını yayınlamadan önce yorum yapmak için Facebook’a ulaştığını, yalnızca şirketin başlangıçta yanıt vermemesini söyledi. Ancak Mayıs 2020’de Facebook, yılın başlarında AlgorithmWatch’in kullandığı metodolojiyle ilgili sorunların bir listesini bulduğunu söyledikten sonra araştırmacılara çalışmalarının “birkaç yönden kusurlu” olduğunu söyledi.

Facebook AlgorithmWatch’i hizmet şartlarını ihlal etmekle suçlayan şirket, kurallarının otomatik veri toplamayı yasaklayan bir bölümüne işaret etti.

AlgorithmWatch, “Yalnızca Facebook’un eklentiyi yükleyen gönüllülere gösterdiği içerikle ilgili verileri topladık” dedi. “Başka bir deyişle, eklentinin kullanıcıları yalnızca kendi özet akışlarına erişiyor ve araştırma amacıyla bizimle paylaşıyor.” Facebook’un GDPR ile ilgili iddialarına gelince, grup, “Açık kaynaklı kaynak koduna üstünkörü bir bakış, bu tür verilerin sunucumuza gelir gelmez hemen silindiğini gösteriyor” dedi.

Buna rağmen. Yanlış bir şey yapmadıklarına inanarak, araştırmacılar sonunda projeyi durdurmaya karar verdiler. “Nihayetinde, AlgorithmWatch büyüklüğünde bir kuruluş, değeri bir trilyon dolar olan bir şirkete karşı mahkemeye çıkma riskini alamaz” dediler.

Engadget durumla ilgili yorum yapmak için Facebook’a ulaştığında, şirket bunu reddetti. araştırmacıları dava etmekle tehdit etmişti. Söylediklerinin tam metni şöyle:

Platformumuzla ilgili bağımsız araştırmalara inanıyoruz ve AlgorithmWatch dahil olmak üzere birçok grubun bunu yapmasına izin vermek için çok çalıştık – ancak kimsenin mahremiyeti pahasına değil . Uygulamalarıyla ilgili endişelerimiz vardı, bu nedenle, benzer endişeleri tespit ettiğimizde diğer araştırma gruplarıyla rutin olarak yaptığımız gibi, şartlarımıza uymaları ve araştırmalarına devam edebilmeleri için onlarla birçok kez iletişime geçtik.

Bu mektubu imzalayanlar şeffaflığa inanıyor – biz de öyle. Veri kümeleri ve API’lere erişim ve sistemlerimizin nasıl çalıştığını ve platformumuzda gördüğünüzü neden gördüğünüzü açıklayan yakın zamanda yayınlanan bilgiler dahil olmak üzere önemli konuların çalışılmasını sağlamak için yüzlerce araştırma grubuyla işbirliği yapıyoruz. Bağımsız araştırmacılarla çalışmaya devam etmeyi amaçlıyoruz, ancak bu, insanların verilerini veya gizliliğini riske atmayacak şekilde.

AlgorithmWatch ile ilgili bu bölüm, Facebook’un bu ayın başlarında adı verilen bir projeye karşı yaptığı eylemlerle endişe verici paralellikler içeriyor. Siyasi reklamverenlerin reklamlarını nasıl hedeflediklerini inceleyen NYU Ad Observatory. Facebook, araştırmacılara çalışmalarında yardımcı olmak için bazı araçlara sahiptir, ancak çoğunlukla platformları, Cambridge Analytica skandalının serpilmesinden bu yana bir kara kutu olmuştur. AlgorithmWatch’ın işaret ettiği gibi bu önemli bir sorun.

“Büyük platformlar, kimlik oluşturmadan oy seçimlerine kadar toplumda çok büyük ve büyük ölçüde bilinmeyen bir rol oynuyor” dedi. “Yalnızca kamusal alanımızın algoritmik seçimlerinden nasıl etkilendiğini anlarsak, bunların bireylerin özerkliğine, özgürlüğüne ve kolektif iyiliğe zarar vermemesini sağlayacak önlemler alabiliriz.”

.

Bir cevap yazın