Dünyanın en büyük sosyal ağında tüm içeriklerin kontrolü nasıl sağlanıyor?
Konuyu detaylandırmadan önce Facebook ile ilgili rakalmlara bi göz atalım.
- Aylık 1.35 milyar aktif kullanıcı
- Günlük 4.5 milyar ‘like’
- Günlük 864 milyon aktif kullanıcı
- Her saniyede 5 yeni profil oluşturuluyor.
- Günlük 4.75 milyar post paylaşılıyor.
- Günde 300 milyon fotoğraf yükleniyor.
- Her dakikada: 510 yorum, 293.000 durum güncellemesi ve 136.000 görsel yükleniyor.
Facebook’un bu denli yoğun aksiyonu kontrol etmesi tahmin ettiğiniz gibi imkansıza yakın. Fakat Facebook, sosyal ağın daha güvenli olması için 24 dilde içerik yöneten yaklaşık 800 – 1000 kişiyi istihdam ediyor. Amerika’da yeni mezunlar genellikle bu pozisyonu seçiyor. Onun dışında içerik işlerinin çoğu Hindistan ve Filipinler’e outsource ediliyor.
Facebook’ta en çok silinen ve düzeltilen içerikler:
- Uygunsuz cinsel içerikler. Çıplaklık gibi.
- Tehlikeli görsel içerikler. İntihar, kafa kesme ve cinayet gibi.
- Yasal olmayan aktiviteler. Uyuşturucu, aile içi şiddet gibi.
Facebook’ta raporlama süreci de şu adımlardan oluşuyor:
- Kullanıcı ilk olarak gördüğü içeriği şikayet et veya raporla diyor.
- İçeriğin hangi kategoride olduğunu belirtiyor.
- Bu raporlar kategorize edilip içerik düzenlemecilere gönderiliyor. Kategoriler aşağıdaki gibi sıralanabilir:
- Güvenlik: görsel şiddet.
- Nefret ve taciz: nefret söylemi.
- Erişim: hacker ve aldatıcı konular.
- Uygunsuz içerik: Müstechen paylaşımlar.
- Daha sonra içerik yöneticiler bu içeriğin toplum standartlarını ihlal edip etmediğine bakıyor. Raporlar genellikle 72 saat içerisinde denetiliyor.
- İçerik düzenleyicilerin bunu cevaplamak için 3 seçenekleri bulunuyor:
- Sil: Postu göndereni uyar veya hesabı sil.
- Görmezden gel.
- Üst makama yönlendir: bu içerikler California’daki takıma yönlendiriliyor.
İnternet’te doğası gereği çok kötü içerikle karşılaşabiliyoruz. Sosyal medya da bundan nasibini alıyor.