YouTube utilizza "Raters" per misurare "Contenuti borderline" per i divieti dell'Ombra

YouTube Shadow Bans (Immagine copyright tramite Recode)

Sapevamo che YouTube ha introdotto algoritmi a gennaio di 2019 per ridurre le raccomandazioni di contenuti "estremisti" o "borderline". Bene, in occasione di un recente evento Code, che si svolgeva nello stesso periodo di E3, abbiamo appreso un po 'di più sulla funzione di raccomandazione di YouTube e su come proibirà il "contenuto borderline".

Durante una sessione di domande e risposte, Kevin Roose, un editorialista tecnologico che ha scritto un pezzo di successo contro YouTube per il New York Times, ha chiesto all'amministratore delegato di YouTube Susan Wojcicki se la piattaforma stesse avendo un effetto "radicalizzante" sul modo in cui le persone interagiscono con i contenuti. Wojcicki ha parlato completamente della questione, ma ha offerto alcune informazioni sul modo in cui i filtri di divieto ombra funzionano per i consigli, che è stato evidenziato in un tweet di Josh Pescatore.

Se non riesci a visualizzare il video, Wojcicki espone i loro filtri di raccomandazione per "contenuto borderline" parlando di "valutatori" per come viene misurato il contenuto, dicendo ...

"Offriamo - come sai e hai studiato - una vasta gamma di opinioni. E abbiamo esaminato tutte queste diverse aree in modo trasversale e vediamo che stiamo offrendo una varietà di opinioni. Quindi quando le persone vanno e cercano un argomento - che si tratti di politica, religione o lavoro a maglia - offriremo una varietà di altri contenuti ad esso associati.

 

"Ma abbiamo preso molto sul serio questi problemi di radicalizzazione, ed è per questo che all'inizio di gennaio abbiamo introdotto alcuni nuovi cambiamenti in termini di trattamento dei consigli. So che ti sono familiari; li hai referenziati. Ma quello che facciamo - solo per [un po '] background per gli altri - è che fondamentalmente abbiamo una comprensione di cosa è il contenuto che è borderline. Quando quel contenuto è borderline, determiniamo quello basato su una serie di diversi intervistatori che escludono che sono rappresentativi di persone diverse negli Stati Uniti e quando stabiliamo che siamo in grado di costruire un insieme di ciò che è considerato contenuto borderline e quindi ridurre i nostri consigli.

 

"Quindi abbiamo ridotto di 50% le raccomandazioni che stiamo facendo del contenuto borderline. E stiamo progettando di distribuirlo a tutti i paesi - a 20 più paesi - questo resto dell'anno ".

Ora se vuoi vedere l'intervista completa puoi farlo Il canale YouTube di Recode dove hanno il segmento completo 41.

Ma per abbattere la parte importante dell'esposizione su questo argomento, dobbiamo tornare indietro sull'incertezza e il recupero di Wocjicki quando ha menzionato per la prima volta "interviste", ma l'ho cambiata in "valutatori".

Quindi se prendiamo, prima fazione, ciò che è stato menzionato per la prima volta prima di affrontare ciò che è stato menzionato in seguito, sembrerebbe che YouTube stia misurando i contenuti in base alle interviste che hanno con determinate persone - presumibilmente diversi dati demografici - negli Stati Uniti, per vedere e valutare se determinati tipi di contenuti siano effettivamente o meno "Contenuto borderline".

Qualunque sia la risposta dell'intervistato, la risposta è probabile come procede YouTube.

Tuttavia, quando guardiamo la situazione dal punto di vista di YouTube usando "raters" - o persone che valutano il contenuto - allora si sviluppa una prospettiva leggermente diversa su come la funzione di raccomandazione viene mostrata agli utenti. Ratti in particolare sembra indicare le persone che visualizzano e valutano i contenuti su YouTube e quindi in base a ciò l'algoritmo determina se il contenuto ritenuto "borderline" vale la pena di raccomandare.

In entrambi i casi, si tratta di una situazione in cui il contenuto è al di fuori del motore di ricerca organico che consiglia i video in base a ciò che ti piace (o a chi ti abboni) e invece a prendere decisioni basate su preferenze o determinazioni ideologiche fatte dai "valutatori" di YouTube.

Più in particolare, ciò significa che il contenuto che viene valutato "borderline" dai valutatori viene eliminato dai feed delle raccomandazioni. A sua volta, ciò significa che il contenuto che in genere appare nella barra consigliata non viene visualizzato lì, quindi un senso di censura o ciò che chiamiamo un soft shadow ban.

YouTuber Rabbia nerd armata ha fatto un breve video che esamina l'impatto di questa nuova funzionalità su potenziali visualizzazioni e acquisizioni degli utenti.

In questo momento è difficile avere una misura adeguata su quanto questo sia di impatto su certi canali.

YouTube non era molto disponibile riguardo ai canali esatti colpiti da questa nuova funzione, e finora ha dato tutti gli altri cambiamenti che ha reso le persone si sono concentrati principalmente sul tentativo di stabilizzare i loro canali invece di preoccuparsi di un nuovo tipo di tecnica di soppressione.

Ciò non significa che ogni YouTuber che non era una fonte media mainstream è stato influenzato negativamente dal focus di YouTube sul proprio algoritmo "autorevole", che ha visto la piattaforma dare maggior risalto e promozione ai media e alle corporazioni mainstream tramite la scheda trending, come rivelato in un rapporto dettagliato di Coffee Break.

Gli utenti di YouTube hanno anche dovuto occuparsi di VoxAdPocalypse in corso, il che ha portato a un numero di canali completamente demonetizzati o terminati.

Immagino che mentre il divieto delle ombre per la funzione consigliata continui a diffondersi in più regioni del mondo, saremo in grado di valutare meglio il suo impatto su vari canali e in che modo influenzerà la loro scoperta di video attraverso la piattaforma.

(Grazie per il suggerimento Weaponized Nerd Rage)

Lascia un Commento

L'indirizzo email non verrà pubblicato.