Video violenti. Facebook assume 3.000 revisori in carne ed ossa
I robot ci stanno rubando il lavoro? Per ora sembra proprio di no. Anzi, più il rapporto con la tecnologia si fa stretto e complicato più le aziende di tecnologia hanno bisogno dell’intervento umano. Nel corso del prossimo anno Facebook assumerà (non è chiaro se direttamente o attraverso una terza part) 3.000 «revisori» in tutto […]
I robot ci stanno rubando il lavoro? Per ora sembra proprio di no. Anzi, più il rapporto con la tecnologia si fa stretto e complicato più le aziende di tecnologia hanno bisogno dell’intervento umano. Nel corso del prossimo anno Facebook assumerà (non è chiaro se direttamente o attraverso una terza part) 3.000 «revisori» in tutto il mondo per (provare a) evitare la pubblicazione di video e post violenti o sconvenienti. «Abbiamo visto persone fare del male a se stessi e ad altri, sia in diretta sia in video postati successivamente. È straziante», ha scritto Mark Zuckerberg. Il riferimento è ai tanti fatti di cronaca che hanno scatenato polemiche: il giorno di Pasqua i video dell’omicida di Cleveland sono rimasti online per due ore e mezza. Il 25 aprile è andata in onda l’impiccagione di una bambina di appena 11 mesi. Due filmati, girati a Phuket, trasmessi per 24 ore e visti da 112.000 e 258.000 persone. Due giorni dopo un 49enne dell’Alabama si è sparato in diretta. In 1.000e hanno seguito la scena. Il controllo degli algoritmi non basta: si accorgono della presenza di alcuni parametri, come la pelle nuda o elementi che rimandano a contenuti legati al terrorismo, e possono attingere a database di file già contrassegnati per impedire nuovi caricamenti. Ma per filmati come quelli sopracitati c’è poco da fare. Potrebbero benissimo essere scene di un videogioco o innocui scherzi, se a vigilare c’è soltanto un occhio tecnologico. Ecco perché Facebook, in attesa di godere dei progressi dell’intelligenza artificiale, si affida a persone in carne e ossa. Attualmente sono 4.500: raccolgono le segnalazioni degli utenti – che finora non si sono dimostrate molto tempestive e andrebbero forse incoraggiate con una maggior rilevanza grafica – e dialogano con le autorità. Nel caso di Phuket, ad esempio, è stata proprio la polizia locale ad avvisare il social di quanto era andato online. Del nostro Paese si occupa un gruppo di madrelingua italiani situato a Dublino. Così facendo Facebook, è bene ricordarlo, verifica soltanto il rispetto delle sue linee guida. Poi decide se intervenire, soprassedere o aspettare l’eventuale ordine di un giudice. (Corriere della Sera)