Home Pop & Life

La diretta Facebook che mostra un suicidio ma che “rispetta gli standard della comunità”

Il 31 agosto Ronnie McNutt si è suicidato in diretta su Facebook: il social è sotto accusa per non aver rimosso subito il video nonostante le segnalazioni, con il risultato che adesso gira un po' ovunque sui social

Uno screenshot dal video. Foto via Twitter

Joshua Steen non è rimasto per niente sorpreso quando, il 31 agosto, ha visto la notifiche che gli diceva che il suo amico Ronnie McNutt, 33 anni, aveva iniziato un Facebook Live. “Usava spesso le live come forma di terapia”, ha raccontato Steen a Rolling Stone parlando del suo amico, che aveva conosciuto a un corso di teatro locale durante le prove per Footloose e con cui aveva fatto un podcast. “Faceva live su qualsiasi social e parlava e basta. Gli piaceva parlare. Gli piaceva discutere con le persone di teologia, cultura pop e cose da nerd. Gli piacevano gli scambi”.

Ma gli ci erano voluti solo pochi secondi per realizzare che questa volta la live era diversa. McNutt sembrava ubriaco o fatto, e davvero giù per essersi di recente lasciato con la sua ragazza (anche se non aveva perso il lavora, come invece avrebbero riportato i giornali dopo i fatti). Veterano della guerra in Iraq, McNutt soffriva da tempo di disturbo da stress post-traumatico e di depressione, e sotto lo streaming c’erano centianaia di commenti di persone che gli consigliavano di farsi aiutare. A un certo punto, durante la diretta, era sembrato che sparasse un colpo di fucile in aria.

Steen e alcuni altri amici di McNutt avevano contattato la polizia. Stando a screenshot forniti da Steen a Rolling Stone, lui aveva anche segnalato subito il livestream a Facebook, alle 10 di sera, perché mostrava un atto di autolesionismo, ma non aveva ricevuto risposta dal social fino alle 11.51. Facebook si era rifiutato di cancellare il livestream perché non violava i termini del servizio del social.

A quel punto, McNutt era già morto da più di un’ora. Si era tolto la vita in diretta, di fronte ad amici e familiari, Steen compreso. In più, Steen afferma che Facebook non ha rimosso il video se non molte ore dopo la morte di McNutt. In una dichiarazione rilasciata a Rolling Stone, Facebook ha commentato così i fatti: “Abbiamo rimosso il video originale da Facebook il mese scorso nello stesso giorno in cui è stato pubblicato e da quel momento abbiamo utilizzato un algoritmo per rimuovere eventuali copie ricaricate. I nostri pensieri vanno alla famiglia e agli amicid di Ronnie in questi momenti difficili”.

Dopo la morte di McNutt, il video è diventato virale: moltissimi utenti l’hanno ripostato su diversi social, tra cui Twitter e TikTok. Steen afferma che sua moglie l’ha visto inserito in un video la cui anteprima mostrava dei cuccioli, e nei cui commenti c’erano dei genitori che si lamentavano del fatto che fosse stato fatto vedere con l’inganno ai loro figli. Dato che i “per te” di TikTok mandano video in autoplay, molti utenti non hanno nemmeno realizzato cosa stessero guardando finché non è stato troppo tardi, portando molti di loro ad avvertire gli altri della presenza di quel video sulla app o a smettere di usarla per un po’.

“I nostri sistemi riconoscono in automatico questi video che violano le nostre policy contro i contenuti che mostrano, celerbano, glorificano o promuovono il suicidio”, ha detto TikTok in una dichiarazione uffiicale. “Stiamo rimuovendo il contenuto e bannando gli account che provano ripetutamente a caricarlo, e apprezziamo il contributo dei membri della comunità che hanno segnalato il video e che hanno avvertito altri utenti di non guardarlo, commentarlo o condividerlo per rispetto della persona coinvolta e della sua famiglia”.

Il grosso della rabbia di Steen è diretta contro Facebook per essersi rifiutato di cancellare il video quando McNutt era ancora vivo, come ha fatto invece in passato per altri casi del genere. Gli sforzi degli amici e dei familiari di McNutt per far rimuovere il video dai social hanno portato alla nascita dell’hashtag #ReformForRonnie. “Se si fossero comportati nel modo corretto e avessero cancellato il livestream quando l’abbiamo segnalato, non penso che si sarebbe ucciso”, afferma Steen. “Avrebbero spostato la sua attenzione su quella cosa e credo che sarebbe stato un fattore cruciale nel cambiare la situazione”.

Steen afferma anche che continua a veder girare il video in gruppi privati e persino nei commenti sotto l’ultimo post sulla pagina Facebook di McNutt. In uno screenshot ottenuto da Rolling Stone, Facebook ah risposto a una persona che segnalava un link al video in questione dicendo che “non va contro gli standard della comunità” (anche se gli standard della comunità di Facebook proibiscono espressamente i contenuti che “incoraggiano al suicidio o all’autolesionismo”. 

Non è la prima volta che Facebook si trova sotto scrutinio per non essere stato in grado di moderare efficacemente i contenuti violenti sulla piattaforma. Il sito è stato criticato in passato per non essere riuscito a rimuovere il famoso live streaming dell’attentato di Christchurch nel 2019: poco dopo aveva annunciato che avrebbe utilizzato tecnologie di machine learning per rilevare la presenza di armi da fuoco nei video in diretta – come nel video di McNutt, in cui c’era un fucile. 

Anche Instagram, che è di proprietà di Facebook, è stato criticato quando una foto che mostrava il cadavere della 17enne Bianca Devins è diventata virale, con account troll che postavano l’immagine sulle pagine Instagram e Facebook dei suoi cari. Anche Instagram ha avuto grosse difficoltà a contenere la diffusione di queste foto, anche se in una dichiarazione rilasciata a Rolling Stone all’epoca dei fatti un portavoce del social aveva detto di aver “preso iniziative per prevenire altri utenti dal ricaricare il contenuto postato dall’account Instagram in questione”. Facebook è stato anche criticato molto per il modo estremamente zelante in cui fa rispettare certe policy – ad esempio quelle contro la nudità – rispetto al suo lassismo quando si tratta di violenza. “Se una donna posta una foto in topless, l’algoritmo la rileva subito, la rimuove e banna l’account”, afferma Steen. “A quanto pare una tetta è più offensiva del video in cui il mio amico si suicida”. 

Questo articolo è apparso originariamente su Rolling Stone USA