Offese e diffamazione via social: parole come pietre
I più recenti sondaggi confermano la crescita sul web di parole violente e messaggi denigratori, fonte di odio, diffamazione e cyberbullismo. Porvi un argine è una priorità, ma anche un compito arduo.
A partire da un corrente fenomeno di polarizzazione/estremizzazione delle opinioni che di certo non aiuta né un dibattito costruttivo né l’interscambio culturale, troppo spesso si assiste sui social network a veri e propri attacchi ad personam, invettive a gruppi di contrapposta fede politica o religiosa, insulti a personaggi pubblici, disabili, omosessuali, immigrati e intere categorie sociali, addirittura post ingiuriosi contro enti e istituzioni: in pratica non si salva nessuno.
Peraltro, chi nasconde censurabili comportamenti dietro lo schermo di un computer non è confinabile in un contesto di riferimento non avendo limiti di età, di livello di istruzione o di condizioni economiche.
E che alla base vi sia una voglia di trasgressione, semplice emulazione o delirio di protagonismo e di visibilità a tutti i costi, nulla può giustificare una tendenza in apparenza irrefrenabile che, in nome di una libertà di espressione invocata pretestuosamente, vuole dare un senso alle più svariate forme di malcostume, disumanità e illiceità, arrivando a calpestare le più elementari regole della convivenza.
Dunque il richiamo alla libertà di critica o alla libertà di dissenso - che sempre e comunque devono essere salvaguardate – non può valere come attenuante (e benché mai come scusa) per continuare a tollerare la circolazione di appellativi degradanti e offese gratuite, la diffusione di fake news, l’illecito trattamento di dati personali, ecc. integranti condotte antigiuridiche passibili di azioni legali di risarcimento dei danni o di sanzioni penali, per non citare le situazioni che finiscono con il portare a gesti estremi i soggetti più fragili.
Purtroppo, al momento resta pressoché impunita per vari motivi la stragrande maggioranza degli spargitori di odio via web, anche grazie al fatto che statisticamente circa il 70% degli utenti di internet sta oramai cominciando ad assumere un atteggiamento passivo di rassegnazione, non di rado percependo parole inaccettabili come la conseguenza inevitabile di una nuova modalità di comunicazione.
Le disposizioni di legge in Italia, sia pure sulla carta, prevedono il riconoscimento dei diritti delle persone offese e la punizione dei trasgressori (tra i reati più diffusi: diffamazione, art. 595 del codice penale; violazione del Codice della Privacy, artt. dal 167 al 172 GDPR; minaccia, art. 612 del codice penale; ingiuria, depenalizzata ma pur sempre configurabile come illecito sul piano civilistico); quanto alla giurisprudenza di merito, essa ha escluso che si possa sic et simpliciter imporre ai provider l’onere di controllare i contenuti caricati online dagli utenti in quanto in contrasto con il diritto alla libera manifestazione del pensiero (sentenza 29/2015 – Corte d’Appello di Milano), per cui da un punto di vista strettamente legale l’obbligo giuridico di bloccare l’accesso ai contenuti illegali per il gestore di una piattaforma nasce solo nel momento in cui viene a “conoscenza” della illiceità, non prima.
Con riferimento ai modi di acquisizione della predetta conoscenza, è previsto che le iniziative del provider volte a precludere l’accesso a determinati contenuti siano ritenute “legittime” per espressa "richiesta di rimozione" del titolare dei diritti lesi (la qual cosa espone comunque il provider ad azioni risarcitorie qualora tale richiesta di rimozione si riveli infondata), oppure su provvedimento di un’Autorità giudiziaria o amministrativa. Qualora invece il provider si renda conto “spontaneamente” della illiceità di alcuni contenuti, ha l’obbligo giuridico di darne informazione all’Autorità giudiziaria o amministrativa, atteso che il suo eventuale mancato adempimento lo renderebbe responsabile in sede civile.
Nel suo complesso, allo stato attuale si registra la carenza di strumenti pervasivi per la concreta applicazione delle sanzioni se si considera che, a fronte delle tante querele inoltrate nelle procure per questa categoria di illeciti, i procedimenti vengono chiusi con una valanga di archiviazioni che potrebbero quasi essere definite “di massa” (talora motivate in maniera a dir poco “superficiale” o incomprensibile), cosicché un trend di diffusa impunità sta prendendo il sopravvento in tribunali sempre più intasati dal lavoro arretrato e dalla incapacità del nostro sistema giudiziario di perseguire fattivamente i colpevoli.
Nella vita reale l’entità del fenomeno della violenza nella comunicazione sui social ha assunto proporzioni difficilmente controllabili, al punto che è impensabile di poter istruire nelle Cancellerie dei tribunali un fascicolo per ciascun caso; del resto la velocità con cui si sono evoluti i rapporti tra le persone per effetto dell’avvento dell’era digitale non è stata accompagnata da altrettanta rapidità dell’attività di previsione legislativa.
I provider - soprattutto i gestori di piattaforme social – comprensibilmente si oppongono a che venga loro attribuita una responsabilità civile extracontrattuale ex art. 2043 c.c. per le violazioni di legge commesse dai fruitori dei loro servizi, nonostante sia innegabile che, senza l’intermediazione dei provider medesimi, i comportamenti illeciti di cui si disquisisce non potrebbero essere messi in atto.
Da parte sua, la Corte di Giustizia dell’Unione europea nelle sentenze emesse a partire dal 2010 ha condiviso l’assunto sulla “irresponsabilità” del provider purché “mantenga una posizione effettivamente neutrale rispetto ai comportamenti degli utenti”; in quest’ottica si pone il problema dell’interpretazione del concetto di “neutralità” del provider: la posizione a suo discarico potrebbe essere esclusa nel momento in cui gli si possano attribuire l’organizzazione, il controllo e l’ottimizzazione dei dati a fini commerciali (cosiddetto user data profiting); con diversa prospettiva, “anche nel caso in cui un provider svolga attività di indicizzazione, organizzazione, e gestione dei video caricati da suoi utenti, non significa che esso debba essere automaticamente qualificato come “non neutrale”, poiché tali attività non sono idonee a manipolare, alterare o comunque a incidere sui contenuti ospitati (Tribunale di Torino, sentenza n. 1928/2017, Delta Tv c. YouTube)”.
Sotto altro profilo, la Corte ha stabilito che “obbligare il provider ad un sistema di filtraggio preventivo dei contenuti caricati dagli utenti” costituirebbe una grave lesione dei diritti fondamentali di questi ultimi, come il diritto di “tutela dei dati personali” e quello “di ricevere o di comunicare informazioni”.
Sul versante delle vittime la Cedu, Convenzione Europea per i Diritti dell’Uomo, ha sancito all’art. 8 la tutela del “Diritto alla Privacy” di ogni individuo, posto che questa è comprensiva del diritto alla reputazione. Di rimando, la Corte europea ha obbligato gli Stati Membri ad emanare leggi che diano reale attuazione a questa tutela.
Che sia la volta buona? Il dibattito sulle tematiche illustrate resta aperto.
Mirella Elisa Scotellaro