I l problema si è acuito all’indomani dell’assalto al Congresso americano il 6 gennaio 2021, su istigazione del presidente uscente, Trump. In seguito a quelle violenze, Twitter ha bloccato l’account di Trump, privandolo del principale canale di comunicazione con i suoi follower. Se molte persone hanno plaudito alla decisione e l’hanno addirittura ritenuta tardiva, altre sono rimaste colpite dall’enorme potere accumulato da Twitter. Nei giorni successivi al divieto, il presidente Trump è stato a tutti gli effetti imbavagliato. I conservatori hanno immediatamente biasimato la decisione – e le azioni intraprese in parallelo da Facebook, Google e Amazon che non sono tardate ad arrivare – e l’hanno definita «censura». Inoltre, se la decisione di Twitter può essere approvata come risposta di breve termine al rischio di incitamento alla violenza, i conservatori che criticano tale misura sollevano interrogativi legittimi su quanto pericoloso sia il potere delle piattaforme. Da un punto di vista giuridico, l’accusa di censura cade nel vuoto. Nel diritto americano il divieto di censura del primo emendamento si applica solo alle azioni del governo; l’emendamento tutela il diritto dei privati, come Twitter e Facebook, di pubblicare i contenuti che essi vogliono. Inoltre le piattaforme online sono protette da determinate forme di responsabilità dalla Sezione 230 del Communications Decency Act del 1996. Tuttavia il problema che ci troviamo ad affrontare oggi è quello della dimensione di tali piattaforme, che sono talmente vaste da costituire una “pubblica piazza” dove i cittadini si trovano a dibattere. Esistono già numerose imprese private che selezionano l’informazione che pubblicano. Ma nessuno dei media tradizionali è dominante quanto Twitter, Facebook e Google né attrae tante persone quanto loro. La dimensione delle piattaforme Internet è imponente abbastanza perché le decisioni prese dai loro proprietari possano influire sui risultati delle elezioni, e i media classici non possono rivaleggiare con essa. L’altro grosso problema delle grandi piattaforme Internet riguarda la loro trasparenza. Se Twitter ha annunciato pubblicamente che avrebbe vietato l’accesso al presidente Trump, Facebook, Google e Twitter prendono ogni giorno migliaia di decisioni sulla selezione dei contenuti. La stragrande maggioranza di quelli non ammessi non suscita controversie, com’è il caso dell’incitamento al terrorismo, della pedopornografia o dei complotti apertamente criminali. Ma le decisioni di segnalare o cancellare certi post sono più contestabili o semplicemente erronee; in particolare da quando, in occasione della pandemia di Covid-19, le piattaforme si sono sempre più fondate su sistemi di intelligenza artificiale (Ia) per modellare i contenuti. Una questione ancora più fondamentale riguarda non tanto i contenuti che le piattaforme dei social network cancellano, ma quelli che pubblicano. Del gran numero di messaggi postati su Twitter o Facebook, i contenuti che vediamo sui nostri flussi sono selezionati da complessi algoritmi d’Ia concepiti non per proteggere i valori democratici, ma per massimizzare le entrate dell’azienda. Non è dunque sorprendente che sia stato rinfacciato alle piattaforme di diffondere teorie complottiste, calunnie o altre forme nocive di contenuti virali: si vendono bene. Gli utenti non sanno perché vedono quello che vedono sui loro flussi, o che non vedono, poiché le decisioni vengono prese da un programma d’Ia invisibile. [...] Tenuto conto dell’insufficienza di altri approcci, vale la pena esaminare il rimedio alternativo che il gruppo di lavoro dell’Università di Stanford sulla dimensione delle piattaforme ha chiamato middleware. Si tratta di un software dal quale passano altri software, e che agisce sul modo in cui gli utenti interagiscono con i dati veicolati dalla piattaforma. Un software di mediazione ben concepito potrebbe, ad esempio, filtrare il contenuto della piattaforma, non solo per marcare un contenuto, ma per cancellare elementi ritenuti falsi o ingannevoli oppure per certificare l’esattezza di fonti particolari di dati. Questo software di mediazione potrebbe assumere il controllo di tutta l’interfaccia dell’utente di Facebook o Google, relegando le piattaforme allo status di chi si accontenta di proporre dati bruti, come fanno le compagnie telefoniche. O al contrario potrebbe operare delicatamente, segnalando un contenuto, ma senza toccare le decisioni di selezione dei contenuti prese dalle piattaforme. Questo assomiglierebbe alle misure già adottate da Twitter per marcare certi tipi di contenuti, ritenuti ingannatori, tra cui le informazioni sulle elezioni all’avvicinarsi del voto americano del novembre 2020, ma consentirebbe agli utenti di scegliere entro un vasto menù di opzioni di segnalazione del contenuto. Esistono servizi terzi, quali NewsGuard, che si appoggiano ai navigatori per offrire agli utenti valutazioni della credibilità delle fonti d’informazione che incontrano. Il software di mediazione potrebbe svolgere una funzione simile appoggiandosi direttamente alle piattaforme dei social network. Potrebbe inoltre cambiare in maniera più sostanziale il rapporto fra utenti e piattaforme. Il software di mediazione potrebbe ridurre il potere delle piattaforme, sottraendo loro la possibilità di selezionare i contenuti e subappaltando questa funzione a una grande varietà di aziende competitive che fornirebbero filtri adattati agli utenti. Andando su Facebook o su Google, si potrebbero scegliere i fornitori di software di mediazione che consentano di controllare i nostri flussi o le nostre ricerche, così come oggi si può scegliere tra i browser. Al posto di un algoritmo sconosciuto, concepito dalla piattaforma, si potrebbe decidere di utilizzare un filtro fornito da un consorzio di università, non a scopo di lucro, che garantisca l’affidabilità delle fonti di dati o che mostri solo prodotti fabbricati negli Stati Uniti oppure ecologici. Una delle probabili obiezioni al concetto di software di mediazione è che non farà che rafforzare le “bolle di filtri” già esistenti sulle piattaforme. Gli ideologi della destra alternativa (l’estrema destra) e i teorici del complotto potrebbero costruire filtri propri, scartando le opinioni contrarie e conducendo a una ulteriore frammentazione dello spazio politico. Ma, come ho già osservato sopra, l’obiettivo della politica non dovrebbe essere quello di eliminare i contenuti pericolosi. Nella misura in cui essi non richiamano alla violenza, sono protetti dalla Costituzione. In ogni caso, sarà difficilissimo eliminare tecnologicamente quel tipo di contenuti. Dopo l’attacco al Campidoglio del 6 gennaio 2021, alcuni estremisti hanno cominciato a migrare verso la nuova piattaforma Parler (che si vanta di avere un approccio minimalista alla moderazione) e poi, poiché Parler è stato temporaneamente non raggiungibile dopo essere stato abbandonato da Amazon che l’ospitava, verso servizi di messaggeria criptata come Telegram o Signal. Anche se può non piacere, gli hate speech e le teorie del complotto sono incrostati nella società e il software di mediazione non basterà a eliminarli. Non sarebbe in ogni caso un obiettivo accettabile in una società che conferisce importanza alla libertà di parola. D’altra parte, un software di mediazione potrebbe diluire considerevolmente il potere delle piattaforme di amplificare le opinioni estremiste e di normalizzarle. Si può ragionare per analogia con una malattia infettiva: invece di incoraggiare le persone infette a mescolarsi alla società, dobbiamo cercare di isolarle in spazi condivisi con altre persone infette. Le forze del mercato non produrranno spontaneamente software di mediazione. Se la domanda di questo genere di servizi esiste, non c’è un modello economico chiaro in grado di renderli praticabili oggi. È possibile che i proprietari delle piattaforme siano felici di essere sollevati dalla responsabilità di prendere decisioni politiche controverse, moderando i loro contenuti; lo stesso fondatore di Twitter, Jack Dorsey, recentemente ha suggerito di «dare a più persone la scelta degli algoritmi di selezione che usano». E ha aggiunto: «Si può immaginare un approccio degli algoritmi più focalizzato sul mercato». D’altra parte, a Big tech non piacerà perdere controllo mediante un software di mediazione. Ciò significa che la creazione di un settore di software di mediazione dinamico e competitivo dipenderà dalla regolamentazione pubblica sia per stabilire le regole dell’interfaccia di programmazione di applicazioni (Api) con le quali le aziende si appoggeranno alle piattaforme, sia per instaurare obblighi di condivisione della cifra d’affari per assicurare ai fornitori di software di mediazione un modello economico praticabile. Tutti questi argomenti devono essere affrontati in maniera approfondita nel momento in cui riflettiamo sulle conseguenze della crisi politica davanti alla quale ci siamo trovati. Sempre più persone si rendono conto che la tecnologia moderna ha creato una specie di mostro, un sistema di comunicazioni che bypassa le istituzioni che un tempo costituivano l’autorità, usavano la struttura del discorso democratico e offrivano alla riflessione dei cittadini una base comune di conoscenze fattuali. Le imprese private responsabili di tale risultato sono oggi tra le più grandi del mondo. Possiedono non solo un’immensa fortuna che possono impiegare per proteggere i loro interessi, ma anche una forma di controllo sui canali di comunicazione che facilitano la politica democratica. Beneficiano di economie di scala inerenti ai sistemi in rete e non è facile impedire loro di ingrandirsi ulteriormente. La pandemia di Covid-19 che ha colpito il mondo nel 2020 ha considerevolmente accresciuto il loro potere e la loro importanza. Finora le grandi piattaforme non hanno ritenuto loro interesse manipolare deliberatamente i risultati politici ed elettorali. Tuttavia i loro interessi commerciali le hanno spinte a privilegiare certe forme di contenuti virali che sono assai spesso falsi, cospirazionisti e pericolosi per la pratica della democrazia. Il potere implicito che tali piattaforme possiedono, e che è in grado di attentare alla salute della democrazia, ci dovrebbe preoccupare. Occorre mettere in atto una politica pubblica mirante a ridurre quel potere che, altrimenti, un giorno potrebbe passare sotto il controllo di proprietari che, loro sì, potrebbero aver voglia di manipolare deliberatamente le elezioni. L’obiettivo di questa politica pubblica non dovrebbe essere il controllo della libertà di espressione. Le democrazie moderne hanno rinunciato a tale controllo quando si sono impegnate a tutelare la libertà di parola. Quello che vogliamo sono piuttosto politiche pubbliche che impediscano a certi attori privati di usare il loro potere per amplificare o sopprimere certi tipi di discorsi e che mantengano regole del gioco eque che permettano il confronto delle idee. [...] Ecco perché la riduzione del potere delle piattaforme è essenziale alla sopravvivenza della democrazia mondiale. Se gli europei hanno fatto sforzi per limitare il potere delle piattaforme, finora gli americani hanno dimostrato compiacenza di fronte al problema. Ora che c’è un consenso sull’idea che le grandi piattaforme costituiscono un pericolo per la democrazia americana, è vitale capire con precisione dove si situi tale minaccia e quali rimedi siano al tempo stesso politicamente e tecnologicamente realistici.
NEL 2012 NON CI SARA' LA FINE DEL MONDO IN SENSO APOCALITTICO,MA UN CAMBIAMENTO A LIVELLO POLITICO ED ECONOMICO/FINANZIARIO. SPERIAMO CHE QUESTA CRISI SISTEMICA ,CI FACCIA FINALMENTE APRIRE GLI OCCHI SUL "PROGRESSO MATERIALE:BEN-AVERE""ECONOMIA DI MERCATO" FIN QUI RAGGIUNTO E SPERARE IN UN ALTRETTANTO "PROGRESSO SPIRITUALE:BEN-ESSERE"ECONOMIA DEL DONO,IN MODO DA EQUILIBRARE IL TUTTO PER COMPLETARE L'ESSERE UMANO:"FELICITA' NELLA SUA COMPLETEZZA".
STUPIDA RAZZA
Iscriviti a:
Commenti sul post (Atom)
Nessun commento:
Posta un commento