Rivoluzioni invisibili si stano abbattendo sull’essere umano, sulla società e su una nuova umanità. Non esserne consapevoli produce l’altissimo rischio di trovarci pedine vittime di manipolazioni o dei nostri bias cognitivi. Da una parte la tecnologia e la cultura digitale avanzano a passi esponenziali con trasformazioni vertiginose e dall’altra parte la neuroscienza con le sue scoperte potrebbero rendere ogni giorno più consapevole ogni essere umano dell’impatto del funzionamento del nostro cervello.

La classificazione dei dati è sempre più sofisticata, la mole delle informazioni sempre più ampia (big data) e queste vanno custoditi in caveau digitali, in server e cloud da proteggere da incursioni, da pirati, da aziende commerciali, da chi vuole minare la sicurezza nazionale, ottenere vantaggi economici e manipolare le nostre vite imponendo modifiche agli scenari politici, economici e sociali intorno a noi. Le nostre azioni, le nostre foto, i nostri video, le nostre emozioni, le nostre scelte sono dati che addestrano l’intelligenza artificiale, come ha dimostrato lo scandalo di Cambridge Analytica.

A nostra insaputa siamo stati suddivisi in precisi profili psicologici mentre tecniche ingegneristiche di marketing, psicologia e intelligenza artificiale sono state usate con successo per condizionare il voto. Le inserzioni personalizzate dedicate ai differenti profili psicologici dei cittadini collegati in rete hanno agito con campagne aggressive e scioccanti sulle specifiche paure, debolezze e desideri di ogni cittadino per scatenare cambi di processi decisionali, spostando gli indecisi e votare con certezza matematica per uno specifico fronte. E ciò accade tutti i giorni per i nostri acquisti.

Sembra fantascienza ma tutto ciò ha avuto impatto nelle elezioni di Trump alle presidenziali del 2016 e per il referendum inglese pro Brexit con effetti dirompenti per l’Europa, l’Inghilterra, Stati Uniti e gli equilibri continentali. Sebbene il garante della privacy dell’Ue, Giovanni Buttarelli, abbia definito la vicenda come “il possibile scandalo del secolo”, nessuno ha subito conseguenze penali.

L’azienda è fallita, il Garante della privacy italiano nel 2019 multa Facebook per 1 milione di euro per le informazioni rubate a 214.077 utenti, ma il pericolo resta invariato.

Cediamo i nostri dati per garantirci una maggior qualità della vita e migliorare le performance dei nostri obiettivi ma le aziende li usano per massimizzare i loro profitti e gli Stati per un controllo sociale come raccontano gli eventi degli ultimi anni negli Stati Uniti, Inghilterra e Cina.

Nella ricerca Cultura 2030, commissionata dal M5S, si ricorda che la crescita del tempo libero che dedichiamo all’intrattenimento, garantirà più dati in pasto alle intelligenze artificiali, che possono continuare a scannerizzare le tendenze sociali. Appare chiaro, quindi, che le violazioni della privacy, i rischi manipolatori e di controllo sempre più sofisticati hanno necessità di un continuo intervento delle istituzioni pubbliche per anticipare i reati e le violazioni future, con misure penali da una parte e fiscali dall’altra, sempre più dure e puntuali.

Può l’attuale assetto istituzionale rispondere alla sfida di velocità e futuro con adeguata indipendenza o la sua azione andrebbe rafforzata dal punto di vista costituzionale con nuovi organi competenti capaci di azione legislativa tempestiva? Il problema è solo la classe politica e sociale incapace di analizzare i fenomeni moderni e porsi le domande giuste?

Certo, la strada nella società e dell’istruzione di massa resta quella di continuare a interrogarsi sul futuro, a promuovere lo sviluppo del pensiero critico e la consapevolezza delle falle cognitive del nostro cervello per non cadere nelle trappole che ormai la scienza conosce e l’intelligenza artificiale modella ancor prima che gli scienziati abbiano consolidato una propria teoria in merito.

Articolo Precedente

Vitalizi, ex parlamentari ora scrivono anche a Mattarella: “Intervenga, la Camera da 2 anni e mezzo non emette sentenza sui 1.400 ricorsi”

next