Francesca Pasquali, al Rotary Club Crema, sviluppa un’interessante relazione su “La società delle piattaforme e la datificazione della vita quotidiana”

Francesca Pasquali, al Rotary Club Crema, sviluppa un’interessante relazione su “La società delle piattaforme e la datificazione della vita quotidiana”
“La società delle piattaforme e la datificazione della vita quotidiana” è stato il tema affrontato con lucidità e competenza davvero notevoli, nel contesto di una conviviale online del Rotary Club Crema, da Francesca Pasquali, Professore ordinario di sociologia dei processi culturali e comunicativi presso l’Università degli Studi di Bergamo, oltre che, incidentalmente, figlia di Cesare, illustre socio del Club.
Francesca – che si occupa, da tempo, di studiare le trasformazioni dei media tradizionali in media digitali e di analizzare come i media tradizionali, prima, e molto di più quelli digitali, oggi, entrano in relazione con i processi della nostra vita quotidiana – ha sottolineato come tale situazione sia, ormai, sotto gli occhi di tutti. L’esperienza del Covid ci ha insegnato quanto noi dipendiamo dai mezzi di comunicazione, non solo per informarci, ma anche per condurre la nostra quotidianità; la cui improvvisa trasformazione – imposta dalla crisi pandemica – è avvenuta, in larga parte, grazie alle tecnologie digital. ‘Piattaforme’ e ‘dati’ sono parole entrate almeno da dieci anni nel dibattito pubblico, da due (gli anni del Covid) nel senso comune.
Ricorrendo a una metafora, possiamo affermare che la piattaforma è un’architettura digitale programmabile, progettata per organizzare interazioni tra piattaforme diverse, tra utenti, tra utenti e servizi, tra utenti e contenuti. Non è solo una tecnologia ma ha dentro di sé dimensioni economiche, organizzative, normative, politiche e, come ogni architettura, anche le piattaforme modellano le interazioni. La letteratura distingue le piattaforme in due tipologie:  – le piattaforme infrastruttura, che sono, per esempio, i motori di ricerca, quelle che si occupano di servizi di localizzazione, di cloud, che stanno sotto a tutte le altre; – le piattaforme di servizio, che usiamo quotidianamente per acquistare prodotti, per servirci di un food delivery, per fare un viaggio: si appoggiano sulle piattaforme infrastruttura e intermediano servizi offerti da altri, costruendo tutto un mercato.
Le ‘big five’, vale a dire le cinque più importanti piattaforme infrastruttura dell’ecosistema occidentale sono Google, Amazon, Microsoft, Apple, Meta (ex Facebook), cui si affianca o si contrappone tutto l’ecosistema cinese, costituito da altre grandi piattaforme. Le piattaforme son tutte interconnesse e interfacciate tra di loro e possono scambiarsi i dati attraverso quelle interconnessioni che tecnicamente vengono chiamate api. I dati non vengono solo raccolti ma anche trattati, organizzati, trasformati in contenuti e interazioni tra le piattaforme stesse, tra i soggetti di cui le piattaforme intermediano i servizi, tra noi e le piattaforme, tra noi e altri soggetti che sono sulle piattaforme; vengono trasformati attraverso gli algoritmi – che non sono altro che istruzioni automatizzate di trattamento di questi dati – e restituiti agli utenti. Questo atto di restituzione non è un atto neutro; è un atto che modellizza, plasma le nostre interazioni con le piattaforme, ci guida a fare alcune cose e non altre, ci fa vedere alcuni contenuti e non altri. Tutto questo sistema si struttura in modelli di organizzazione economica e viene gestito tramite lo strumento di accordo tra privati che sono le condizioni di utilizzo. Un aspetto, questo, importante se si pensa che spesso contenuti che appartengono anche alla sfera pubblica vengono tolti facendo appello alle norme di utilizzo: eclatante è stata, in tal senso, la depiattaformizzazione di alcuni esponenti politici, avvenuta in seguito alle elezioni americane, non sulla base di un giudizio di valore relativo alla qualità del dibattito pubblico ma facendo riferimento alla violazione delle condizioni di utilizzo delle piattaforme stesse.
In ogni caso, le piattaforme raccolgono e generano dati, riferiti a contenuti, a utenti, a relazioni; dati che vengono costantemente messi a lavorare e che costantemente generano valore; il valore su cui si basano le piattaforme è dato, in primo luogo, dalla nostra presenza, in seconda battuta, dalla nostra azione sulle piattaforme stesse, un’azione che genera la cosiddetta economia dell’attenzione, banalmente tutto il mercato pubblicitario iper personalizzato che, tramite l’elaborazione dei dati in tempo reale, si viene a costruire, o un altro mercato di dati, originato dallo scambio dei dati che le piattaforme generano. A livello macro sociale si parla sempre di più di capitalismo della sorveglianza o di capitalismo informazionale, per definire questo tipo di scenario. Venendo al nostro quotidiano, noi sempre di più diamo i nostri dati, ma questo è il primo livello della questione.
Il processo di datificazione del quotidiano ha al suo cuore la trasformazione del nostro quotidiano in dati. Ciò che facciamo, le nostre abitudini, i nostri gusti, quello che compriamo o non compriamo, come impieghiamo il tempo libero, se usiamo un’app, le nostre relazioni e interazioni, le nostre emozioni, se mettiamo un like… tutto viene trasformato in dati e quantificato. Le piattaforme sono bravissime in questo, anzi sono progettate per farci fare tutto ciò, si parla di una sorta di ‘ingiunzione alla partecipazione’. Siamo costantemente sollecitati a interagire tra di noi e con gli altri, con i contenuti delle piattaforme, perché con le interazioni generiamo dati e questi dati generano valore, profilazioni per la pubblicità, sono la benzina di tutta questa architettura. Il processo di relazione tra il nostro quotidiano e i dati è, quindi, non solo un processo di raccolta ma anche e soprattutto di trasformazione di ciò che noi facciamo in un dato. Le conseguenze sono essenzialmente due:
– la prima conseguenza è data dal fatto che ci troviamo in una situazione in cui abbiamo dei doppi virtuali; ciò si vede bene in relazione alle zone liminari della vita: si pensi al tema della sopravvivenza digitale di coloro che non ci sono più (l’after life); o al tema dell’infanzia, vale a dire dei bambini che hanno già identità digitali complesse, per via di genitori che mettono i Loro dati online, o per il fatto che stanno in ambienti saturi di tecnologie di raccolta dati, interagiscono con giocattoli smart, con oggetti intelligenti di funzione comune che sono tutte macchine di raccolta dati, funzionali a modellizzare in profili di utenza ciascuno di noi. Può apparire uno scenario un po’ fantascientifico ma quando Mark Zuckerberg, nell’operazione di rebranding di Facebook – che ora si chiama Meta -, propone l’idea del metaverso, ovvero ci offre l’idea di un futuro in cui la nostra interazione con le piattaforme avverrà in un ambiente di realtà virtuale, o di realtà aumentata, in cui ci muoveremo con degli avatar, non sta disegnando uno scenario così fantascientifico, sta solo dando corpo sensibile, per quanto smaterializzato, a ciò che di fatto c’è già. Il Suo scenario – su cui ha scommesso – è quello di costruire un sistema di interazione tra utenti in cui tutte le diverse piattaforme che noi usiamo vengono attivate e vissute tramite tecnologie inversive e tramite l’interazione di nostri doppi virtuali, fatti di dati, con una forma sensibile, ricostruibile a nostro piacimento, il tutto in ambienti virtuali. Si pensi ai video games, per esempio, che hanno dei connotati di metaverso e non sono un fenomeno di nicchia, anzi sono vissuti da milioni di persone che stanno dentro ambienti virtuali e interagiscono tramite avatar in questi ambienti;
– la seconda conseguenza è quella che i dati non solo tracciano ma modellizzano; attraverso i dati vengono costruiti dei profili di chi noi siamo e questi profili vengono usati per modellare il contesto che ci sta intorno: abbiamo una storia di acquisto, ci vengono fatte proposte di acquisto di un determinato tipo.
Questo significa che viene portata nella nostra quotidianità la logica predittiva, che appartiene al modo in cui i dati e gli algoritmi lavorano. Per esempio, quando accediamo a Netflix, a seconda del profilo con cui entriamo, abbiamo un’interfaccia diversa, perché il sistema legge la nostra storia d’uso, i nostri dati, li compara con quelli degli altri e, tramite, per così dire, ‘algoritmi di suggerimento’ Ti dice: ‘Ti è piaciuta questa cosa? Ti potrebbe piacere anche quest’altra’. In sostanza, viene configurata una nostra possibilità di scelta, di azione futura, da parte del sistema, che mette nel nostro presente una dimensione predittiva. Stessa cosa, in modo differente, succede quando usiamo un navigatore. Anche qui la logica predittiva entra nel nostro quotidiano, nel nostro presente. Stiamo seguendo un certo itinerario, il sistema ci informa rispetto al fatto che quella strada è trafficata, ha magari in atto un cantiere e ci indica un altro percorso. In qualche modo, prefigura il nostro futuro e, nel presente, ci ricostruisce possibilità di azioni diverse e nuove. La dimensione predittiva, per altro, è tipicamente umana: non è che noi non lavoriamo per ipotesi, nel nostro quotidiano! Il problema è che queste ipotesi vengono portate nel nostro presente, in questo caso, non da noi, ma da un sistema che per noi è opaco, che sta dietro e le configura. È la piattaforma che modellizza il nostro ambiente di interazione, che ci fa vedere alcune cose e non altre. Ciò risalta particolarmente nell’ambito dell’informazione: in un ambiente ricchissimo di informazione sembra che tornino sempre le stesse informazioni: è il prodotto degli algoritmi di selezione che generano l’effetto paradossale di riduzione della complessità.
La dimensione predittiva e di modellizzazione è presente anche nell’applicazione dell’analisi automatizzata dei dati della nostra modellizzazione e profilazione in relazione a molteplici servizi: la concessione di un prestito, un servizio assicurativo, tutte le applicazioni di queste tecnologie – connesse con l’intelligenza artificiale e i sistemi esperti – all’ambito della sicurezza; è tutto un lavoro effettuato sui nostri dati, in modo invisibile e opaco. Per non parlare delle tecnologie di riconoscimento facciale, che lavorano sulla raccolta e comparazione di dati, finalizzate a riconoscere emozioni e stati d’animo, deducendo dal volto persino una propensione alla violenza (siamo alla datificazione delle emozioni): hanno una possibile applicazione sempre nell’ambito della sicurezza.
Qui la domanda diventa:: questa logica predittiva degli algoritmi, portata nel nostro quotidiano, come entra in relazione con la nostra ‘agency’, con il nostro spazio di azione, di libertà e con quello degli altri su di noi? In questa dimensione di modellizzazione c’è una dimensione di predeterminazione; online facciamo cose anche perché i sistemi ce le fanno fare; c’è una componente manipolativa molto giocata sulla dimensione emotiva. Il motore che fa girare molte cose sono le nostre emozioni. Tutto ciò che ha a che fare, per esempio, con la sfera dell’esercizio dell’influenza online, che si incarna nelle figure degli influencers, ha come collante la capacità di rimanere in sintonia di queste persone, lavorando all’interno del mercato delle emozioni, con i Loro followers; i Loro seguaci, i Loro utenti diventano, a quel punto, il capitale che Loro danno ai brand per generare valore.
È tutto giocato sulla capacità di mantenere viva la dimensione patemica. Si apre, inoltre, anche un grande problema che riguarda il tema del trascinamento di pre comprensioni che diventano automatizzate e invisibili. Lo si vede nell‘applicazione in materia di selezione del personale; è noto che una grande azienda del settore tecnologico è stata sanzionata perché il sistema, sulla base della storia di reclutamento, assumeva, come ingegneri, solo uomini, perché in passato c’erano meno donne ingegneri e l’intelligenza artificiale applicata al recruiting, con i suoi automatismi, si basava sullo storico. Oppure pensiamo alle distorsioni che potrebbero portare software di riconoscimento facciale. C’è poi il grande tema di come viene prodotto tutto questo sistema, perché questo sistema non si genera da solo, non è mai colpa degli algoritmi ma al limite di scrive gli algoritmi; c’è un problema di regolamentazione, perché tutto questo avviene in larga misura in un contesto deregolamentato o in un contesto complesso in cui ci sono pezzi di regolamentazione diversi che non sempre possono essere fatti valere (pensiamo al contesto europeo e a quello nord americano, due contesti molto diversi).
E c’è, infine, un grandissimo tema di responsabilità individuale, perché è evidente che tutto questo sistema sta in piedi perché noi continuiamo ad alimentarlo; capire, quindi, come lo alimentiamo, ponendoci a volte qualche limite, potrebbe essere interessante e utile. Fermo restando che la definizione di “On life” descrive perfettamente la condizione ibrida in cui ormai siamo inevitabilmente inseriti, a cavallo tra la dimensione reale e quella virtuale.
(Visited 15 times, 2 visits today)