REINCANTAMENTO. Episodio 4. Il destino dell’algoritmo.

Gli episodi precedenti di REINCANTAMENTO sono disponibili qui, qui, qui e qui.

Bentornati al vostro angolo preferito di riflessioni (non) sulla tecnologia.

In questa quarta puntata finalmente completiamo l’esposizione dell’originario retroterra teorico da cui nasce l’esigenza di questa rubrica. Come già spiegato nella puntata 0, il progetto di REINCANTAMENTO fiorisce dalla congiuntura totalmente personale tra i lavori di Campagna e quelli di Bernard Stiegler: le loro riflessioni forniscono il grund della nostra scapigliata ricerca. Una ricerca presuppone per sua definizione una transitorietà, un movimento, verso qualcosa. Dalle tesi dei due filosofi, ci sposteremo allora — già da questo episodio ma soprattutto dal prossimo — verso il mondo materiale cercando di applicare dei tool filosofici alla tecno-politica di oggi.

Torniamo ancora per un momento alla nostra teoria, che anche oggi prevede pretenziosi termini greci. Nei suoi lavori, Bernard Stiegler si occupa principalmente degli effetti che le tecnologie informatiche e comunicative hanno sull’umanità, esplorando le prospettive aperte dalla società digitale. Per definire i dispositivi digitali, Il filosofo utilizza il termine greco hypomnemata (ὑπομνήματα). La traiettoria dell’idea di hypomnemata è simile a quella compiuta dall’idea di farmakov, discusso nella scorsa puntata: un concetto originario dell’antichità greco-romana viene ripreso dalla teoria post-strutturalista francese — in questo caso attraverso Michel Foucault — per approdare alle riflessioni contemporanee di Stiegler.

Ma cosa sono gli hypomnemata? Nell’antica Grecia, gli hypomnemata erano libri contabili, registri pubblici, taccuini individuali utilizzati per annotare considerazioni personali e ricordi, fungendo così da memorandum. Tra le classi colte si usavano come guide di comportamento, in cui si inserivano citazioni, frammenti di opere, esempi, azioni di cui si era stati testimoni o di cui si era letto il racconto.

In questa tecnologia di scrittura, si compie la prima esternalizzazione della memoria umana: gli hypomnemata costituivano una memoria materiale delle cose lette, ascoltate o pensate, offrendo così questi come un tesoro accumulato per la rilettura e la successiva meditazione. Tali dispositivi — per Foucault — permettono lo sviluppo di una scrittura del sé, un processo di soggettivazione e di sviluppo dell’individuo, determinato dal supporto tecnologico. Spiegava Foucault in un’intervista:

«Ora, infatti, l’hypomnemata ha un significato molto preciso. È un quaderno, un taccuino. Proprio questo tipo di taccuino stava entrando in auge ai tempi di Platone per uso personale e amministrativo. Questa nuova tecnologia era tanto sconvolgente quanto l’introduzione del computer nella vita privata di oggi. Mi sembra che la questione della scrittura e del sé debba essere posta in termini del quadro tecnico e materiale in cui è nata»

Scrivere invoca spettri

Stiegler espande il concetto foucaultiano ai nostri computer e ai nostri smartphone, ai lettori mp3 che hanno spopolato nel decennio scorso così come agli smartwatch degli anni ’10. L’individuazione, il processo di formazione di un individuo, avviene in relazione con l’‘ambiente che lo circonda: ambiente che comprende tutti i dispositivi di cui facciamo uso ogni giorno. In base al tipo di interazione con la macchina che si sviluppa, la tecnica assumerà un ruolo di medicina o uno di veleno. Proviamo a fare un esempio.

La memoria ‘espansa’ fornita dagli hypomnemata complica la concezione lineare della temporalità, intricando il rapporto tra passato, presente e futuro. Una riflessione di Bergson ci appare calzante: «Il nostro passato è (…) ciò che non agisce più, ma potrebbe agire, ciò che agirà inserendosi in una sensazione presente da cui trarrà vitalità. È vero che, nel momento in cui il ricordo si attualizza così, agendo, cesserà di essere ricordo, ridiventa presente». Così, la memoria esternalizzata dei dispositivi viene costantemente ri-attivata, attualizzando il passato e agendo sul presente. Un abitante di Atene, leggendo a distanza di anni un parere annotato sul suo hypomnemata, poteva (ri)scoprire tratti della sua personalità e del suo dimenticati e sfuggiti nel tempo. Allo stesso modo ma molto più intensamente, i nostri immensi archivi digitali, ricchi anche di immagini, video e musica, ci forniscono delle ricostruzioni su tutte le persone che siamo stati nel corso della nostra vita. La funzione “Accadde Oggi” di Facebook, per esempio, altro non è che una costante attivazione di ciò che sarebbe “naturalmente” dimenticato perché doloroso o, semplicemente, insignificante. Il social network di Zuckerberg esiste da più di dieci anni e per milioni di utenti rappresenta un archivio di affetti e momenti unici della propria vita: il nostro sé, la nostra psiche vengono messe profondamente in gioco da dinamiche del genere. Non è un caso che Jacques Lacan, celebre psicanalista, avesse intuito quanto la sua disciplina dovesse imparare a giocare la partita della tecnologia e degli hypomnemata: «L’avvenire della psicoanalisi dipende da ciò che avverrà di questo reale, cioè se i gadgets, per esempio, vinceranno veramente la partita, se noi stessi giungeremo ad essere veramente animati dai gadget».

I nostri ricordi manipolati

La relazione uomo — macchina è considerata da Stiegler una relazione transductiva’: si tratta di un genere di relazione in cui i due termini si influenzano a vicenda. Il termine, che proviene dal pensiero di Gilbert Simondon, evidenzia come la crescita dell’uomo sia intrinsecamente e inevitabilmente legata alle tecnologie di cui ci siamo circondati. Anche qualora ci chiudessimo in un atteggiamento di diniego e rifiuto verso le tecnologie ne rimarremmo sempre influenzati.

Prendiamo il caso delle cosiddette filter bubbles. Gli algoritmi di personalizzazione dei contenuti governano i contenuti a cui accediamo tramite le piattaforme digitali. I consigli degli acquisti di Amazon, i video correlati su Youtube, le amicizie consigliate di Facebook: si tratta di contenuti pensati appositamente per noi, in base ad enormi quantità di dati precedentemente raccolti. Quelle che sembrano scelte dettate dal libero arbitrio di ciascuno di noi nascondono in realtà l’influenza delle architetture tecnologiche con cui stiamo interagendo. Non possiamo spiegare qui il complesso procedimento attraverso cui questo avviene: a dir la verità, molti aspetti rimangono ancora oscuri rendendo gli algoritmi delle vere e proprie black box da analizzare. Cerchiamo però di capirne almeno in breve i pericoli.

Il ricercatore dell’Università di Torino Urbano Reviglio si occupa proprio delle criticità che questi meccanismi pongono in essere. Come nota in un recente articolo:

«[…] La personalizzazione dei contenuti dei media può limitare la diversità delle informazioni, dall’esposizione alla scoperta. […] Il rischio maggiore è la creazione di “bolle informative”: a livello individuale, filter bubbles (Pariser, 2011) e, a livello di gruppo, echo chambers (Sunstein, 2017)».

Il caso del NewsFeed di Facebook è paradigmatico:

«Allo stesso modo, sotto l’egida del mantenimento delle relazioni con i propri ‘amici’, il “NewsFeed” di Facebook è moderato principalmente dall’omofilia, o similitudine per affinità (DeVito, 2017). L’eccesso di omofilia, tuttavia, contribuisce a diffondere la disinformazione, che spesso si traduce in cluster omogenei e polarizzati che ripetono contenuti emotivamente carichi ed esternamente divisori (Deibert, 2019; Sunstein, 2017). In altre parole, la crescente polarizzazione sociale e politica è in realtà parte del modello di business delle piattaforme di social media attualmente dominanti. Alla fine, la maggior parte degli utenti consuma contenuti personalizzati progettati per esigenze individuali implicite come l’edonismo, il sensazionalismo e la sottile auto-propaganda».

Reviglio mette bene in luce come le conseguenze di fenomeni del genere non siano solamente individuali ma si presentino soprattutto a livello collettivo e sociale. Gli algoritmi articolano una scrittura del sé su dimensioni mai viste prima e solamente immaginabili da Foucault. La questione degli hypomnemata non riguarda solo il destino della psicanalisi, come prevedeva Lacan, ma della nostra società. Il potere delle compagnie private che posseggono le piattaforme e i loro algoritmi è duplice: da una parte, esso è economico, in quanto realizza un valore e una conseguente ricchezza dal possesso e dall’utilizzo dei dati. D’altra parte, esso è una vera e propria forma di governo e di sovranità rispetto a molti aspetti della vita degli users che abitano questi spazi digitali.

Antoinette Rouvroy, ennesima pensatrice francese citata in questa rubrica, ha chiamato questo potere esplicitamente governamentalità algoritmica. Il “governo attraverso i dati” si basa su strategie di profilazione e classificazione degli utenti che sono estremamente precise. Gli algoritmi prevengono così linee di condotta indesiderate, articolano le possibilità future soltanto attraverso i dati raccolti nel passato e limitando il più possibile l’emergenza di comportamenti nuovi o imprevisti. Ritorna l’eco della metafisica Tecnica da cui siamo partiti. Il mondo pensato dalla Tecnica e dagli algoritmi è prevedibile e non accetta novità, che entrano così nel campo dell’ineffabile e dell’impossibile. Ogni individuo viene chiuso in una bolla elaborata secondo i gusti e i comportamenti che egli ha già espresso — di nuovo il passato e il futuro si complicano. Egli deve esprimere sempre sé stesso per come si è già espresso, la propria singolarità ridotta ai dati accumulati e alle predizioni possibili.

Le ITC portano ad un aumento effettivo delle comunicazioni solamente al prezzo di un incremento costante dell’eco, che ci fa leggere, vedere e sentire ciò che è stato previsto per noi. L’algoritmo ci categorizza e incasella secondo i nostri comportamenti, attraverso un comportamentismo a livello microfisico. In questo modo, i sistemi di scrittura algoritmici producono letteralmente i propri users in un sottile gioco di indirizzamenti che preserva la parvenza della libertà e della scelta. Questa produzione non ha altri fini però se non la massimizzazione del profitto delle aziende proprietarie. Per essere chiari, la governamentalità algoritmica non è che un prodotto della forma mentis neoliberale: cosa sviluppa il giudizio algoritmico se non la competizione, la gara per emergere come diversi, la cura minuziosa dei propri profili per poter affermare una soggettività più unica e più valorizzabile? L’illusione è pensare di avere un microfono e una platea, quando in realtà siamo solo produttori di rumori in un caos generalizzato, dal quale vengono estratti informazioni e profitto senza che nessuno alzi un dito.

Interazione uomo — macchina, ante litteram

Google o Facebook — al netto di alcune sostanziali differenze — occupano il lato “tossico” del phàrmakon tecnologico: eppure, ciò non esclude la costruzione di alternative animate da valori differenti. Stiegler parla di “bêtise” del pharmakon, la stupidità che anima la tecnica allo stato attuale e che porta alla disgregazione del mondo: non può che essere un sintomo di stupidità un tale utilizzo di risorse e di potenza computazionali (Google svolge trilioni di predizioni ogni giorno) che abbia come unico fine l’aumento della quotazione in borsa. Si arriva così a un generale stato di indifferenza: le macchine pensano mentre noi ci adeguiamo a un non-pensiero sedato e algoritmicamente orientato e tutto avviene mentre il mondo va a fuoco, proprio quando il più grande sforzo di pensiero della nostra epoca sarebbe richiesto.

Stupidità, tristezza, dipendenza: gli effetti delle nostre tecnologie sono coseguenze del loro design. Infatti la natura farmacologica e mnemonica della tecnologia si esprime in maniera diversa a seconda di come questa tecnologia è stata progettata. In sostanza, le scelte tecniche e di stile non sono mai solo questo ma nascondono conseguenze etiche, politiche e psicologiche. Come (forse) ricorderete, Federico Campagna paragonava la creazione di un sistema di realtà (metafisica) all’opera del designer, soprattutto a quei designer che nel mondo dei videogiochi si dedicano ad un lavoro di worldbuilding. Nuove scelte di design sono allora necessarie per progettare il nuovo mondo. Le nostre tecnologie non sono nate per un destino specifico o perché unico oggetto possibile ma sono frutto di determinate scelte a più livelli. Tuttavia, esse hanno talmente plasmato il nostro mondo da determinare come lo vediamo: in questo senso, esiste una metafisica Tecnica, un worldsystem globalizzante che sembra immutabile. Ma, lo dicevamo nell’ episodio 1, non esiste nulla di necessario se non la contingenza. Abbracciare la contingenza significa diventare i designer del mondo a venire. Come? Le risposte le troveremo, forse, in Olanda. A presto.

Digital Humanist, wannabe tech critician, working for re-enchanting the world

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store