MATERIALI PER PRERARSI AL TEMA NATURALE/ARTIFICIALE

 

di Gioacchino Toni

Il diffondersi dell’intelligenza artificiale sta modificando in profondità lo scenario quotidiano e lo stesso essere umano. Alle visioni di quanti si attendono enormi benefici dagli sviluppi dellIA in ambiti che vanno dalla medicina allistruzione, dalla gestione della mobilità nelle grandi città allaprirsi di un nuovo ambito di business o alla possibilità di liberare l’essere umano dalla routine del lavoro, quando non addirittura dallalienazione del lavoro tout court, fanno da contraltare le visioni di chi, pur cogliendone i potenziali benefici, si preoccupa invece dei “rischi collaterali” che il nuovo rapporto essere umano-macchina comporta a partire dalla comparsa di sofisticati ed invasivi sistemi di controllo e di indirizzo comportamentale e dalla proliferazione di armamenti sempre più autonomi fino al timore per la perdita del controllo su queste tecnologie rese capaci di emanciparsi dallessere umano.

Un ricercatore e sviluppatore dellIA ed uno scrittore di fantascienza hanno deciso di affrontare gli entusiasmi e le preoccupazioni con cui si guarda allo sviluppo e alla diffusione dell’intelligenza artificiale nella realtà quotidiana attraverso una forma letteraria ibrida ricorrendo a brevi racconti di “fiction scientifica” – sviluppati su presupposti tecnologici plausibili a scadenza di qualche decennio – seguiti da considerazioni circa le implicazioni che gli sviluppi e le applicazioni prospettati in forma creativa potrebbero avere sullumanità in un futuro lontano giusto un paio di decenni da oggi. Così è nato il volume di Kai-Fu Lee, Chen Quifan, AI 2041. Scenari dal futuro dell’intelligenza artificiale, trad. it. di Andrea Signorelli (Luiss University Press, 2023).

Kai-Fu Lee è una figura importante nellambito della ricerca, dello sviluppo e degli investimenti sull’intelligenza artificiale sia negli Stati Uniti che in Cina, ex presidente di Google China e dirigente di Microsoft, SGI, Apple e co-presidente del Consiglio per l’Intelligenza Artificiale del World Economic Forum. Chen Qiufan è invece tra i più noti e premiati scrittori cinesi di science fiction che da qualche tempo sperimenta l’uso dellIA direttamente nella composizione delle sue opere, conosciuto in Italia per l’antologia di racconti L’eterno addio (Future Fiction, 2016) e per il romanzo Marea tossica (Mondadori, 2020).

Scrive Kai-Fu Lee nellintroduzione al volume che la maggior parte delle speculazioni sullIA derivano principalmente da tre fonti: fantascienza, informazione e personalità influenti. La prima fonte tende, da tempo, a prospettare scenari distopici in cui le macchine prendono il sopravvento sugli umani. A livello mediatico a “far notizia” sono soprattutto gli errori, i guasti e gli incidenti causati da dispositivi che fanno ricorso all’intelligenza artificiale (come nel caso di auto senza pilota che travolgono pedoni) e l’uso che ne viene fatto da corporation e politici intenzionati a influenzare i comportamenti degli esseri umani attraverso attività di disinformazione, diffusione di deepfake, ecc. Circa le personalità influenti, nota Lee, spesso le loro osservazioni mancano di rigore scientifico e difficilmente si tratta di esperti di tecnologia dellintelligenza artificiale, dunque si tratta in molti casi di pareri formulati senza unadeguata conoscenza delle questioni trattate.

Da tali fonti deriverebbe dunque una visione dellIA allinsegna della cautela quando non di aperta ostilità che andrebbe, secondo Lee, controbilanciata dalla messa in luce dei lati positivi. Visto il ruolo rivestito allinterno dei colossi che investono in IA e la carica direttiva nel Consiglio per l’Intelligenza Artificiale del World Economic Forum, non sfugge come Lee non si soffermi sulle strategie di fascinazione per l’intelligenza artificiale dispiegate dai colossi tecnologici che ben conosce. Insomma, nel ritenere necessario bilanciare le perplessità e le cautele diffuse allinterno di una generica (forse troppo) opinione pubblica nei confronti dellintelligenza artificiale, appellandosi alla necesità di prendere in considerazione «il quadro generale e tutto il potenziale di questa tecnologia di cruciale importanza», Lee non insiste sul benevolo supporto dato allIA da parte di quelle corporation tecnologiche che sono anche potenti macchine-influencer.

Kai-Fu Lee sottolinea come si debba guardare ad AI 2041 non come a unopera di fantascienza, ma piuttosto di “fiction scientifica”. Chen Qiufan spiega infatti come nei suoi racconti, nel prospettare creativamente un futuro distante soltanto un paio di decenni dallattualità, si sia strettamente attenuto a quanto logica e scienza permettono realisticamente di prevedere in termini di sviluppi dellIA.

Al fine di tratteggiare le psicologie e le emotività dei personaggi collocati in tali scenari futuri sono state prese in considerazione le reazioni umane a eventi della storia passata altrettanto capaci di cambiare il mondo. Così sono stati creati dieci racconti ambientati in un futuro distante un paio di decenni dai nostri giorni che, come si trattasse di altrettanti “portali spazio-temporali”, collocano chi legge in situazioni e ambienti caratterizzati dallo sviluppo possibile di applicazioni tecnologiche di intelligenza artificiale nei più diversi settori, o mettono di fronte a questioni sociali e politiche poste dall’IA, come la perdita di lavori tradizionali, l’incremento delle diseguaglianze, i pericoli degli armamenti autonomi, il rapporto privacy/felicità ecc.

Il primo racconto, intitolato L’elefante doro, ambientato a Mumbai, ove una famiglia ha sottoscritto un programma assicurativo basato sul deep learning, palesa i rischi derivati dallaccumulo di dati da parte di unazienda e come dal ricorso allIA insieme a specifici benefici possano derivare anche indesiderati impedimenti. Gli dèi dietro le maschere segue le vicende di un videomaker nigeriano assoldato per creare un deepfake non riconoscibile in quanto tale inducendo a riflettere sugli sviluppi della computer-vision, dunque sullaccumulo ed elaborazione dei dati biometrici. Ne I passeri gemelli viene immaginato il possibile sviluppo delleducazione dellintelligenza artificiale prospettando il rapporto tra due insegnanti IA e due gemelli orfani coreani.

Amor contactless presuppone un prolungarsi della recente pandemia immaginando la presenza pervasiva di tecnologie basate sull’IA e come queste possano incidere nel bene e nel male sulle sorti dellumanità. Allinestricabilità tra reale e virtuale indotta dalluniverso ludico rimanda L’idolo che mi perseguita, mentre Il pilota santo prospetta uno Sri Lanka alla prese col passaggio da una mobilità a conduzione umana ad una a guida autonoma. Genocidio quantistico mette in scena le gesta di un scienziato informatico europeo che, per vendetta, ricorre agli sviluppi tecnologici per fini malvagi.

Il racconto Il salvatore dei posti di lavoro prospetta l’avvento di agenzie per la riqualificazione e ricollocazione di quanti hanno perso il posto di lavoro in quanto sostituiti dallIA, mentre L’isola della felicità invita a domandarsi quale ruolo potrebbe giocare l’intelligenza artificiale nella ricerca della felicità e come questa possa essere definita e quantificata. L’ultimo racconto, Sognare l’abbondanza è ambientato in unAustralia divenuta una “terra dellabbondanza” grazie allIA in cui sono state introdotte due diverse valute: una tessera per aver accesso ai beni essenziali e una valuta virtuale in cui si accumula reputazione in base ai servigi prestati alla comunità.

Con AI 2041 Kai-Fu Lee e Chen Quifan invitano a guardare al futuro non come a qualcosa di già determinato e si dicono ragionevolmente certi che gli esseri umani, indipendentemente dalle tecnologie a venire, continueranno a preservare il controllo sul loro destino. Visto però che storicamente tale opportunità di controllo lungi dallessere la medesima per tutti gli umani, vale la pena domandarsi quanto il diffondersi dellIA in un contesto retto dalle regole del profitto e dalla sostanziale diseguaglianza come l’attuale, diminuisca o incrementi la possibilità di reale autodeterminazione di tutti e tutte auspicata dagli autori.


di Gioacchino Toni

«Il punto è che non esiste una protesi cerebrale artificiale che sia intelligente; il calcolo senza significato può al massimo esprimere l’ossimoro dell’“intelligenza incosciente” […] La perdita di conoscenza e di autonomia fanno parte di un processo iniziato nel Ventunesimo secolo, nel corso del quale stiamo invertendo il rapporto gerarchico tra noi e le macchine. Oggi siamo sempre più portati a mettere in dubbio la risposta a una nostra domanda dataci da una persona, oppure quella di un assistente virtuale?» Massimo Chiariatti

«gli algoritmi sono pur sempre progettati da esseri umani, sono opachi, ossia poco trasparenti, e perseguono non solo obiettivi di efficienza, ma ancor più di profitto. Quando imparano dall’esperienza, poi, tendono a replicare i pregiudizi umani» Mauro Barberis

Nonostante si tenda a pensare all’Intelligenza Artificiale antropomorfizzandola, come se si trattasse di una macchina in grado di prendere “sue” decisioni ponderate, questa si “limita” a elaborare una mole di dati non governabile dagli esseri umani e a farlo con una velocità altrettanto al di sopra dalle loro possibilità. Per gestire le informazioni disponibili l’essere umano ha sempre teso a esternalizzare alcune funzioni del suo cervello estendendole nello spazio e nel tempo; sin dalla notte dei tempi l’umanità ha fatto ricorso a protesi tecnologiche per superare i suoi limiti fisici e cognitivi ma giunti alla digitalizzazione delle informazioni queste sono talmente aumentate che per la loro gestione si è resa necessaria una tecnologia sempre più sofisticata e performante soprattutto in termini di velocità di elaborazione.

La sempre più frenetica società della prestazione tende a vedere nella lentezza umana un limite a cui necessariamente sopperire attraverso la tecnologia ma occorre chiedersi se davvero questa lentezza debba per forza essere intesa come un limite dell’umano rispetto alla macchina o non piuttosto come un valore che lo distingue irriducibilmente da essa. Se la lentezza umana viene vista come il tempo della coscienza, della possibilità di porsi delle domande, allora la velocità di elaborazione della macchina non è per forza di cose un valore sminuente l’umano.

Anziché pensare all’intelligenza artificiale come a macchine “intelligenti” capaci di decidere al posto dell’essere umano, conviene prendere atto di come queste non siano altro che esecutrici di istruzioni e pregiudizi umani sotto forma di numeri e formule che lavorano sui dati loro forniti senza prendere in considerazione facoltà tipicamente umane come le emozioni, la responsabilità o l’immaginazione. Le macchine cosiddette intelligenti, infatti, si limitano ad “apprendere” in maniera decontestualizzata dai dati derivando da questi anche, come detto, i pregiudizi umani, dunque occorrerebbe una certa cautela nel permettere loro di prendere decisioni capaci di influire sulla nostra vita e quella del Pianeta.

Una macchina che sta imparando dai dati, si usa dire che “apprende” ma in realtà sarebbe meglio essere consapevoli che nell’elaborare dati in fin dei conti in maniera statistica questa “prende decisioni” che però non sono affatto “intelligenti”, tanto che è sempre più difficile comprendere i motivi da cui derivano particolari decisioni. Occorre inoltre tenere presente che i dati non vengono lasciati alle macchine in sé ma ai soggetti che le possiedono e che hanno precisi interessi.

È attorno a questioni di tale portata che riflette il volume di Massimo Chiariatti, Incoscienza artificiale. Come fanno le macchine a prevedere per noi (Luiss University Press, 2021), analizzando la natura dell’intelligenza artificiale e le implicazioni della sua interazione con l’essere umano.

Lo studioso ricorda come il concetto stesso di Intelligenza Artificiale – introdotto attorno alla metà degli anni Cinquanta del secolo scorso – sia sempre stato assai dibattuto all’interno della comunità scientifica; se già di per sé è difficile definire in maniera univoca il concetto di “intelligenza”, non di meno anche l’aggettivo “artificiale” crea qualche problema implicando che «a monte rispetto al lavoro delle macchine ci sono sempre operazioni umane, dunque basate sulla biologia», pertanto, suggerisce Chiariatti, sarebbe il caso di «sostituire “intelligenza”, che ha un’accezione positiva, con “incoscienza”, poiché gli algoritmi, eseguendo regole che imparano autonomamente dai dati, producono risultati senza alcuna comprensione e coscienza di ciò che stanno facendo»1.

Le macchine, anche le più sofisticate, possono certamente essere confrontate all’essere umano in termini di abilità, non certo di intelligenza se si ritiene che questa abbia a che fare con la comprensione e la coscienza di quanto si sta facendo. Ma, nota lo studioso, il sogno umano di «poter essere creatori si esplicita nel linguaggio quando si assegnano i nomi agli oggetti, come se, per esempio, il termine “apprendimento” (learning) in machine learning avesse lo stesso significato che ha per noi»2.

Nel relazionarsi con le macchine l’essere umano non ha a disposizione un vocabolario neutrale con cui descrivere i fenomeni artificiali. Se per gli umani apprendere significa «modificare perennemente la mappa neuronale del cervello, e nel caso del linguaggio, aggiungere un significato simbolico»3, per la macchina “apprendere” significa far ricorso all’inferenza statistica, «ossia prendendo dalle coppie di dati per cui la relazione dell’input e dell’output è conosciuta (es. gli animali con le strisce sono zebre). Dando continuamente in pasto alle macchine queste coppie (input e output) possiamo fare in modo che fornendo solo l’input (strisce) sia possibile ottenere dalla macchina l’output probabilmente corretto (zebre)»4Probabilmente, appunto, in quanto si tratta pur sempre di un risultato di ordine statistico derivato dalla regola appresa dalla macchina “allenandosi” sulle coppie di dati forniti.

Mancando alla macchina la capacità astrattiva necessaria nella realizzazione di un processo analitico e inferenziale diventa difficile parlare davvero di apprendimento. Se il mero apprendimento dai dati si sostituisce a una programmazione esplicita, ossia al fornire all’elaboratore tutte le istruzioni relative al lavoro che deve compire, l’essere umano finisce per perdere il controllo sulle decisioni non essendo nemmeno in grado di comprendere come queste siano state prese dalla macchina: all’aumentare della complessità del mondo e al delegare alle macchine la costruzione di modelli corrisponde l’associare l’intelligenza alla mera ottimizzazione statistica che fa a meno del porsi domande.

Quello che è certo ora è che la nostra cultura ha generato la natura delle macchine, che diventa la loro “conoscenza innata artificiale”. In altre parole, tutto quello che noi abbiamo espresso manualmente, verbalmente e in forma scritta, e che abbiamo trascritto in database, è entrato nella formazione delle macchine. […] Cosa ha ereditato la macchina? I dati, comprensivi dei nostri pregiudizi. E cosa sta imparando? A fare previsioni, al posto nostro5.

Tutto ciò, sottolinea Chiariatti, deve indurre a riflettere circa le conseguenze in una società algoritmica sia a proposito delle modalità con cui le macchine, con la loro “Incoscienza Artificiale”, giungono alle loro conclusioni/decisioni che a come rapportarsi nei loro confronti.

Si è soliti tipizzare diversi livelli di IA. Nella IA Debole, che è il livello attuale dell’evoluzione informatica, in cui l’elaboratore è dotato di competenze specifiche ma non comprende le operazioni che compie: si tratta di una IA orientata agli obiettivi, progettata per apprendere o imparare a completare compiti specifici come il riconoscimento facciale o vocale, guidare un veicolo o svolgere una ricerca in Internet. Si tratta di un sistema che può operare in maniera reattiva, senza avvalersi di un’esperienza precedente, o sfruttando una memoria di archiviazione dati, per quanto limitata, in modo da poter ricorrere a dati storici per prendere decisioni. Occorre fornirgli regole e dati in quantità per simulare processi ma non vi è alcuna riproduzione del pensiero umano. Nella IA Forte si sfruttano invece strumenti come l’apprendimento profondo (deep learning) al fine di affrontare i compiti del cosiddetto Sistema 2 (ragionamento, pianificazione, comprensione della causalità). L’obiettivo in questo caso è avvicinarsi all’intelligenza umana simulando il ragionamento causa-effetto anche se resta l’incapacità della macchina di porsi dubbi e domande circa il suo operare. L’IA Generale, invece, resta la visione per così dire fantascientifica che pretende di trasferire il contenuto del cervello umano nella macchina così che questa possa comportarsi al pari dell’umano.

Sempre più industrie manifatturiere dipendono dalle piattaforme digitali affiancando all’inevitabile uso di Internet il ricorso all’intelligenza artificiale, tanto che colossi come Predix (General Electric) e MindSphere (Siemens) si contendono il monopolio delle piattaforme industriali indispensabili anche per lo sviluppo dell’IA.

A tal proposito, nel volume di Mauro Barberis, Ecologia della rete. Come usare internet e vivere felici (Mimesis, 2021), viene evidenziato come la pandemia abbia accelerato tali processi soprattutto nell’ambito della logistica e nella diffusione dello smart working che ha assunto sempre più le sembianze del lavoro a cottimo deregolamentato a vantaggio di “padroni impersonali”.

Secondo lo studioso il punto di passaggio fra Internet e IA potrebbe essere indicato nell’Internet delle cose (Internet of things, IoT) [su Carmilla 1 e 2], cioè nel momento in cui a comunicare fra loro in wireless sono oggetti identificati da protocolli Internet. Scrive a tal proposito Barberis:

Dagli oggetti che funzionano in assenza dei padroni di casa o che si accendono da soli al loro arrivo (domotica), agli edifici e alle città intelligenti (smart), dai robot, dispositivi non necessariamente somiglianti agli umani, che svolgono gran parte delle operazioni di montaggio e assemblaggio nell’industria manifatturiera, sino alle auto senza guidatore sperimentate dalle industrie californiane, le applicazioni dell’internet delle cose sono ormai tante e così invasive da aver prodotto anche reazioni di rifiuto. In effetti, tutte queste applicazioni dell’IA presentano due somiglianze importanti e anche inquietanti. La prima è essere collegate tramite internet a un server centrale, al quale cedono dati da analizzare e poi da usare su utenti e consumatori. […] La seconda somiglianza è che il funzionamento dell’internet delle cose, e più in generale dell’IA ristretta, limitata ad applicazioni come domotica e robotica, è regolato da algoritmi: modelli matematici tramite i quali i progettisti possono non solo regolare il funzionamento di elettrodomestici o macchine industriali, ma permettere loro di imparare dell’esperienza, autonomizzandosi. Dall’internet delle cose, d’altra parte, l’uso degli algoritmi si è presto esteso ad altri settori dell’IA che coprono ormai interi settori della vita umana6.

Se da un lato il ricorso ad algoritmi permette di potenziare la razionalità umana a livello decisionale grazie a modelli matematici apparentemente imparziali che dispongono di una maggiore conoscenza dei dati, dall’altro resta il fatto che gli algoritmi sono pur sempre progettati dagli esseri umani, sono poco trasparenti, e perseguono, replicando i pregiudizi umani, esclusivamente obiettivi di efficienza e, soprattutto, di profitto. Ragionare sull’IA, sostiene Barberis, porta a domandarsi

dove stia il criterio distintivo fra l’uomo e la macchina, e se per caso questo non consista – invece che nella razionalità strumentale, replicabile da computer o algoritmi – nella sensibilità, prima animale e poi umana. Questa sensibilità non s’esaurisce negli organi di senso, riproducibili anch’essi da sensori artificiali. […] Semmai, consiste nell’empatia: la capacità di provare compassione. Oppure, sta nel dubbio che a volte ci sfiora già oggi, e che ingegneri robotici chiamano uncanny valley: quelli che ci circondano sono ancora umani, oppure loro repliche imperfette?7.

Sempre a proposito di algoritmi, Chiariatti puntalizza come questi si limitino ad analizzare

le relazioni nei dati – non i valori o il significato che rappresentano. Perciò l’algoritmo non “predice” e non “pensa”, ma si limita a costruire modelli seguendo le nostre orme. In altri termini, l’algoritmo è un meccanismo produttivo che usa i nostri dati come materia prima: scova le correlazioni ed estrae le regole. L’IA è quindi una creatrice di regole, seguendo le quali costruisce una sua rappresentazione del mondo. Ma lo fa in modo irresponsabile. Tutto il lavoro di apprendimento culmina in un risultato che ha del misterioso8.

Se di per sé nell’atto di automatizzare non si può che vedere una forma di delega, nel contesto tecnologico contemporaneo ciò comporta problematiche quanto mai inquietanti alla luce del fatto che

in rete si diffondono fatti non spiegabili scientificamente, rilanciati da macchine autonome (bot) basate su algoritmi che prevedono il comportamento umano. Definiamo fake news queste notizie prive di alcuna valenza scientifica, come facilmente possiamo verificare provando a risalire alle loro fonti. Ma come faremmo a riconoscere le fonti, se a generarle fossero macchine autonome? Questa è un’altra ragione per cui non ci possiamo fidare della conoscenza empirica su quello che accade alla macchina, non è corretto parlare di Intelligenza Artificiale, perché si tratta solo di un poderoso calcolo numerico9.

A questo si aggiunga la faciloneria che domina su social e blog, da cui non di rado si alimenta la stessa “informazione orientata” ufficiale che, più che pianificata a tavolino da qualche diabolico stratega, pare frequentemente generarsi dalla superficialità imposta dai tempi ristretti dettati dalla società della prestazione in cui i momenti di necessaria riflessione risultano nella pratica banditi [su Carmilla].

Mentre diviene impossibile comprendere come la macchina sia giunta a prendere decisioni, il business delle piattaforme online derivato proprio dal ricorso all’IA e da chi ha saputo utilizzarla in maniera profittevole, sembra avanzare in maniera inarrestabile. Sappiamo però, a volte anche per esperienza diretta, quanto le correlazioni ottenute dalle macchine possano essere del tutto casuali. Le macchine possono infatti individuare correlazioni tra fatti del tutto privi di cause comuni. La correlazione non implica causalità: una correlazione statistica, da sola, non dimostra un rapporto di causa-effetto; spiegare correlazioni richiede teorie e conoscenze approfondite del contesto sociale e culturale.

Grazie alle deleghe sempre maggiori che vi si accordano, i sistemi di IA stanno assumendo, una loro autonomia. «Quando un oggetto fa esperienza del mondo in autonomia e interagisce tramite il linguaggio, il divario che lo separa da un soggetto sta per colmarsi. La soggettivazione algoritmica non prevede più la dicotomia “noi o loro”»10. Mentre l’essere umano ricorre a un oggetto per potenziare la creatività, ora sembra proprio che l’oggetto utilizzi la creatività umana espressa nei dati in forma scritta, orale e visiva per potenziare le sue previsioni. Ed è proprio grazie alla capacità predittivia che prosperano e dominano le grandi piattaforme della Rete analizzate da Luca Balestrieri [su Carmilla].

Le piattaforme online si sono trasformate in soggetti che operano nella politica, dotati di micidiali armi economiche. Sono quasi diventati “Stati privati”, tanto grande è il loro potere. Ma come si sostentano? Con i dati, anzi, con i loro produttori. Cioè noi. Vediamo Stati che cooptano aziende per colpire altri Stati e aziende che si alleano tra loro controllando Stati interi. […] Sono entità che ricordano fortificazioni medievali e che definiamo più prosaicamente walled garden (“giardini recintati”), ossia piattaforme chiuse, ma la cui chiusura non ha lo scopo di ostacolare tanto l’accesso, quanto l’uscita […] All’interno di questi giardini non ci sono più cittadini eguali di fronte alla legge, ma sudditi che temono di essere esclusi dall’accesso alle informazioni, cosa che oggi equivale alla morte sociale. Questi muri non servono per difendersi, ma per evitare che i sudditi, i produttori di dati fuggano. I proprietari hanno già dalla loro parte milioni di persiane in giro per il mondo, evangelizzatori a titolo gratuito che professano la fede nei servizi free. Gli agognati virtual badge (come il badge blu per gli account di interesse pubblico su Twitter) sono i corrispettivi dei titoli nobiliari, perché danno sostanza a una gerarchizzazione in cui la posizione si basa sulla vittoria al gioco dei follower e sul rispetto delle regole del sistema11.

Questi “nuovi Stati”, sottolinea Chiariatti, pur essendo spersonalizzati e smaterializzati non sono affatto depoliticizzati, in quanto dotati di un potere che esercitano in tutto il mondo: «il loro non è un business model, ma uno State model, di successo e, al momento, a prova di futuro»12. Tali piattaforme potrebbero presto tentare di farsi anche banche centrali emettendo le loro forme di denaro e nel caso le loro valute globali e scalabili si sganciassero dai sistemi monetari classici, le piattaforme potrebbero davvero dirsi Stati a tutti gli effetti. Non si tratta più di cogliere la minaccia esercitata dal potere economico nei confronti della democrazia: «ora il rischio maggiore è un regime di omologazione algoritmica globale in cui i cittadini, non potendo più prendere decisioni, avranno perso il controllo sui loro dati, la loro attenzione e il loro denaro»13. Si potrà parlare in tale caso di “algocrazia”; ossia di un sistema in cui a decidere saranno gli algoritmi.

I sistemi di AI derivano buona parte dei dati di cui necessitano dagli smartphone e chi tra le grandi aziende saprà raccogliere più dati setacciando quelli di miglior qualità o produrre algoritmi più efficienti ed efficaci dominerà sulle altre e sugli individui. Si tratta di una guerra tra grandi corporation che coinvolge con le sue conseguenze gli esseri umani sin da prima di nascere, come ha spiegato fornendo esempi in quantià Veronica Barassi [su Carmilla 1 e 2].

Invocare libertà impugnando un cellulare con la preoccupazione di postare al più presto sulle piattaforme social tutta la sete di libertà posseduta tradisce l’impossibilità di liberarsi da quei graziosi walled garden di cui si continua, nei fatti, ad essere prigionieri nel timore non solo di essere altrimenti esclusi dall’accesso alle informazioni, cosa che, come detto, equivale di questi tempi alla morte sociale, ma anche dall’occasione di trasmetterne a propria volta in un contesto però, come visto, profondamente viziato. Un cortocircuito da cui è indubbiamente difficile difendersi.

Cos’è “naturale” e cosa non lo è?

Alla base di un diffuso criterio di definizione di cibi, cosmetici e molti altri prodotti, oltre che di fatti e processi, c’è una distinzione ambigua e influenzata da fattori culturali

naturale artificiale
 (Stephen Chernin/Getty Images)
0 seconds of 12 minutes, 36 secondsVolume 90%
00:00
12:36
 

Definiamo «naturali» innumerevoli fatti e cose diverse tra loro, dal parto alla morte alla luce delle lampadine, e generalmente ci capiamo sul senso della parola. L’aggettivo «naturale» è a volte utilizzato anche come sinonimo di «ovvio», «certo», volendo intendere che ciò a cui si riferisce è o dovrebbe essere nell’ordine delle cose. Come ovvia e immediata si suppone che sia la distinzione comune tra ciò che è naturale e ciò che non lo è.

Ma l’aggettivo «naturale» non definisce una classe specifica di oggetti e fenomeni accomunati da un elemento stabile e oggettivo. E la denotazione della parola «natura» tende a variare a seconda non soltanto dell’ambito del discorso e delle discussioni, ma anche della prospettiva di volta in volta presa in considerazione. Con il risultato apparentemente contraddittorio di far confluire nella definizione di «natura» significati in parte connessi a un’altra parola, «cultura», a cui è spesso contrapposta nelle scienze sociali e negli studi sul linguaggio.

PUBBLICITÀ
 

In un celebre dibattito televisivo a Eindhoven nel 1971, il filosofo francese Michel Foucault e il linguista statunitense Noam Chomsky, due dei più citati e influenti pensatori del Novecento, dialogarono sul tema della «natura umana» provando a individuare tratti distintivi invariabili e non soggetti a mutamenti storici che differenzino gli esseri umani dagli animali non umani.

All’interno di una tradizione di pensiero in cui si inserisce anche la conversazione tra Chomsky e Foucault, «naturale» è ciò che è stabile, non legato a contingenze storiche o esperienze particolari bensì a un dato biologico. Dall’altra parte, «culturale» è tutto ciò che è variabile per definizione, che dipende dalle diverse pratiche politiche, economiche, tecniche e sociali, e dal modo stesso di classificare e differenziare gli oggetti della ricerca scientifica nel corso del tempo.

– Leggi anche: La musica è davvero universale?

Un’antitesi più presente nel linguaggio comune contrappone invece all’aggettivo «naturale» l’aggettivo «artificiale» (o «innaturale», con un’accezione di solito negativa). È una distinzione pratica e molto radicata nell’immaginario collettivo, utilizzata in circostanze molto varie, e in cui l’azione degli esseri umani – a volte la sola presenza – è spesso inquadrata come un’interferenza o una deviazione rispetto a un presunto corso «naturale» degli eventi, appunto.

Su questa stessa distinzione si basa, tra le altre cose, una cospicua parte della comunicazione pubblicitaria nell’industria alimentare e cosmetica, così come le normative sulle etichettature dei prodotti. Ci sono aromi e coloranti naturali o artificiali, per esempio, e ciò che li distingue sono il più delle volte condizioni che riguardano i processi di produzione ma non indicano differenze sostanziali tra una cosa e l’altra.

rossetti

Rossetti esposti durante una mostra a Los Angeles, California, il 21 ottobre 2018 (Presley Ann/Getty Images per Sephora)

Scienziati e storici della scienza sostengono da tempo che la distinzione tra cosa sia naturale e cosa no è spesso condizionata da fattori estremamente variabili. Come ha scritto lo storico della medicina Gilberto Corbellini nel libro Perché gli scienziati non sono pericolosi, «è stato detto, dimostrato e ribadito in quasi tutte le salse che non c’è niente di più culturale dell’idea di natura».

Esiste tuttavia una tendenza comune a distinguere – anche a un livello intuitivo – il naturale dal non naturale, e ad attribuire al primo gruppo presunte qualità incompatibili con il secondo. Questa implicazione semantica secondaria, secondo Corbellini, è l’aspetto problematico della distinzione. Ciò che «è considerato “naturale”, in quanto tale viene giudicato più “buono”, più “giusto”, più “sano” e più “sicuro”», mentre ciò che è considerato non naturale è anche considerato pericoloso o dannoso.

– Leggi anche: L’Italia contro le etichette che indicano la salubrità degli alimenti

Eppure, osserva Corbellini, l’equivalenza tra naturale e buono è contraddetta dai progressi che la civiltà occidentale ha ottenuto nel corso dei secoli assumendo che fosse vero il contrario: che naturale non implicasse cioè qualcosa di positivo. Per quanto naturale sia un virus, per esempio, ciò non rende sana un’infezione. E se l’aspettativa di vita è significativamente aumentata nel corso dei secoli è perché la medicina e le tecnologie hanno permesso di ridurre «una serie di rischi “naturali” che minacciavano l’esistenza umana».

Non ci sono inoltre prove a sostegno dell’idea che i prodotti che definiamo naturali non arrechino danni. È anzi vero e del tutto normale che «una significativa parte dei cancerogeni che assumiamo vengono dalle piante, che li sintetizzano per la loro difesa». Ma constatazioni di questo tipo sono spesso ignorate, come mostrano diversi sondaggi, e sono alla base di estese sottovalutazioni della tossicità delle sostanze di origine naturale.

cicuta

Fiori di cicuta maggiore in un campo vicino a Faversham, in Inghilterra, il 30 giugno 2021 (Dan Kitwood/Getty Images)

All’inclinazione comune ad attribuire proprietà benefiche ai prodotti che definiamo naturali corrisponde una parallela e diffusa paura irrazionale delle sostanze sintetiche nota come chemofobia. Riguarda persone che tendono a essere eccessivamente preoccupate per i rischi associati a qualsiasi sostanza ottenuta tramite sintesi e spesso definite, impropriamente, «sostanze chimiche» (tutte le sono, in senso proprio).

Tra queste persone è diffusa l’idea che gran parte delle sostanze di sintesi siano dannose a prescindere dalla concentrazione e dal livello di esposizione, e che soltanto le sostanze «naturali» siano salutari. Di conseguenza, è quindi per loro molto rilevante l’origine delle molecole, sapere se siano un prodotto di laboratorio o no, sebbene questo non sia un indicatore di tossicità.

– Leggi anche: I cosmetici “ecobio” non esistono

Distinguere le molecole tra naturali e non naturali non ha molto senso, da un punto di vista chimico, perché tutti gli atomi di uno stesso elemento sono uguali e indistinguibili. Se fosse possibile per magia strapparli, rimescolarli alla rinfusa e ridistribuirli tra le molecole a cui appartenevano in partenza, ipotizza il chimico e divulgatore scientifico Dario Bressanini nel libro Pane e bugie, nessuno potrebbe accorgersi che è stato effettuato lo scambio.

Ci si riferisce comunemente alle «sostanze naturali», in termini chimici, per indicare «una molecola che in natura viene prodotta da qualche processo o organismo». Significa cioè che esiste già in natura da qualche parte, ma non significa che riprodurla in laboratorio anziché ottenerla tramite il complesso ciclo metabolico di una pianta abbia influenza sulle proprietà della sostanza. «Ed è una fortuna che sia così», aggiunge Bressanini, dal momento che molte sostanze utili presenti in natura sono molto rare, o è troppo difficile estrarle, o troppo costoso separarle dalle altre molecole.

verdure

Verdure fresche in vendita in un supermercato a Auckland, in Nuova Zelanda, il 18 maggio 2010 (Sandra Mu/Getty Images)

Tramite sintesi è possibile inoltre ottenere molecole che non sono mai esistite prima in natura: dalla plastica alle fibre di alcuni abiti che indossiamo. Ma questo non rende «innaturali» quelle molecole né gli atomi che le costituiscono. La distinzione delle molecole in «naturali» e «non naturali», osserva Bressanini, «è basata su criteri culturali, economici, filosofici, anche psicologici se vogliamo, ma non certo chimici».

Qualsiasi interpretazione della distinzione tra naturale e artificiale in termini di opposizione tra «buono» e «cattivo» – opposizione sostenuta e, in una certa misura, incentivata anche dalla pubblicità e dal marketing – deriva da esperienze e valutazioni di vario tipo ma non dalla considerazione delle caratteristiche intrinseche delle molecole. Soltanto da quelle caratteristiche dipende infatti l’eventuale tossicità di una determinata molecola, e non dal procedimento utilizzato per sintetizzarla.

Dai procedimenti utilizzati per ottenere le molecole e dalle percentuali di quelle molecole nei prodotti finali dipende invece, tra le altre cose, il complesso e articolato sistema delle etichettature. Per chiarirne i criteri è spesso utilizzato come esempio utile l’aroma della pianta di vaniglia, che deriva in larga parte – non del tutto – da un’unica molecola: la vanillina. È una sostanza che è possibile sintetizzare in laboratorio, come di fatto avviene per più del 99 per cento della produzione mondiale di aroma di vaniglia.

– Leggi anche: Difficilmente immaginate come produciamo la vanillina

Secondo le normative europee vigenti, modificate sulla base di un regolamento (1334/08) introdotto nel 2008 per chiarire una precedente terminologia e ridurre la possibilità di equivoci, la parola «naturale» può essere utilizzata per descrivere un aroma soltanto se le sostanze derivano direttamente da «materiali di origine animale o vegetale».

Nello specifico, nel caso degli aromi utilizzati per i prodotti alimentari – che è l’utilizzo prevalente della vanillina – l’aroma è definito «aroma naturale di vaniglia» quando deriva per almeno il 95 per cento dal baccello di vaniglia. Quando invece è utilizzato meno del 95 per cento ma la vaniglia è comunque la «base» riconoscibile e prevalente, se sono presenti altri aromi naturali il prodotto è definito «aroma naturale di vaniglia con altri aromi naturali». Se invece l’aroma è il risultato di un insieme di aromi naturali ma quello di vaniglia non è prevalente, la dicitura utilizzata è «aroma naturale».

In tutti gli altri casi l’etichetta riporta soltanto la parola «aromi», non la parola «naturale». Questa categoria generica comprende gli aromi che una precedente terminologia indicava o come «aromi naturali identici», quelli ottenuti tramite sintesi e chimicamente identici alla sostanza naturale, o come «aromi artificiali», quelli ottenuti tramite sintesi ma utilizzando anche molecole diverse da quelle della sostanza presente in natura.

gelati

Gelati serviti in un parco a New York, il 14 ottobre 2017 (Monica Schipper/Getty Images for NYCWFF)

La parola «naturale» riferita agli alimenti – il «vino naturale», per esempio, il cui mercato è molto cresciuto negli ultimi anni ma la cui denominazione non è regolata da nessuna normativa e di fatto indica più una filosofia che un protocollo produttivo – è da tempo oggetto di discussione anche in materia di protocolli e «disciplinari», l’insieme di norme da rispettare nei processi di produzione per ottenere specifiche denominazioni. L’interesse dei produttori in generale, come nel caso noto di alcuni formaggi, è formalizzare particolari procedure che riguardano non soltanto la provenienza delle materie prime ma anche le temperature di lavorazione e i tempi di stagionatura, per esempio, e che incidono evidentemente sulla qualità finale del prodotto.

Ma le discussioni intorno al «naturale» tendono a essere generalmente più complicate e animate anche a causa della sostanziale ambiguità di questo aggettivo e delle frequenti associazioni con il concetto di salute e di benessere nella cultura popolare. Nel 2020, rispondendo a una lettera dell’organizzazione che rappresenta le aziende vinicole nell’Unione Europea (Comité Européen des Entreprises Vins, CEEV), la Direzione generale per l’agricoltura e lo sviluppo rurale della Commissione europea definì «potenzialmente fuorviante» l’uso dell’indicazione «naturale» in combinazione con la parola «vino».

– Leggi anche: Che gusto ha il vino invecchiato nello Spazio

All’idea di «naturale» è poi comunemente associata un’idea di immutabilità che viene di solito ereditata da qualsiasi oggetto della discussione descritto in questi termini. Ma le mutazioni spontanee o i processi di fusione di genomi di specie diverse, fa notare Bressanini, mostrano come sia l’evoluzione stessa a contraddire la presunta immutabilità attribuita a ciò che è naturale. «Nel corso di milioni di anni questi meccanismi hanno agito e hanno trasformato i primi organismi monocellulari, composti da una sola cellula, in pomodori, uomini, peperoni, rinoceronti e volpi», sintetizza Bressanini.

Per quanto curiose possano essere le nostre definizioni di «naturale», secondo Corbellini, di sicuro non è possibile sostenere dell’agricoltura che sia qualcosa di naturale. Fu piuttosto una «straordinaria innovazione tecnologico-culturale», ma a noi «estranea dal punto di vista della nostra storia evolutiva».

Come dimostra la storia della coltivazione di quasi tutte le specie (con pochissime eccezioni, come alcuni frutti di bosco), fin dalle origini dell’agricoltura gli esseri umani hanno trasformato le piante selvatiche in varietà così differenti da non avere più alcuna somiglianza con la pianta antenata. Né oggi una specie coltivata riuscirebbe a sopravvivere se venisse riportata in un ambiente selvatico, «inadatta com’è ormai a vivere “in natura”», osserva Bressanini nel libro Contro natura, scritto insieme alla biotecnologa e divulgatrice scientifica Beatrice Mautino.

– Leggi anche: Quando pensammo che il pomodoro fosse velenoso

Si ritiene, per esempio, che le prime carote furono addomesticate e coltivate nella regione dell’Afghanistan 5 mila anni fa, e che fossero viola o gialle. Lo erano ancora quando attraverso il Mediterraneo furono introdotte in Europa nel XII secolo, e non è chiaro se la transizione all’arancione delle carote moderne sia avvenuta per selezione o con mutazione.

Studi compiuti negli anni Sessanta dal ricercatore olandese Otto Banga permettono però di ipotizzare che la transizione sia avvenuta intorno al XVII secolo. Ed è stato possibile scoprirlo, prosegue Bressanini, perché le carote raffigurate nei dipinti di nature morte o di scene di mercato risalenti a prima di quel secolo in Europa sono soltanto viola o gialle. Dal XVII secolo in poi cominciano a essere presenti insieme a quelle viola (all’epoca preferite alle gialle) anche quelle arancioni, la cui coltivazione da un certo punto in poi sostituì le altre per ragioni probabilmente estetiche (il sapore tra quelle viola e quelle arancioni non era troppo diverso).

L’esempio della carota, così come quello di molte altre coltivazioni, dimostra che «tutto quello che mangiamo ha subito modificazioni genetiche» e che non ci sia niente di più naturale, scrive Bressanini. Soprattutto permette di chiarire che la probabile ragione per cui tendiamo a intendere il «naturale» come qualcosa di «originario» e immutabile risiede nella mancanza di una memoria necessaria a mettere in prospettiva i cambiamenti evolutivi presenti anche in ciò che definiamo naturale.

 

Commenti

Post popolari in questo blog

IL SORRISO - RIASSUNTO MODELLO (CIRCA 200 PAROLE)

LA CARRIOLA DI PIRANDELLO: RIASSUNTO E COMMENTO

DOMANDE E RISPOSTE ODISSEA VOSTRE (corretto)