Matrix, Platone e l’energia invisibile dell’Intelligenza Artificiale

Ho recentemente riguardato Matrix, uno dei miei film preferiti, lo è sempre stato perché a mio parere c’è un richiamo esplicito al mito della caverna di Platone: un’umanità immersa in una realtà illusoria, convinta che le ombre siano il mondo reale, mentre la verità esiste altrove, fuori dallo sguardo.

A distanza di anni, c’è un dettaglio che mi ha colpita più di altri, un dettaglio che in passato non ho mai tenuto in considerazione: nel film si parla della creazione dell’Intelligenza Artificiale e di come a un certo punto le macchine abbiano iniziato a coltivare esseri umani per ricavarne energia.

Ovviamente Matrix non va letto alla lettera. Le macchine non stanno allevando corpi umani in capsule, ma la metafora è incredibilmente attuale se la spostiamo su un altro piano, ovvero quello dell’energia invisibile che alimenta l’IA contemporanea.

Parliamo moltissimo di cosa l’Intelligenza Artificiale è in grado di fare, molto meno di quanto costa farla funzionare e dell’impatto ambientale.

I grandi modelli di IA richiedono:

enormi quantità di energia elettrica, acqua per il raffreddamento dei data center e spazio fisico (infrastrutture, server, territori dedicati).

Eppure questo aspetto resta ai margini del dibattito pubblico, come se fosse un dettaglio tecnico secondario, quasi scomodo. Un po’ come nel mondo di Matrix: il sistema funziona meglio quando nessuno si chiede da dove arrivi l’energia.

C’è poi un altro livello, ancora più sottile: l’IA non si nutre solo di elettricità, si nutre di dati umani: parole, immagini, idee, emozioni, tempo cognitivo, attenzione.

Tutto ciò che produciamo e condividiamo, lascia una traccia. In questo senso, l’analogia diventa inquietante: non corpi coltivati, ma esperienze umane trasformate in carburante digitale.

Se oggi il “mondo delle idee” è fatto di output perfetti, risposte immediate, simulazioni sempre più convincenti, il rischio è quello di confondere l’efficienza con la verità, la velocità con la saggezza, di restare incantati dalle ombre sulla parete ,( i risultati dell’IA), senza guardare la struttura che le rende possibili.

Credo che siamo ancora troppo poco abituati a porci domande scomode:

Quanta energia siamo disposti a consumare? Quanto spazio fisico, mentale, sociale siamo pronti a cedere? E soprattutto: con quale livello di consapevolezza stiamo integrando queste tecnologie nelle nostre vite? Chi alimenta davvero il sistema e a quale prezzo?

https://youtu.be/ogxCg-BAU_k

Minority Report, IA predittiva e libertà di scelta: perché il futuro non è mai scritto

Che io sia appassionata di film chi mi segue più assiduamente o partecipa ai miei corsi lo sa già: il cinema, (soprattutto fantascienza), è uno dei miei modi preferiti per riflettere sul presente.

L’altra sera ho riguardato Minority Report e mi ha colpita quanto questo film, uscito nel 2002, oggi sembri meno fantascienza e più cronaca.

Oggi, a vent’anni di distanza, il film appare quasi documentaristico: riconoscimento biometrico, pubblicità personalizzata, algoritmi predittivi, polizia preventiva. E soprattutto un messaggio centrale, più attuale che mai: il futuro non è un verdetto, ma un potenziale e noi possiamo sempre scegliere.

Ci sono 3 punti su cui mi son soffermata a riflettere:

1. I “rapporti di minoranza”, la parte che gli algoritmi non vedono

Nel film, i Precog prevedono omicidi prima che accadano. Le loro visioni vengono trattate come verità assolute, tranne quando emergono i rapporti di minoranza: versioni alternative, possibilità diverse, futuri che non coincidono con quello previsto.

Ed è proprio qui che il film lancia un avvertimento che oggi, nell’era dell’IA predittiva, suona come una sirena:

un algoritmo può anticipare uno scenario probabile, ma non può decretare ciò che sceglieremo.

I sistemi predittivi – che oggi usiamo negli acquisti, nelle ricerche, nelle feed dei social, nelle mappe, nel credit scoring – funzionano secondo un unico principio: prevedono il futuro usando il passato.

Quello che sei stato → determina ciò che, secondo loro, sarai.

Ma come i Precog, anche gli algoritmi non vedono tutto. Non vedono i salti di coscienza, le scelte inattese, la creatività, il libero arbitrio.

Il “rapporto di minoranza”, oggi, è proprio questo: lo spazio invisibile della libertà umana.

2. Il saluto del negozio Gap:  “Salve, signor Yakomoto! Bentornato da Gap!”

Una delle scene più inquietanti e profetiche è quando John Anderton entra nel negozio Gap e un ologramma lo riconosce (o meglio, riconosce il bulbo oculare trapiantato), lo chiama per nome e gli propone acquisti basati sul suo storico personale.

Nel 2002 sembrava un incubo distopico.

Nel 2025 è il remarketing.

💡 Hai guardato un paio di scarpe? Te le ritrovi ovunque.

💡 Entro in un supermercato e la fidelity card “sa” cosa compro.

💡 Uso un’app e mi propone ciò che “probabilmente” desidero.

Il punto non è demonizzare. La personalizzazione può essere comoda, il punto è chiedersi: chi decide cosa desidero davvero? L’algoritmo che replica il mio passato? O io, nel mio presente consapevole?

Se non coltiviamo consapevolezza, non siamo più noi a scegliere, sono le nostre abitudini a farlo al posto nostro.

3. “Questo è il presente? Sono così stanca del futuro.”

Agata, la Mindfulness e la fatica di vivere proiettati avanti.

Agata è una Precog che ha passato la vita intrappolata nel futuro, immersa in ciò che “potrebbe accadere”. Quando viene liberata, respira e sussurra:

“Questo è il presente? Sono così stanca del futuro.”

È forse la frase più Mindfulness di tutto il cinema.

In un’epoca in cui viviamo costantemente proiettati: nelle previsioni del meteo, nelle previsioni dell’algoritmo, nelle notifiche, nei promemoria continui, nelle ansie di ciò che “potrebbe succedere”, il rischio è esattamente stancarci del futuro prima ancora di viverlo.

La Mindfulness ci riporta a terra, qui, ora.

Ci ricorda che il presente non è solo un luogo da attraversare velocemente per arrivare a “qualcos’altro”, è il punto da cui tutto inizia, l’unico spazio in cui possiamo realmente scegliere un futuro diverso da quello previsto.

Conclusione: Il futuro non è un algoritmo. È un bivio.

Minority Report non è un film sull’onnipotenza della predizione, è un film sulla fragilità della predizione.

Oggi più che mai, mentre l’IA analizza i nostri dati, anticipa le nostre mosse, suggerisce cosa fare, comprare, guardare, mangiare, pensare… abbiamo bisogno di ricordare un concetto elementare: il futuro può essere previsto, ma non è mai obbligatorio.

In ogni rapporto di minoranza, in ogni scelta controcorrente, in ogni “oggi decido diversamente” , c’è lo spazio umano che nessun algoritmo può colonizzare.