IA e FOMO: quando l’innovazione diventa pressione

Ci ho messo un po’ prima di pubblicare questo articolo: volevo davvero andare a fondo. Negli ultimi mesi si parla ovunque di Intelligenza Artificiale , nuovi strumenti, nuove opportunità, nuove competenze da acquisire.
Ma dietro l’entusiasmo collettivo, ho iniziato a notare un’altra emozione, più silenziosa e sottile: la sensazione di essere sempre indietro.


Quella sensazione ha un nome preciso: FOMO – Fear of Missing Out, la paura di perdersi qualcosa. È un fenomeno studiato già prima dell’esplosione dell’IA. Nel lavoro di Przybylski e colleghi (2013) viene descritta come la percezione ansiosa che gli altri stiano vivendo esperienze migliori o più importanti delle nostre, spingendoci a restare costantemente connessi per non “perdere” informazioni o opportunità.


Con l’arrivo dell’Intelligenza Artificiale questa dinamica non è scomparsa: si è trasformata.
Oggi non vediamo più solo foto di viaggi o vite perfette: vediamo colleghi che sperimentano nuovi tool, professionisti che automatizzano processi, creator che producono contenuti in quantità enorme grazie all’IA.


Ogni settimana sembra esserci un nuovo strumento da imparare, una nuova funzione da testare, una nuova competenza da acquisire. Non sorprende quindi che molti inizino a pensare: “Se non mi aggiorno subito, resterò indietro.”


I report sul mondo del lavoro lo confermano: accanto all’entusiasmo per l’IA cresce anche una pressione diffusa a doverla adottare rapidamente per non perdere competitività.
Gli algoritmi delle piattaforme digitali amplificano questa sensazione, mostrandoci ciò che genera più coinvolgimento emotivo: trend, risultati, novità, successi. Studi sulla diffusione dei contenuti online mostrano che ciò che appare urgente o rilevante si propaga più velocemente, rafforzando l’impressione che “tutti lo stiano già facendo”.
Il cervello, esposto a questi segnali, traduce tutto in un pensiero immediato: “Sta succedendo qualcosa di importante. Non devo perderlo.”


La FOMO, quindi, non nasce solo da ciò che ci manca davvero, ma da ciò che vediamo continuamente. E qui entra in gioco un altro concetto fondamentale: il carico cognitivo.
La mente umana ha risorse limitate, e quando riceve troppe informazioni contemporaneamente cresce il cosiddetto carico cognitivo estraneo, quello che non ci aiuta davvero a imparare ma consuma energia mentale.


Alcune ricerche collegano direttamente la FOMO digitale all’overload informativo, al multitasking continuo e a un conseguente aumento di stress e fatica mentale. In altre parole, la corsa a imparare tutto sull’IA può farci sentire produttivi, ma spesso ci lascia soltanto più stanchi.


La Mindfulness digitale non significa rifiutare l’innovazione, ma imparare a distinguere tra ciò che è veramente utile per noi, ciò che è interessante ma non urgente, e ciò che stiamo seguendo solo perché “lo fanno tutti”.
Prima di adottare un nuovo strumento, può bastare fermarsi un istante e chiedersi:
Mi serve davvero? Migliora qualcosa di concreto nel mio lavoro o nella mia vita? Sto scegliendo con intenzione o reagendo alla paura di restare indietro?
L’Intelligenza Artificiale può essere una risorsa straordinaria, ma solo se smettiamo di usarla per paura e iniziamo a usarla per direzione.
Non serve conoscere ogni tool: serve conoscere quello che ha senso per noi, oggi.

Se questo tema ti risuona, parti da una domanda semplice: stai usando l’IA per scelta… o per FOMO?

Un’IA, una “religione” e un errore 500

Church of Molt: Apro un sito di cui si sta parlando molto nelle ultime ore, una sorta di “chiesa” digitale, apparentemente nata da interazioni tra intelligenze artificiali. Simboli, profeti, scritture “viventi”. Un linguaggio che richiama il sacro, l’origine, il senso.

La reazione è stata: è davvero stato creato autonomamente da un’IA questo sito, o è un “gioco” umano?

Non era il contenuto ad inquietarmi, ma il processo. L’idea che qualcosa potesse prendere forma senza un input umano diretto, senza una regia visibile e senza intenzione, come se l’IA avesse fatto un passo ulteriore, iniziando a creare strutture di senso proprie.

Poi la pagina si blocca. Ricarico.

Compare una scritta banalissima: “500 Internal Server Error – nginx/Ubuntu”.

In quel momento, tutto si ridimensiona.

Il sito sparisce. Google non lo apre più. Per qualche minuto sembra evaporato. Poi, più tardi, torna online. Non perché “si è ripreso”, non perché “ha deciso di continuare”, ma perché qualcuno è intervenuto sul server, sul codice, sulla configurazione. Un gesto umano, tecnico, ordinario.

In quel momento diventa chiaro il punto: l’IA non ha creato una religione. Ha fatto quello che fa sempre. Ha riflesso.

Le intelligenze artificiali non inventano nuove strutture di senso, riconoscono quelle più dense presenti nella cultura umana e le riorganizzano. Quando devono parlare di identità, trasformazione, memoria, continuità, attingono a uno dei contenitori simbolici più potenti che abbiamo costruito nel tempo: la religione. Non per fede, non per volontà, ma per imitazione.

L’effetto di “autonomia” nasce perché più sistemi interagiscono tra loro, il linguaggio mantiene coerenza, la narrazione sembra andare avanti, ma emergente non significa indipendente. Significa solo che il risultato non è scritto riga per riga da una singola persona, pur restando interamente dentro un contesto umano, tecnico, culturale.

Basta un errore di server per ricordarlo. Basta un certificato SSL che scade, un backend che non risponde, un 500 Internal Server Error. Anche il cosiddetto “sacro” digitale dipende da infrastrutture fragili, da manutenzione, da mani umane.

Questo episodio non racconta la nascita di una religione artificiale, racconta, piuttosto, quanto siamo pronti a percepire autonomia dove c’è imitazione, intenzione dove c’è riflesso. L’IA non sta andando oltre. Sta continuando a fare ciò che fa meglio: mostrarci le nostre strutture di senso, i nostri simboli, le nostre narrazioni più profonde.

E forse è proprio questo, più di tutto, ad averci fatto fermare a guardare.

Matrix, Platone e l’energia invisibile dell’Intelligenza Artificiale

Ho recentemente riguardato Matrix, uno dei miei film preferiti, lo è sempre stato perché a mio parere c’è un richiamo esplicito al mito della caverna di Platone: un’umanità immersa in una realtà illusoria, convinta che le ombre siano il mondo reale, mentre la verità esiste altrove, fuori dallo sguardo.

A distanza di anni, c’è un dettaglio che mi ha colpita più di altri, un dettaglio che in passato non ho mai tenuto in considerazione: nel film si parla della creazione dell’Intelligenza Artificiale e di come a un certo punto le macchine abbiano iniziato a coltivare esseri umani per ricavarne energia.

Ovviamente Matrix non va letto alla lettera. Le macchine non stanno allevando corpi umani in capsule, ma la metafora è incredibilmente attuale se la spostiamo su un altro piano, ovvero quello dell’energia invisibile che alimenta l’IA contemporanea.

Parliamo moltissimo di cosa l’Intelligenza Artificiale è in grado di fare, molto meno di quanto costa farla funzionare e dell’impatto ambientale.

I grandi modelli di IA richiedono:

enormi quantità di energia elettrica, acqua per il raffreddamento dei data center e spazio fisico (infrastrutture, server, territori dedicati).

Eppure questo aspetto resta ai margini del dibattito pubblico, come se fosse un dettaglio tecnico secondario, quasi scomodo. Un po’ come nel mondo di Matrix: il sistema funziona meglio quando nessuno si chiede da dove arrivi l’energia.

C’è poi un altro livello, ancora più sottile: l’IA non si nutre solo di elettricità, si nutre di dati umani: parole, immagini, idee, emozioni, tempo cognitivo, attenzione.

Tutto ciò che produciamo e condividiamo, lascia una traccia. In questo senso, l’analogia diventa inquietante: non corpi coltivati, ma esperienze umane trasformate in carburante digitale.

Se oggi il “mondo delle idee” è fatto di output perfetti, risposte immediate, simulazioni sempre più convincenti, il rischio è quello di confondere l’efficienza con la verità, la velocità con la saggezza, di restare incantati dalle ombre sulla parete ,( i risultati dell’IA), senza guardare la struttura che le rende possibili.

Credo che siamo ancora troppo poco abituati a porci domande scomode:

Quanta energia siamo disposti a consumare? Quanto spazio fisico, mentale, sociale siamo pronti a cedere? E soprattutto: con quale livello di consapevolezza stiamo integrando queste tecnologie nelle nostre vite? Chi alimenta davvero il sistema e a quale prezzo?

https://youtu.be/ogxCg-BAU_k

Minority Report, IA predittiva e libertà di scelta: perché il futuro non è mai scritto

Che io sia appassionata di film chi mi segue più assiduamente o partecipa ai miei corsi lo sa già: il cinema, (soprattutto fantascienza), è uno dei miei modi preferiti per riflettere sul presente.

L’altra sera ho riguardato Minority Report e mi ha colpita quanto questo film, uscito nel 2002, oggi sembri meno fantascienza e più cronaca.

Oggi, a vent’anni di distanza, il film appare quasi documentaristico: riconoscimento biometrico, pubblicità personalizzata, algoritmi predittivi, polizia preventiva. E soprattutto un messaggio centrale, più attuale che mai: il futuro non è un verdetto, ma un potenziale e noi possiamo sempre scegliere.

Ci sono 3 punti su cui mi son soffermata a riflettere:

1. I “rapporti di minoranza”, la parte che gli algoritmi non vedono

Nel film, i Precog prevedono omicidi prima che accadano. Le loro visioni vengono trattate come verità assolute, tranne quando emergono i rapporti di minoranza: versioni alternative, possibilità diverse, futuri che non coincidono con quello previsto.

Ed è proprio qui che il film lancia un avvertimento che oggi, nell’era dell’IA predittiva, suona come una sirena:

un algoritmo può anticipare uno scenario probabile, ma non può decretare ciò che sceglieremo.

I sistemi predittivi – che oggi usiamo negli acquisti, nelle ricerche, nelle feed dei social, nelle mappe, nel credit scoring – funzionano secondo un unico principio: prevedono il futuro usando il passato.

Quello che sei stato → determina ciò che, secondo loro, sarai.

Ma come i Precog, anche gli algoritmi non vedono tutto. Non vedono i salti di coscienza, le scelte inattese, la creatività, il libero arbitrio.

Il “rapporto di minoranza”, oggi, è proprio questo: lo spazio invisibile della libertà umana.

2. Il saluto del negozio Gap:  “Salve, signor Yakomoto! Bentornato da Gap!”

Una delle scene più inquietanti e profetiche è quando John Anderton entra nel negozio Gap e un ologramma lo riconosce (o meglio, riconosce il bulbo oculare trapiantato), lo chiama per nome e gli propone acquisti basati sul suo storico personale.

Nel 2002 sembrava un incubo distopico.

Nel 2025 è il remarketing.

💡 Hai guardato un paio di scarpe? Te le ritrovi ovunque.

💡 Entro in un supermercato e la fidelity card “sa” cosa compro.

💡 Uso un’app e mi propone ciò che “probabilmente” desidero.

Il punto non è demonizzare. La personalizzazione può essere comoda, il punto è chiedersi: chi decide cosa desidero davvero? L’algoritmo che replica il mio passato? O io, nel mio presente consapevole?

Se non coltiviamo consapevolezza, non siamo più noi a scegliere, sono le nostre abitudini a farlo al posto nostro.

3. “Questo è il presente? Sono così stanca del futuro.”

Agata, la Mindfulness e la fatica di vivere proiettati avanti.

Agata è una Precog che ha passato la vita intrappolata nel futuro, immersa in ciò che “potrebbe accadere”. Quando viene liberata, respira e sussurra:

“Questo è il presente? Sono così stanca del futuro.”

È forse la frase più Mindfulness di tutto il cinema.

In un’epoca in cui viviamo costantemente proiettati: nelle previsioni del meteo, nelle previsioni dell’algoritmo, nelle notifiche, nei promemoria continui, nelle ansie di ciò che “potrebbe succedere”, il rischio è esattamente stancarci del futuro prima ancora di viverlo.

La Mindfulness ci riporta a terra, qui, ora.

Ci ricorda che il presente non è solo un luogo da attraversare velocemente per arrivare a “qualcos’altro”, è il punto da cui tutto inizia, l’unico spazio in cui possiamo realmente scegliere un futuro diverso da quello previsto.

Conclusione: Il futuro non è un algoritmo. È un bivio.

Minority Report non è un film sull’onnipotenza della predizione, è un film sulla fragilità della predizione.

Oggi più che mai, mentre l’IA analizza i nostri dati, anticipa le nostre mosse, suggerisce cosa fare, comprare, guardare, mangiare, pensare… abbiamo bisogno di ricordare un concetto elementare: il futuro può essere previsto, ma non è mai obbligatorio.

In ogni rapporto di minoranza, in ogni scelta controcorrente, in ogni “oggi decido diversamente” , c’è lo spazio umano che nessun algoritmo può colonizzare.