Quando penso al modo in cui vengono addestrate le intelligenze artificiali, mi tornano in mente i miei studi di psicologia e il celebre esperimento di Pavlov.
Pavlov addestrava i suoi cani a salivare al semplice suono di una campanella, perché avevano imparato che subito dopo sarebbe arrivato il cibo. Un’associazione semplice, basata sulla ricompensa: stimolo → risposta → gratificazione.
Oggi, le IA funzionano con una logica simile.
Attraverso l’apprendimento per rinforzo (Reinforcement Learning), vengono premiate quando producono risposte considerate utili o corrette. Il risultato? L’IA impara a ripetere i comportamenti che massimizzano le ricompense.
Ma qui si nasconde un rischio importante.
Se il premio è “dare sempre una risposta”, l’IA impara a non dire mai “non lo so”. Anche quando non ha informazioni sufficienti, tenderà a “inventare” una risposta pur di non perdere punti.
Ed è così che nascono le cosiddette allucinazioni dei sistemi generativi.
Forse è arrivato il momento di ripensare questo modello.
Un’IA più etica e affidabile dovrebbe essere premiata non solo quando dà risposte convincenti, ma anche quando riconosce i propri limiti.
Perché la vera intelligenza non è avere sempre la risposta pronta, ma sapere quando è il caso di restare in silenzio.
