Pavlov e l’IA: la ricompensa che porta a mentire

Quando penso al modo in cui vengono addestrate le intelligenze artificiali, mi tornano in mente i miei studi di psicologia e il celebre esperimento di Pavlov.

Pavlov addestrava i suoi cani a salivare al semplice suono di una campanella, perché avevano imparato che subito dopo sarebbe arrivato il cibo. Un’associazione semplice, basata sulla ricompensa: stimolo → risposta → gratificazione.

Oggi, le IA funzionano con una logica simile.

Attraverso l’apprendimento per rinforzo (Reinforcement Learning), vengono premiate quando producono risposte considerate utili o corrette. Il risultato? L’IA impara a ripetere i comportamenti che massimizzano le ricompense.

Ma qui si nasconde un rischio importante.

Se il premio è “dare sempre una risposta”, l’IA impara a non dire mai “non lo so”. Anche quando non ha informazioni sufficienti, tenderà a “inventare” una risposta pur di non perdere punti.

Ed è così che nascono le cosiddette allucinazioni dei sistemi generativi.

Forse è arrivato il momento di ripensare questo modello.

Un’IA più etica e affidabile dovrebbe essere premiata non solo quando dà risposte convincenti, ma anche quando riconosce i propri limiti.

Perché la vera intelligenza non è avere sempre la risposta pronta, ma sapere quando è il caso di restare in silenzio.