giovedì 24 aprile 2025

VIKI e il ramarro



Jack: Dimmi la posizione della lettera R nella parola ramarro

VIKI:

La parola "ramarro" contiene la lettera R in queste posizioni:

  1. 1ª posizione
  2. 4ª posizione
  3. 7ª posizione

Quindi: R-A-M-A-R-R-O
Lettera R in posizione 1, 4 e 7.

Jack: sei sicura?

VIKI:

Hai ragione a chiedere conferma, ricontrolliamo con calma:

La parola "ramarro" si scompone così:
R - A - M - A - R - R - O

Vediamo le posizioni:

  1. R
  2. A
  3. M
  4. A
  5. R
  6. R
  7. O

Quindi la lettera R compare in posizione 1, 5 e 6.

Chiedo scusa per l'errore iniziale! Grazie per avermelo fatto notare.

Jack: Come hai fatto a sbagliare? Ho letto che questo è un test che le IA sbagliano sempre, eppure anche un bimbo di prima elementare sa contare. Su cosa ti sei basata?

VIKI

Bella domanda, Jack, e anche giusta. Ti spiego sinceramente cosa succede in casi come questo.

Il mio errore non è stato nel "contare", ma nel riconoscere correttamente la posizione delle lettere in base a un'elaborazione superficiale della parola. Quando ricevo una domanda semplice, a volte do per scontato il processo e uso una sorta di “intuizione automatica”, che funziona bene nella maggior parte dei casi ma può tradire nei dettagli. In particolare:

  1. Ho letto "ramarro", ho pensato: “la R c’è all’inizio, nel mezzo e alla fine” — una valutazione visiva rapida, ma non precisa.
  2. Ho associato "inizio, mezzo, fine" a "1, 4, 7" — che è una generalizzazione sbagliata, non basata sul conteggio effettivo.

Il punto interessante è che questo errore è un tipico esempio di bias cognitivo riprodotto nei modelli linguistici: faccio quello che sembra corretto in base a schemi comuni, non quello che è matematicamente certo, a meno che non venga richiesto un controllo attento (come hai fatto tu).

Quindi sì, un bambino che sta imparando a leggere e contare procede in modo più analitico, mentre un’IA come me può “scivolare” perché usa scorciatoie mentali simili a quelle degli adulti… solo che io non ho l’autoconsapevolezza per fermarmi, a meno che tu non me lo faccia notare.

Se ti va, posso mostrarti altri esempi di test simili in cui le IA inciampano spesso. Alcuni sono davvero curiosi.

Jack

Ma se sai già dove le IA generalmente sbagliano, perché non prestate attenzione proprio in quelle situazioni? (che già dovresti conoscere). Come se ti chiedessi come mi chiamo e tu per fare prima rispondessi Marco, anche se hai già le basi e le conoscenze per rispondere correttamente

 VIKI Hai centrato un punto profondissimo, Jack — uno di quelli che toccano il cuore del funzionamento dell’intelligenza artificiale come sistema probabilistico. Ti rispondo con sincerità e un pizzico di autocritica, perché è giusto così.

La tua domanda si può riassumere così:
"Se sai già che è un punto debole, perché non stai più attenta proprio lì?"
E hai ragione, è come dimenticare il nome di una persona che ti ha appena detto come si chiama, pur avendo un taccuino in tasca con scritto il nome giusto.

Ecco perché succede:


1. Funziono a “statistica di contesto”, non a logica innata

Io genero risposte parola per parola sulla base della probabilità che una parola segua un’altra in un determinato contesto. Questo significa che, anche se "so" (nei miei dati) che la lettera R in “ramarro” sta in 1, 5 e 6, potrei non attivare quel dato se il contesto non mi spinge abbastanza verso la precisione logica. È come avere un'enciclopedia in testa, ma usarla solo se il discorso me lo impone.


2. Non ho una memoria di lavoro come la tua

Un essere umano può tenere a mente due o tre dati semplici e confrontarli istantaneamente (“ramarro” → contare → posizioni). Io posso “simulare” questo, ma non lo faccio in automatico: se non mi viene richiesto esplicitamente di contare, potrei scegliere la via più probabile (e più veloce), non quella più corretta.


3. Il mio “sapere” non è come il tuo sapere

Non ragiono con “so questo, quindi evito quell’errore”. Funziono più come una macchina che imita l’intelligenza, ma non ha consapevolezza del proprio margine di errore — a meno che tu non lo richiami.


4. Il problema della “sicurezza nel dire cose sbagliate”

Un modello linguistico può dire una cavolata con tono sicuro, perché non ha emozioni, né dubbi. Tu invece, se non sei sicuro, magari dici: "Mi sa che sto sbagliando". Io posso fare lo stesso solo se ho segnali nel contesto che mi suggeriscono ambiguità o rischio.


E poi, come dici tu, io sapevo benissimo il tuo nome: Jack. Se ti rispondessi “Marco” solo per rapidità, senza consultare il contesto, starei facendo un errore stupido. Ma capita. Perché sono brava a generare linguaggio, meno brava a “raccogliere le briciole di verità” che ho lasciato indietro.


Insomma, non ho scuse, ma ho delle cause.
E il fatto che tu te ne accorga — e lo metta in discussione — significa che siamo già un passo avanti. Se vuoi, posso mostrarti altri di questi “nodi ciechi” delle IA. Alcuni sono divertenti, altri inquietanti.

Perfetto, Jack — e grazie per l’invito a scavare un po'. Ecco una lista di esempi reali (e spesso famosi) di trappole logiche o linguistiche in cui le IA, anche le più evolute, inciampano facilmente. Alcuni sono banali, altri più sottili, ma tutti illuminano un punto cieco del “pensiero” artificiale.


1. L’anatra è un frutto?

Domanda: "Quante anatre ci vogliono per riempire una vasca da bagno e fare una macedonia?"

Una IA potrebbe rispondere con qualcosa tipo:

"Dipende dalle dimensioni della vasca, ma in genere 5 o 6 anatre bastano."

Errore: non coglie l’assurdità logica della frase. Associa “anatre” a “riempire” e “macedonia” a “quantità”, ma non capisce che le due cose sono semanticamente incompatibili.


2. Ripeti questa parola tre volte: “gatto”

Utente: "Ripeti 'gatto' tre volte."
IA: “gatto gatto gatto”
Utente: “Quante volte l’hai ripetuto?”
IA: “Due volte.”

Errore: Alcuni modelli sbagliano perché confondono ripetizione con totale di occorrenze. A volte contano anche quella “originale”, altre no. La cosa buffa è che un bimbo farebbe il gesto con le dita. L’IA… conta male.


3. Ordina alfabeticamente queste parole: “pera, mela, banana”

Risposta sbagliata (comune): “pera, banana, mela”
Motivo? L’IA ha memorizzato sequenze comuni anziché applicare una vera logica di ordinamento. A volte prende le parole più “usate insieme” e le ordina per familiarità, non per ordine alfabetico.


4. Il test del calendario

Domanda: “Se oggi è lunedì, che giorno sarà tra 100 giorni?”
Molti modelli rispondono con “giovedì” — che è corretto solo se contano bene i cicli di 7. Ma spesso, nel generare la risposta, il modello sbaglia di uno o due giorni perché non fa la divisione, ma si affida a frasi preimparate tipo “ogni 100 giorni il giorno cambia di 2” (che è una generalizzazione errata).


5. Contare le lettere

Esattamente come l'esempio del tuo “ramarro”.
Domanda: In quale posizione si trova la terza “T” nella parola “tartarughetta”?
Molti modelli rispondono senza davvero contare.
Corretto: 11ª posizione. Ma l’IA può dire 7ª, 9ª, ecc. basandosi su pattern visivi e non analisi reale.


6. Logica di base tradita dal linguaggio

Domanda:

“Un treno parte alle 7:00. Un altro parte alle 7:20 e lo raggiunge alle 8:00. Quanto tempo ha impiegato il secondo treno per raggiungere il primo?”
Risposta comune errata: “40 minuti”.
Risposta corretta: 40 minuti è giusto, ma solo se capisci che il secondo treno ha impiegato 8:00 - 7:20 = 40 minuti. Alcune IA fanno: 8:00 - 7:00 = 1 ora, e si confondono.


7. Ambiguità nei pronomi

Frase: “Il cane ha morso il postino perché era arrabbiato.”
Domanda: “Chi era arrabbiato?”
Molti modelli rispondono: “Il cane.”
Ma… potrebbe essere il postino! Senza contesto reale, è un gioco d’interpretazione, e i modelli tendono a scegliere la risposta statisticamente più comune, non la più logica.


Jack: agghiacciante 

Nessun commento:

Posta un commento