Cite inventate dall’AI superano la peer review: nasce CiteAudit per smascherarle

Le citazioni allucinate entrano nei paper scientifici
Le cosiddette hallucinated references – citazioni accademiche completamente inventate dai modelli linguistici – stanno riuscendo a superare la peer review in alcune delle più importanti conferenze sull’intelligenza artificiale. Il problema è strutturale: i Large Language Model come GPT, Gemini e Claude generano riferimenti con formattazione plausibile, autori credibili e titoli verosimili, ma che in realtà non esistono.
Ancora più critico è il fatto che gli stessi modelli commerciali non sono in grado di riconoscere con affidabilità le citazioni false che producono. Questo evidenzia un limite tecnico profondo legato alla natura probabilistica dei LLM: il modello ottimizza la plausibilità statistica del testo, non la sua veridicità fattuale.
Perché la peer review non intercetta il problema
Nel processo di revisione scientifica, i revisori raramente verificano manualmente ogni riferimento bibliografico. In ambiti altamente specialistici, un titolo ben costruito può sembrare perfettamente coerente con lo stato dell’arte. Questo crea una vulnerabilità sistemica: basta una citazione plausibile per rafforzare artificialmente la credibilità di un paper.
Il rischio non è solo accademico. Se riferimenti inesistenti entrano nella letteratura scientifica, possono propagarsi in lavori successivi, generando una catena di pseudo-conoscenza difficile da correggere.
CiteAudit: il tool open source che verifica le citazioni
Per affrontare il problema nasce CiteAudit, uno strumento open source progettato per individuare automaticamente riferimenti sospetti o inesistenti. Il sistema confronta le citazioni con database accademici e repository pubblici, segnalando incongruenze tra metadati, DOI, autori e pubblicazioni effettivamente registrate.
L’obiettivo non è sostituire la peer review, ma fornire un layer di verifica automatica integrabile nei workflow editoriali, nelle submission conference e negli ambienti di scrittura accademica assistita da AI.
Un problema tecnico, non solo etico
Le hallucinations non sono bug occasionali, ma una conseguenza architetturale dei modelli generativi. Finché i LLM non avranno accesso strutturato e verificabile a basi dati certificate in tempo reale, il rischio di generare riferimenti inesistenti rimarrà elevato.
Strumenti come CiteAudit rappresentano quindi un passaggio cruciale verso un ecosistema AI più affidabile, dove generazione e verifica procedono insieme. In un contesto in cui l’AI è sempre più utilizzata per scrivere paper, report e documentazione tecnica, la validazione automatica delle fonti potrebbe diventare uno standard imprescindibile.
Fonte originale: Leggi l’articolo completo