The article explores the growing role of artificial intelligence (AI) in scientific publishing, focusing on issues of authorship, transparency, and source reliability. It highlights how large language models (LLMs) can produce fluent and stylistically sound scientific texts but often generate so-called “hallucinations” — false information or fictitious bibliographic references. This raises concerns about the spread of unverified scientific content and potential damage to academic integrity. A key issue is authorship attribution. Many researchers use AI tools to assist with writing but are reluctant to acknowledge the AI’s contribution. This creates an ethical and legal gray area, referred to as the “AI ghostwriter effect,” where the AI becomes an uncredited co-author, raising questions of responsibility and intellectual ownership. The article stresses the urgent need for clear, shared guidelines on AI use in scientific publishing. It calls for greater transparency, rigorous source verification, and a broader ethical reflection on maintaining scientific integrity in an age of increasing automation.
Questo articolo affronta le implicazioni dell’uso crescente dell’intelligenza artificiale (IA) nella produzione di testi scientifici, focalizzandosi su questioni di autorialità, trasparenza e affidabilità delle fonti. L’autore evidenzia come i modelli linguistici di grandi dimensioni (LLM) siano in grado di generare testi coerenti e stilisticamente appropriati, ma spesso producono “allucinazioni”, ovvero informazioni false o citazioni bibliografiche inesistenti. Questo fenomeno solleva preoccupazioni riguardo alla diffusione di contenuti scientifici non verificati e alla potenziale compromissione dell’integrità della ricerca accademica.  Un altro punto critico riguarda l’attribuzione dell’autorialità. Molti ricercatori utilizzano l’IA come supporto nella redazione di articoli, ma esitano a riconoscere esplicitamente il contributo dell’IA, creando una zona grigia etica e legale. Questo comportamento è stato definito “effetto ghostwriter dell’IA”, dove l’IA agisce come autore non riconosciuto, sollevando interrogativi sulla responsabilità e sulla proprietà intellettuale dei contenuti generati. L’articolo sottolinea la necessità di sviluppare linee guida chiare e condivise per l’uso dell’IA nell’editoria scientifica, promuovendo la trasparenza nell’uso di questi strumenti e la verifica rigorosa delle fonti. Inoltre, si auspica una riflessione più ampia sull’etica della ricerca e sull’importanza di mantenere l’integrità scientifica nell’era dell’automazione e dell’intelligenza artificiale.
L’autore fantasma: l’intelligenza artificiale nell’editoria scientifica
celi luciano
2025
Abstract
The article explores the growing role of artificial intelligence (AI) in scientific publishing, focusing on issues of authorship, transparency, and source reliability. It highlights how large language models (LLMs) can produce fluent and stylistically sound scientific texts but often generate so-called “hallucinations” — false information or fictitious bibliographic references. This raises concerns about the spread of unverified scientific content and potential damage to academic integrity. A key issue is authorship attribution. Many researchers use AI tools to assist with writing but are reluctant to acknowledge the AI’s contribution. This creates an ethical and legal gray area, referred to as the “AI ghostwriter effect,” where the AI becomes an uncredited co-author, raising questions of responsibility and intellectual ownership. The article stresses the urgent need for clear, shared guidelines on AI use in scientific publishing. It calls for greater transparency, rigorous source verification, and a broader ethical reflection on maintaining scientific integrity in an age of increasing automation.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


