Il recente e inarrestabile sviluppo di strumenti di Intelligenza Artificiale generativa di testi o immagini (ad es., rispettivamente ChatGPT e DALL-E della Big Tech OpenAI), attraverso l’addestramento dei c.d. Large Language Models, offre ai ricercatori opportunità significative di supporto nella produzione scientifica, riducendo il carico di lavoro per i compiti ripetitivi e consentendo di concentrarsi sugli aspetti più creativi e innovativi. Nello specifico, gli strumenti di generazione automatica di testo possono essere utili per assistere il ricercatore sia nella scrittura scientifica, attraverso la creazione di bozze, la traduzione e revisione linguistica, la formattazione della bibliografia, ecc., sia nella divulgazione scientifica, traducendo concetti complessi e termini tecnici in un linguaggio comprensibile a un pubblico non specializzato. Inoltre, la generazione di immagini sintetiche può supportare la visualizzazione dei dati e la creazione di rappresentazioni grafiche dei risultati, rendendo più immediato l’impatto visivo delle ricerche. Tuttavia, queste tecnologie presentano anche seri rischi per l’integrità nella ricerca. Tra i principali possiamo evidenziare la totale dipendenza da tali strumenti che può portare a una moltiplicazione surrettizia delle pubblicazioni scientifiche e compromettere l’originalità e l’approfondimento critico richiesto per produrre contributi significativi e autoriali. Inoltre, la creazione di testi e immagini artificiali rischia di confondere i confini tra dati scientifici reali e sintetici, se usati in maniera fraudolenta e non trasparente. Per sfruttare il potenziale di questi nuovi strumenti di IA senza compromettere i valori fondamentali dell’integrità nella ricerca, il poster propone un’analisi critica dei loro possibili utilizzi in maniera responsabile, la quale si pone come necessaria fase preliminare per la futura definizione di linee guida specifiche a supporto dei ricercatori.

Per un uso responsabile dell’Intelligenza Artificiale generativa nella ricerca scientifica: opportunità, rischi e sfide

Ludovica Marinucci
2025

Abstract

Il recente e inarrestabile sviluppo di strumenti di Intelligenza Artificiale generativa di testi o immagini (ad es., rispettivamente ChatGPT e DALL-E della Big Tech OpenAI), attraverso l’addestramento dei c.d. Large Language Models, offre ai ricercatori opportunità significative di supporto nella produzione scientifica, riducendo il carico di lavoro per i compiti ripetitivi e consentendo di concentrarsi sugli aspetti più creativi e innovativi. Nello specifico, gli strumenti di generazione automatica di testo possono essere utili per assistere il ricercatore sia nella scrittura scientifica, attraverso la creazione di bozze, la traduzione e revisione linguistica, la formattazione della bibliografia, ecc., sia nella divulgazione scientifica, traducendo concetti complessi e termini tecnici in un linguaggio comprensibile a un pubblico non specializzato. Inoltre, la generazione di immagini sintetiche può supportare la visualizzazione dei dati e la creazione di rappresentazioni grafiche dei risultati, rendendo più immediato l’impatto visivo delle ricerche. Tuttavia, queste tecnologie presentano anche seri rischi per l’integrità nella ricerca. Tra i principali possiamo evidenziare la totale dipendenza da tali strumenti che può portare a una moltiplicazione surrettizia delle pubblicazioni scientifiche e compromettere l’originalità e l’approfondimento critico richiesto per produrre contributi significativi e autoriali. Inoltre, la creazione di testi e immagini artificiali rischia di confondere i confini tra dati scientifici reali e sintetici, se usati in maniera fraudolenta e non trasparente. Per sfruttare il potenziale di questi nuovi strumenti di IA senza compromettere i valori fondamentali dell’integrità nella ricerca, il poster propone un’analisi critica dei loro possibili utilizzi in maniera responsabile, la quale si pone come necessaria fase preliminare per la futura definizione di linee guida specifiche a supporto dei ricercatori.
2025
Centro Interdipartimentale per l'Etica e l'Integrità nella Ricerca
Intelligenza Artificiale, Generazione articoli, Generazione immagini
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14243/544361
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ente

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact