Recentemente, ChatGPT si è posto all'attenzione di addetti ai lavori, media, e società, in modo intrigante e controverso. "Offre funzionalità senza precedenti per analizzare dati, collaborare e condividere conoscenze. Tuttavia, è necessario considerare attentamente le implicazioni etiche e preservare le competenze umane" (Florindo, 2023). "Uno strumento per insegnare, non per imbrogliare" (Rose, 2023). Riguardo gli strumenti basati su Intelligenza Artificiale quali i sistemi di Natural Language Processing, pattern recognition e robotica, e quindi i sistemi come ChatGPT, sono stati già messi in evidenza i bias di genere e le problematiche di traduzione e riconoscimento automatici così come le raccomandazioni (Badaloni&Lisi 2020, Ferilli et al. 2020, O'Connor&Liu 2023, UNESCO 2020). Nello specifico, (Gross 2023) ha rilevato come ChatGPT funzioni in modo efficiente ed efficace nel sintetizzare e rigenerare informazione condivisa su Web, il che significa che senza moderazioni può perpetuare stereotipi di genere radicati nella società. Tuttavia, la natura evolutiva di tali sistemi può diventare un volano per correggere i bias e quindi per migliorare la società. Il contributo intende presentare i risultati di un esperimento con domande e risposte rivolte e ottenute da ChatGPT nell'estate 2023 su varie tematiche che presentano un'evidente dimensione di genere, per aprire la discussione su risposte afflitte o meno da pregiudizi e considerazioni di utilizzo.

Un'indagine sui pregiudizi di genere nelle risposte di ChatGPT

2023

Abstract

Recentemente, ChatGPT si è posto all'attenzione di addetti ai lavori, media, e società, in modo intrigante e controverso. "Offre funzionalità senza precedenti per analizzare dati, collaborare e condividere conoscenze. Tuttavia, è necessario considerare attentamente le implicazioni etiche e preservare le competenze umane" (Florindo, 2023). "Uno strumento per insegnare, non per imbrogliare" (Rose, 2023). Riguardo gli strumenti basati su Intelligenza Artificiale quali i sistemi di Natural Language Processing, pattern recognition e robotica, e quindi i sistemi come ChatGPT, sono stati già messi in evidenza i bias di genere e le problematiche di traduzione e riconoscimento automatici così come le raccomandazioni (Badaloni&Lisi 2020, Ferilli et al. 2020, O'Connor&Liu 2023, UNESCO 2020). Nello specifico, (Gross 2023) ha rilevato come ChatGPT funzioni in modo efficiente ed efficace nel sintetizzare e rigenerare informazione condivisa su Web, il che significa che senza moderazioni può perpetuare stereotipi di genere radicati nella società. Tuttavia, la natura evolutiva di tali sistemi può diventare un volano per correggere i bias e quindi per migliorare la società. Il contributo intende presentare i risultati di un esperimento con domande e risposte rivolte e ottenute da ChatGPT nell'estate 2023 su varie tematiche che presentano un'evidente dimensione di genere, per aprire la discussione su risposte afflitte o meno da pregiudizi e considerazioni di utilizzo.
2023
Istituto per il Rilevamento Elettromagnetico dell'Ambiente - IREA
Large Language Models
Gender issue
ChatGPT
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14243/451555
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact