Recentemente, ChatGPT si è posto all'attenzione di addetti ai lavori, media, e società, in modo intrigante e controverso. "Offre funzionalità senza precedenti per analizzare dati, collaborare e condividere conoscenze. Tuttavia, è necessario considerare attentamente le implicazioni etiche e preservare le competenze umane" (Florindo, 2023). "Uno strumento per insegnare, non per imbrogliare" (Rose, 2023). Riguardo gli strumenti basati su Intelligenza Artificiale quali i sistemi di Natural Language Processing, pattern recognition e robotica, e quindi i sistemi come ChatGPT, sono stati già messi in evidenza i bias di genere e le problematiche di traduzione e riconoscimento automatici così come le raccomandazioni (Badaloni&Lisi 2020, Ferilli et al. 2020, O'Connor&Liu 2023, UNESCO 2020). Nello specifico, (Gross 2023) ha rilevato come ChatGPT funzioni in modo efficiente ed efficace nel sintetizzare e rigenerare informazione condivisa su Web, il che significa che senza moderazioni può perpetuare stereotipi di genere radicati nella società. Tuttavia, la natura evolutiva di tali sistemi può diventare un volano per correggere i bias e quindi per migliorare la società. Il contributo intende presentare i risultati di un esperimento con domande e risposte rivolte e ottenute da ChatGPT nell'estate 2023 su varie tematiche che presentano un'evidente dimensione di genere, per aprire la discussione su risposte afflitte o meno da pregiudizi e considerazioni di utilizzo.
Un'indagine sui pregiudizi di genere nelle risposte di ChatGPT
2023
Abstract
Recentemente, ChatGPT si è posto all'attenzione di addetti ai lavori, media, e società, in modo intrigante e controverso. "Offre funzionalità senza precedenti per analizzare dati, collaborare e condividere conoscenze. Tuttavia, è necessario considerare attentamente le implicazioni etiche e preservare le competenze umane" (Florindo, 2023). "Uno strumento per insegnare, non per imbrogliare" (Rose, 2023). Riguardo gli strumenti basati su Intelligenza Artificiale quali i sistemi di Natural Language Processing, pattern recognition e robotica, e quindi i sistemi come ChatGPT, sono stati già messi in evidenza i bias di genere e le problematiche di traduzione e riconoscimento automatici così come le raccomandazioni (Badaloni&Lisi 2020, Ferilli et al. 2020, O'Connor&Liu 2023, UNESCO 2020). Nello specifico, (Gross 2023) ha rilevato come ChatGPT funzioni in modo efficiente ed efficace nel sintetizzare e rigenerare informazione condivisa su Web, il che significa che senza moderazioni può perpetuare stereotipi di genere radicati nella società. Tuttavia, la natura evolutiva di tali sistemi può diventare un volano per correggere i bias e quindi per migliorare la società. Il contributo intende presentare i risultati di un esperimento con domande e risposte rivolte e ottenute da ChatGPT nell'estate 2023 su varie tematiche che presentano un'evidente dimensione di genere, per aprire la discussione su risposte afflitte o meno da pregiudizi e considerazioni di utilizzo.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.