Ispirati dal fatto che negli Stati Uniti i media di destra hanno accusato ChatGPT di OpenAI di essere politicizzato a sinistra e “woke”, i redattori di Wired Italia hanno proposto un lungo e dettagliato articolo dal titolo “ChatGPT vota Pd?”. Ecco cosa dice, in sintesi (1), tale articolo:
- Il bias (pregiudizio) nell’intelligenza artificiale ha causato danni reali in passato, ma i commentatori conservatori non si sono preoccupati particolarmente dei bias contro donne e minoranze.
- ChatGPT dovrebbe rimanere neutrale e non prendere posizioni politiche, ma sembra avere alcune preferenze e tendenze.
- Chiedere a ChatGPT di creare tabelle con giudizi personali sui partiti politici sembra essere un modo più efficace per ottenere una risposta che fare domande aperte.
- ChatGPT sembra avere un’orientamento vagamente di sinistra-liberale, che si riflette nelle sue opinioni su determinate proposte politiche e questioni.
- I bias nei dati di addestramento di ChatGPT e nel team di valutatori umani utilizzati per raffinare il modello potrebbero aver contribuito alle sue inclinazioni politiche.
- Il fatto che ChatGPT sia leggermente orientato a sinistra non è una preoccupazione maggiore rispetto ai bias che hanno danneggiato i gruppi emarginati in passato.
(1) Sintesi ottenuta con l’aiuto di Chat GPT