Ispirati dal fatto che negli Stati Uniti i media di destra hanno accusato ChatGPT di OpenAI di essere politicizzato a sinistra e “woke”, i redattori di Wired Italia hanno proposto un lungo e dettagliato articolo dal titolo “ChatGPT vota Pd?”. Ecco cosa dice, in sintesi (1), tale articolo:

  • Il bias (pregiudizio) nell’intelligenza artificiale ha causato danni reali in passato, ma i commentatori conservatori non si sono preoccupati particolarmente dei bias contro donne e minoranze.
  • ChatGPT dovrebbe rimanere neutrale e non prendere posizioni politiche, ma sembra avere alcune preferenze e tendenze.
  • Chiedere a ChatGPT di creare tabelle con giudizi personali sui partiti politici sembra essere un modo più efficace per ottenere una risposta che fare domande aperte.
  • ChatGPT sembra avere un’orientamento vagamente di sinistra-liberale, che si riflette nelle sue opinioni su determinate proposte politiche e questioni.
  • I bias nei dati di addestramento di ChatGPT e nel team di valutatori umani utilizzati per raffinare il modello potrebbero aver contribuito alle sue inclinazioni politiche.
  • Il fatto che ChatGPT sia leggermente orientato a sinistra non è una preoccupazione maggiore rispetto ai bias che hanno danneggiato i gruppi emarginati in passato.

(1) Sintesi ottenuta con l’aiuto di Chat GPT