L’algoritmo politically correct: quando l’IA riscrive la storia?

La notizia dell’inibizione da parte di Google di risultati generati da IA per la ricerca “does trump show signs of dementia” (ID: 5) solleva interrogativi profondi sul ruolo che l’intelligenza artificiale sta assumendo nella nostra percezione della realtà, e soprattutto, sulla sua potenziale strumentalizzazione politica. Non si tratta più solamente di una questione di accuratezza o di bias intrinseci negli algoritmi, bensì di una censura preventiva, un intervento attivo nella formazione dell’opinione pubblica.

La neutralità dell’IA è una chimera. Gli algoritmi sono creati da esseri umani, addestrati su dati selezionati e governati da criteri che riflettono, inevitabilmente, le scelte e i valori dei loro sviluppatori. In questo caso specifico, Google sembra aver optato per una forma di auto-censura, forse per evitare controversie o accuse di interferenza politica. Ma il precedente è pericoloso. Chi decide quali argomenti sono troppo “sensibili” per essere gestiti dall’IA? Quali voci devono essere silenziate per proteggere la presunta stabilità del dibattito pubblico?

Il problema non è tanto che Google non mostri risultati AI per una determinata query, ma che lo faccia. E che lo faccia selettivamente. La trasparenza degli algoritmi è fondamentale per comprendere come vengono prese queste decisioni. Se l’IA diventerà uno strumento di propaganda, manipolazione o censura, la sua credibilità e il suo potenziale trasformativo ne risulteranno irrimediabilmente compromessi.

Dovremmo chiederci se stiamo affidando all’IA un potere eccessivo, delegando a macchine la responsabilità di filtrare e interpretare la realtà. E soprattutto, dovremmo vigilare affinché l’intelligenza artificiale non diventi un’arma nelle mani di chi cerca di controllare il racconto della storia, riscrivendola a proprio vantaggio. La libertà di informazione, anche quella generata da una macchina, non dovrebbe essere compromessa da logiche politiche o interessi di parte.