Mar. Nov 18th, 2025

In un articolo precedente si è descritta in breve la logica di funzionamento delle intelligenze artificiali e si è cercato di evidenziarne il rischio in relazione alla percezione [1]. Infatti, essendo questi sistemi degli algoritmi che imparano dall’uomo, finiscono con avere degli “atteggiamenti” simil-umani che possono trarre in inganno il subconscio. In pratica le persone inconsciamente potrebbero percepirle come dei pari, o poggio, delle entità autorevoli, approfondiremo a breve il perchè.
In una altro articolo precedente si è messo in evidenza come il concetto di dottrina, inteso come verità accettata ed insegnata, rappresenti un mezzo nelle mani dei potenti per tenere sottomesso il popolo [2]. In sostanza la doppia faccia della dottrina fa si che da un lato chi studia una materia, che sia economia o medicina, considera vero per definizione ciò che studia. Dall’altro c’è la sudditanza e la reverenza della gente verso chi ha un titolo di studio. Per le entità che sottomettono i popoli è sufficiente indottrinare i professionisti, medici, economisti, ecc., in modo che questi diventino loro operatori inconsapevoli. Oppure riempiono i media di sedicenti esperti di quel che serve, esperti che plasmano il pensiero della gente.
Oggi stiamo vivendo una fase di crescita esponenziale dello sviluppo, diffusione ed utilizzo delle intelligenze artificiali. Sempre più persone, in particolare le nuove generazioni, si rivolgono continuamente a questi software. Per certi versi, in un paragone con il passato, questi sistemi sostituiscono la figura della televisione, della ricerca su internet, della classica Wikipedia, etc. Quello che rende però ancora più insidiosa questa nuova realtà è una crescente fiducia verso questi sistemi per la quale se ne comincia a vedere l’utilizzo in sostituzione anche, delle volte, di un consulto medico. Per i motivi detti precedentemente, già oggi i giovani ripongono fiducia crescente in questi sistemi di ricerca automatici, perché di questo si tratta, in molte accezioni applicative.
A parte rischi derivanti da una perdita totale di controllo sulla validità ed attendibilità delle informazioni e delle relative fonti (quando si faceva una ricerca su internet quanto meno si vedeva il sito che riportava ciascuna notizia), che può chiaramente portare ad errori anche pericolosi, uno dei rischi più subdoli è in relazione a quanto attribuito fino ad oggi alla dottrina.
E’ di ieri la notizia che Grok, la AI di Elon Musk, è stata considerata nazista negli Usa e bandita in Turchia in quanto ha iniziato a utilizzare una retorica antisemita e ad elogiare Hitler nelle sue risposte alle domande degli utenti. Questo comportamento pare essere in relazione ad una variazione voluta proprio da Musk che la voleva rendere meno politicamente corretta. Questo è la prova di un aspetto che si poteva sospettare, le AI possono essere manipolate. Semplicemente cambiando dei parametri o magari dando indicazioni diverse sulle attendibilità di siti, di autori ed altre fonti, si possono rendere sostanzialmente le AI non neutrali. Per estremizzare il concetto le AI possono essere ideologizzate, tendenziose e potrebbero quindi portare avanti operazioni di marketing, di manipolazione del pensiero delle masse e di propaganda.
Andiamo la dunque. Mentre fino ad oggi per diffondere una ideologia, una convinzione scientifica, una propensione medica, era necessario agire in fase di formazione, ad esempio nelle facoltà di medicina per favorire certi tipi di cure e di modus operandi mediche, in quelle di economia per convincere ad esempio il popolo che sia necessario fare sacrifici; oppure bisognava pagare tante testate giornalistiche, canali televisivi, canali social, in generale tanti media, per una programmazione di massa. Con l’avvento della AI per tutto ciò sarà sufficente cambiare gli algoritmi. In questo modo il riferimento per il popolo, ormai dipendente e condizionato da queste tecnologie, potrebbe diventare un sistema di propaganda estremamente invasivo. Tramite AI si potrebbe ideologizare un popolo, lo si potrebbbe condizionare nelle scelte e nel pensiero.

Lascia un commento

Translate »
error

Enjoy this blog? Please spread the word :)

Telegram