L'algoritmo dell'Uguaglianza
Intervista al professor Ruben Razzante
Il webinar "L'algoritmo dell'uguaglianza" affronta un tema di crescente rilevanza per il mondo delle risorse umane, per i manager e per gli imprenditori: l'impatto dell'intelligenza artificiale (IA) sul modo in cui viviamo e lavoriamo. In questo contesto, l'etica e l'uguaglianza emergono come questioni centrali per le organizzazioni.
Nel corso dell’intervista con il Professor Ruben Razzante – docente di Diritto dell'informazione all’Università Cattolica del Sacro Cuore di Milano e alla Lumsa di Roma, fondatore del portale dirittodellinformazione.it ed editorialista per Il Giorno - La Nazione - Il Resto del Carlino e la Gazzetta di Parma – approfondiamo le sfide e le opportunità legate all’intelligenza artificiale.
Il dialogo si concentra su come garantire la trasparenza degli algoritmi utilizzati nelle aziende e il rispetto dei diritti delle persone, evitando che l'IA amplifichi le discriminazioni esistenti. Particolare attenzione è dedicata al potenziale dell’IA nel promuovere l’inclusività e nel contrastare le disuguaglianze, temi centrali del nuovo libro curato da Razzante, "L’algoritmo dell’uguaglianza. Intelligenza Artificiale, diritti della persona, crescita delle imprese" (Franco Angeli, 2025).
Un breve riassunto dell'intervista al professor Ruben Razzante.
Fulvio Palmieri (F.P.) ha condotto l'intervista al professor Ruben Razzante (R.R.) che riassumiamo qui di seguito:
F.P.: Professore Razzante, cosa l'ha spinta a scrivere questo libro e qual è il messaggio principale che vuole trasmettere?
R.R.: Mi sono chiesto come poter dare un contributo al dibattito pubblico sull’intelligenza artificiale, sia come studioso sia come osservatore. Dopo aver già scritto un libro sull’applicazione giuridica dell’IA, ho ritenuto utile confrontarmi con chi la utilizza in diversi contesti o ne studia i possibili scenari futuri. Ho raccolto i loro contributi in un volume agile, che delinea un percorso virtuoso in cui l’IA può applicare il principio dell’uguaglianza. Il filo conduttore del libro è proprio il potenziale dell’IA come strumento di inclusività, contrasto alle discriminazioni e superamento delle povertà. Persone autorevoli, ma non sempre presenti nel dibattito sull’IA, hanno offerto prospettive originali per arricchire la discussione.
F.P.: L’intelligenza artificiale divide l’opinione pubblica tra ottimisti e allarmisti. Quali sono le percezioni più distorte su questa tecnologia?
R.R.: La divisione nasce dall’assenza di un vero dibattito democratico sull’IA. L’opinione pubblica tende a polarizzarsi, spinta dall’emotività e amplificata dalla rete. Il problema è che manca un confronto serio e strutturato sulle reali implicazioni dell’IA. Questa tecnologia è ormai una dimensione nella quale tutti siamo destinati a immergerci. Serve, quindi, un approccio equilibrato che permetta di distinguere i rischi dalle opportunità e di utilizzarla correttamente, in un’ottica antropocentrica. Quello che mi preoccupa è la superficialità con cui il tema viene spesso trattato: si parla di divieti o di finanziamenti, ma senza spiegare concretamente ai cittadini cosa sta realmente accadendo. Abbiamo bisogno di democratizzare il dibattito e renderlo accessibile a tutti.
F.P.: Come possiamo garantire che l’intelligenza artificiale resti uno strumento a supporto dell’uomo senza prendere decisioni autonome, soprattutto su questioni sensibili?
R.R.: La chiave è preservare la centralità umana fin dal concepimento degli algoritmi. Chi sviluppa l’IA deve fare scelte precise su cosa e come costruire le soluzioni tecnologiche. La vera sfida è addestrare gli algoritmi sin dall’inizio nel rispetto dei diritti fondamentali: uguaglianza, lotta alle discriminazioni, diritto al lavoro e alla salute, privacy. È chiaro che le aziende puntano al profitto, ma questo non può avvenire a discapito dei valori umani. Dobbiamo anche essere consapevoli che, senza un’azione efficace sui grandi player mondiali, i nostri discorsi restano teorici. Non bastano le leggi: le macchine devono essere progettate con saggezza e responsabilità, ponendo limiti chiari fin dalla costruzione degli algoritmi.
F.P.: Parliamo di regolamentazione: come possiamo colmare il divario tra la rapidità dell’IA e l’evoluzione giuridica?
R.R.: C’è un disallineamento evidente tra la velocità dell’innovazione tecnologica e quella del diritto. Il legislatore fatica a stare al passo e, spesso, le norme nascono già obsolete o difficilmente applicabili. Non possiamo affidarci esclusivamente alla legge: servono anche strumenti di soft law, forme di autodisciplina e autoregolamentazione che permettano di bilanciare il rispetto delle regole con le esigenze economiche delle imprese. Lo sviluppo dell’IA deve generare valore e ricchezza, ma senza calpestare i diritti fondamentali. L’AI Act europeo sta cercando di trovare questo equilibrio e, auspicabilmente, entro il 2026 si arriverà a una regolamentazione più chiara e applicabile.
F.P.: L’intelligenza artificiale può favorire l’inclusione, ma anche amplificare le disuguaglianze. Quali strategie possiamo adottare per evitare che diventi uno strumento di discriminazione?
R.R.: La questione centrale è l’addestramento degli algoritmi. Già oggi, gli algoritmi non sono neutrali: riflettono visioni del mondo diverse, come quella americana e quella europea. L’obiettivo deve essere rendere l’IA uno strumento di inclusione e accessibilità universale, garantendo che i servizi siano fruibili equamente da tutti. Bisogna abbattere le discriminazioni basate su fattori come reddito, etnia, credo religioso o orientamento sessuale. Il rischio è che i pregiudizi del mondo reale vengano trasportati nella tecnologia, rendendola uno strumento che amplifica le disparità sociali anziché ridurle. La sfida dell’inclusività è cruciale per garantire un futuro più equo.
F.P.: Quale consiglio darebbe a chi deve integrare l’intelligenza artificiale nei processi decisionali, garantendo etica, trasparenza e centralità della persona?
R.R.: Prima di tutto, bisogna studiare l’intelligenza artificiale in modo approfondito e multidisciplinare. Non possiamo limitarci a comprenderne solo un aspetto. Solo attraverso la conoscenza possiamo utilizzarla in modo responsabile, evitando eccessi, discriminazioni e pregiudizi. Il mio consiglio è capire a fondo il funzionamento della tecnologia e poi individuare le modalità migliori per applicarla in modo costruttivo, flessibile e consapevole, al servizio del progresso individuale e collettivo. Senza studio e approfondimento, si rischia di cadere in opinioni superficiali e fuorvianti.
F.P.: In fondo, non esistono strumenti buoni o cattivi di per sé. Dipende sempre da come vengono utilizzati. Oggi, però, la maggior parte delle persone non ha una vera consapevolezza di cosa sia davvero l’intelligenza artificiale.
R.R.: Esattamente. Non ci sono mezzi intrinsecamente virtuosi o diabolici, ma strumenti complessi che devono essere compresi e padroneggiati nel tempo. L’IA deve rimanere al servizio dell’uomo, contribuendo a migliorare il benessere individuale e collettivo. Questa è la vera sfida dell’innovazione tecnologica.
Cosa abbiamo imparato?
L’intervista con il Professor Ruben Razzante ha evidenziato come l’intelligenza artificiale rappresenti una trasformazione epocale con un enorme potenziale per l’uguaglianza e l’inclusione, ma anche rischi significativi di amplificare le disuguaglianze esistenti. È cruciale affrontare il dibattito sull’IA con una comprensione approfondita e multidisciplinare, superando le polarizzazioni e le informazioni superficiali.
La centralità della persona e la tutela dei diritti fondamentali devono guidare lo sviluppo e l’applicazione degli algoritmi fin dalla loro concezione. Oltre alla regolamentazione giuridica, servono anche forme di autodisciplina e autoregolamentazione per bilanciare innovazione e valori etici. La sfida più importante è rendere l’IA uno strumento di inclusione e accessibilità universale, combattendo i pregiudizi e garantendo un trattamento equo per tutti.
La chiave per un futuro in cui l’IA sia al servizio del progresso umano risiede nella conoscenza, nella consapevolezza e nell’uso responsabile di questa tecnologia.