Pubblichiamo il documento sviluppato dall’Associazione Culturale Studium Fidei, sotto la guida del teologo varesino Don Ettore Malnati e dal Comitato Etico e Tecnico-Scientifico, focalizzato sull’impatto dell’Intelligenza Artificiale nella società.
La documentazione nasce nella città di Trieste, ed è stata concepita per promuovere un utilizzo etico e rispettoso dei principi deontologici dell’Intelligenza Artificiale nei vari settori della società.
L’obbiettivo della Carta di Trieste sulla Intelligenza artificiale
L’Intelligenza artificiale (IA) è una branca dell’informatica che si occupa di creare sistemi capaci di svolgere compiti che, fino a poco tempo fa, si credeva potessero essere eseguiti solo dall’intelligenza umana; questi includono la risoluzione di problemi, il riconoscimento di schemi, l’apprendimento e la comprensione del linguaggio naturale.
Tuttavia, nonostante i rapidi progressi tecnologici, l’IA non è una entità onnisciente e onnipotente, ma uno strumento creato e guidato dall’uomo, con limiti e potenzialità definiti.
Per massimizzare i benefici dell’intelligenza artificiale, è fondamentale una comunicazione chiara e accessibile sull’argomento; sviluppare sistemi di conoscenza per la comunità sull’IA, spiegando in modo trasparente cosa può e non può fare, aiuta a costruire una base di conoscenza comune e a demistificare le tecnologie coinvolte. Questo approccio incoraggia un dialogo aperto, riducendo le resistenze e promuovendo un’adozione consapevole e razionale dello strumento.
L’idea che l’IA possa sostituire completamente l’essere umano in tutte le sue funzioni è un mito da sfatare; l’intelligenza artificiale eccelle nell’automatizzare compiti ripetitivi e nell’analizzare grandi volumi di dati, ma è priva di empatia, giudizio morale e creatività intrinseca, qualità unicamente umane.
Pertanto, l’IA dovrebbe essere vista come un complemento alle capacità umane, un assistente che semplifica la vita quotidiana e libera tempo per attività più significative.
Uno dei maggiori timori legati all’avanzamento dell’IA è l’incidenza negativa sul mantenimento dei posti di lavoro; è indiscutibile che l’automazione possa sostituire alcune funzioni lavorative, ma è anche vero che crea nuove opportunità.
Il vero obiettivo dovrebbe essere quello di raggiungere un equilibrio, dove la IA assume i compiti più meccanici e ripetitivi, permettendo agli esseri umani di dedicarsi a lavori più gratificanti e creativi, arricchendo così la natura del lavoro stesso.
La trasformazione indotta dalla IA nel mondo del lavoro richiede politiche proattive per la riconversione e l’aggiornamento delle competenze, garantendo che “nessuno venga lasciato indietro”.
La formazione continua e l’adattabilità diventano essenziali per gestire al meglio questo nuovo panorama lavorativo.
L’intelligenza artificiale rappresenta una nuova frontiera del progresso umano, con il potenziale di migliorare significativamente la nostra vita quotidiana. Tuttavia, la realizzazione di questo potenziale richiede un approccio che consideri gli impatti etici, regolatori, sociali ed economici della IA.
La Carta di Trieste, redatta in forma libera con l’apporto di competenze trasversali, si prefigge l’obiettivo di contribuire a fissare alcuni principi che possano indirizzare le politiche future in materia di IA, ponendo al centro l’agire dell’uomo quale presupposto essenziale nello sviluppo ed applicazione della medesima.
* * * *
Art. 1 IA ed Etica e principi fondamentali
La persona umana ha la sua identità specifica come “sostanza individua di natura razionale” o, meglio, “il sussistente di natura razionale”.
Il suo agire è, e deve essere, frutto di libera responsabilità conforme ai principi fondamentali della retta coscienza.
È auspicabile e legittimo che l’essere razionale e relazionante, cioè la persona umana, “spazi” nella ricerca scientifica.
Il frutto della ricerca scientifica, oltre alla conoscenza in sé e per sé, dovrebbe essere orientato a vantaggio dei soggetti e dell’intera collettività, secondo l’oggettivo ordine etico.
L’intelligenza artificiale è, e deve essere, un aiuto in ogni settore dell’agire e del progettare della persona umana e non deve sostituirsi all’Intelligenza naturale.
L’Intelligenza artificiale deve essere orientata da algoritmi rispettosi della dignità della persona umana qual è, alla luce della verità e della libertà.
È più che doverosa una legislazione internazionale che tuteli il rapporto subordinato dell’intelligenza artificiale alla razionalità dei soggetti umani nel rispetto e nella promozione della dignità della persona nell’etica e nella libertà individuale e di pensiero.
Art. 2 IA e diritti fondamentali della persona
La tutela e la promozione dei valori indivisibili e universali della dignità umana, di libertà, di uguaglianza e di solidarietà, quali riconosciuti nelle Carta Fondamentali, devono rappresentare la misura ed il fine della IA, declinandosi tali valori, nel loro rapporto con la IA, nel diritto dell’uomo a non essere intaccato nella propria sfera giuridica soggettiva da un processo robotico che sia frutto esclusivo di algoritmi e automazioni che possano determinare nella loro applicazione effetti discriminatori e non proporzionati.
La IA non può essere dotata di autonoma volontà né di personalità giuridica; il suo utilizzo trova limite nella tutela e nella promozione dei diritti fondamentali della persona quali valori universali che, nell’utilizzo della IA, trovano tutela nella riserva di umanità per il controllo della decisione robotica.
I principi democratici e di partecipazione propri degli stati di diritto richiedono che l’esercizio dei pubblici poteri mediante la IA osservi il principio di trasparenza dell’algoritmo e degli elementi decisionali riservati all’uomo, in modo tale da consentirne la verifica all’interno degli elementi del controllo democratico nel rispetto dei principi di eguaglianza, parità e non discriminazione.
L’umanesimo digitale e l’etica informatica devono, quindi, porsi come limite alla delega alla IA dell’esercizio di pubbliche funzioni che incidono sui diritti fondamentali delle persone.
Art. 3. IA ed i principi di trasparenza dell’algoritmo, della neutralità e rispetto dei dati personali e del libero accesso alla infrastruttura
Il principio di trasparenza dell’algoritmo, della neutralità e del libero accesso all’infrastruttura devono essere riconosciuti espressamente dalla futura regolazione e garantito a tutti i soggetti con modalità ed a costi equi, senza imporre in nessuna misura all’interessato il rilascio di un consenso al trattamento dei propri dati personali al fine di evitare il pagamento per il loro utilizzo, garantendo l’impiego delle reti sociali digitali anche al fine della fruizione dei servizi pubblici forniti dalla Pubblica amministrazione.
Art. 4 IA e libertà e tutela della informazione giornalistica
L’informazione è un presidio di democrazia e in tal senso va tutelata.
A tale fine, l’IA può essere un valido ausilio per coadiuvare e non sostituire il lavoro dei giornalisti.
La produzione giornalistica di qualunque tipo o genere a mezzo della IA deve rispettare le norme deontologiche volte a tutelare i diversi attori dell’informazione.
I contenuti giornalistici sono garantiti dal diritto d’autore e non possono essere utilizzati per la creazione di testi privi di indicazione della fonte; gli articoli prodotti dall’IA vanno chiaramente identificati per consentire ai lettori un’informazione consapevole. È altresì indispensabile che venga certificato in quali video si è utilizzata l’IA per le traduzioni in diverse lingue, quando si è tradotto con il morphing (facendo sì che la persona ripresa parli lingue che non conosce e che risulti muovere la bocca in accordo con le suddette lingue), quando siamo in presenza di un eventuale Avatar. Altrettanto indispensabile è certificare le immagini create dall’IA in quanto tali e l’adozione di sistemi che la stessa IA è in grado di offrire per individuarle distinguendole dalle immagini non modificate o non false.
Per quanto riguarda l’informazione/comunicazione sulle piattaforme Social gli organi di informazione e le Pubbliche Amministrazioni devono indicare se si è utilizzata l’IA nella produzione dei post informativi. È fondamentale che l’uso dell’IA non porti a una deresponsabilizzazione editoriale collettiva, offuscando la verità delle cose e manipolando così l’opinione pubblica.
La presenza dei minori nei social media deve rispettare le norme poste dal legislatore a tutela dei più deboli nei settori dell’informazione anche audiovisiva, della comunicazione e in ambito cinematografico.
Art. 6 IA e tutela della salute
Si riconosce che l’IA può essere uno strumento molto utile in medicina sia per la salute della singola persona, permettendo l’acquisizione di dati seriati e consentendo la loro successiva elaborazione, sia per la gestione ed interpretazione della mole di informazioni sanitarie acquisite, definita nel complesso Health Big Data.
Lo strumento dell’IA rappresenta oggi un’opportunità senza precedenti che può portare a fondamentali miglioramenti sia nel campo diagnostico che della terapia.
In quanto tecnologia sanitaria, l’IA applicata alla Salute in tutte le sue possibili espressioni (ricerca, monitoraggio, prevenzione, erogazione di terapie) necessita di essere sviluppata attraverso una fase preclinica, clinica pilota e clinica allargata, prima di essere rilasciata all’uso corrente nella vita quotidiana.
Nel rispetto delle regole sulla Privacy, i sistemi devono rendere i pazienti soggetti anonimi.
È necessaria una formale valutazione (Health Technology Assesment) comprensiva delle sue implicazioni etiche, legali e sociali, che quindi implica una “supervisione umana” del tutto.
L’ IA è strumento di supporto, non sostitutivo del clinico che rimane l’unico centro di imputazione della “responsabilità della scelta” che ricade sui professionisti sanitari.
È quindi essenziale che i professionisti sanitari vengano adeguatamente formati per l’uso corretto dei software di IA.
E’ essenziale altresì che l’uso comune dell’IA per ottenere risposte a quesiti clinici con l’uso di motori di ricerca aperti al pubblico consideri che la formulazione di domande di tipo medico non adeguatamente poste e contestualizzate possono portare a risposte assolutamente non adeguate che minano il rispetto del diritto alla salute; ogni decisione clinica, che deve tener conto di una attenta raccolta dell’anamnesi, del contesto clinico e sociale, della disponibilità di risorse, dovendosi riservare ai soggetti delle professioni sanitarie la decisione finale.
ART. 7 IA ed economia
Al fine di definire e attuare il piano strategico italiano sull’IA, si sottolinea l’importanza di valorizzare la predominanza di micro, piccole, medie imprese e startup innovative, adottando quindi politiche calibrate sulle loro specifiche Implementare queste strategie posiziona l’Italia all’avanguardia nell’adozione diffusa dell’ IA nel suo intero tessuto economico, promuovendo un ecosistema di collaborazione tra imprese tradizionali, startup innovative e centri di ricerca. Questo approccio consente non solo un avanzamento tecnologico, ma anche lo sviluppo di un tessuto imprenditoriale più resiliente e competitivo a livello internazionale.
L’obbiettivo va perseguito attuando alcune politiche attive che si possono sintetizzare in:
– Creazione di Hub Nazionali di IA diffusi su tutto il territorio italiano per l’incontro domanda e offerta di competenze tecnologiche specializzate sull’IA;
– La formazione specializzata per sviluppare le competenze necessarie offrendo programmi specifici sull’IA, dal machine learning, dell’analisi predittiva, assicurando che le PMI non solo adottino l’IA, ma la integrino pienamente nelle loro strategie aziendali;
– Sostenere le tecnologie abilitanti e l’utilizzo di dati sintetici, per sostenere le imprese nella competizione anche dimensionale che è elemento discriminante nell’accesso e nell’utilizzo delle risorse.
Art. 8 IA e diritto d’autore
Nel campo delle opere dell’ingegno la IA attinge a database contenenti un’enorme quantità di dati, che vengono riversati e ricombinati per dare vita a nuove composizioni sulla base degli input ricevuti dagli utilizzatori, senza però l’autorizzazione dei titolari dei diritti.
Il diritto d’autore protegge le opere dell’ingegno che siano espressione della personalità di un autore – persona fisica. Lo stesso vale per le elaborazioni di un’opera originaria, le cd. opere derivate, la cui realizzazione, peraltro, richiede sempre il consenso dell’autore dell’opera originaria.
Deve essere posto l’obiettivo che, non avendo l’IA personalità giuridica, dovrebbe essere evitato che le creazioni originali dell’IA, né alle elaborazioni di creazioni umane realizzate dalla sola IA possano essere oggetto di attribuzione di un diritto d’autore, prevedendosi forme rafforzate di tutela del diritto d’autore anche nell’ambito delle piattaforme digitali.
L’utilizzo di sistemi di IA generativa nell’ambito delle opere dell’ingegno dovrebbe imporre la preventiva autorizzazione del titolare del diritto d’autore e del soggetto titolare dei diritti connessi e di quelli relativi all’output realizzato grazie alla IA.
Va tutelata la stessa buona fede del pubblico, affinchè sia in grado di discernere fra creazioni artificiali e creazioni “umane”.
Per prevenire un uso “abusivo” dei sistemi di IA, oltre a implementare sistemi di verifica dei consensi all’uso di voci e opere protette, vanno introdotti metodi per segnalare agli utenti finali che un determinato testo, brano o immagine è stato realizzato grazie all’impiego dell’Intelligenza artificiale.
Art. 9 IA e guerra
L’uso dell’IA nelle guerre sta diventando sempre più consistente con conseguenze drammatiche. Ci si affida all’algoritmo per l’individuazione degli obiettivi da colpire, con esiti spesso devastanti sulla popolazione civile. La “spersonalizzazione” delle azioni militari offensive, il venir meno del fattore umano, il massiccio utilizzo di droni, sta rendendo la guerra – già di per sé un attentato terribile contro la dignità umana – ancor più disumana. È necessaria una riflessione comune che porti a trattati internazionali condivisi per il controllo di questi strumenti, accordi simili a quelli che già bandiscono l’utilizzo di alcuni armamenti.
Art. 10 IA e responsabilità per il suo utilizzo
È obiettivo primario definire un sistema regolatorio che individui le responsabilità in caso di decisioni sbagliate e dannose assunte dalla IA.
Sviluppatori e progettisti: coloro che creano e sviluppano l’IA potrebbero essere ritenuti responsabili se il danno è dovuto a difetti dell’algoritmo.
Proprietari e gestori dell’IA: coloro che utilizzano o gestiscono l’IA potrebbero essere considerati responsabili se il danno è avvenuto durante l’utilizzo o a causa di decisioni prese attraverso l’IA, soprattutto nel caso abbiano contribuito allo sviluppo e alla personalizzazione del sistema.
Fornitori di dati: se il danno fosse causato da informazioni errate o pregiudizievoli fornite all’IA, anche i fornitori di dati potrebbero essere coinvolti nella responsabilità.
Utenti finali: se l’utente finale non seguisse le istruzioni corrette o avesse utilizzato in modo improprio l’IA, potrebbe essere considerato egli stesso corresponsabile.
STUDIUM FIDEI – PROMOTORI E COMPONENTI DEL COMITATO: Mons. Ettore Malnati, teologo, già vicario episcopale; Andrea Bulgarelli, giornalista ed esperto di comunicazione e social media
COMITATO; Luca Bortolussi, docente universitario di Informatica; Claudia Cappelli, medico; Gabriele Cont, medico; Francesco De Filippo, giornalista e scrittore; Michele Grisafi, avvocato; Francesco Longo, docente universitario di Fisica sperimentale; Patrizia Marinelli, esperta di scienze sociali; Gloria Pietropolli, ricercatrice in Intelligenza artificiale; Manlio Romanelli, imprenditore digitale; Vittorio Sgueglia della Marra, giornalista esperto di social-media; Michele Sponza, musicista e imprenditore; Giovanni Tomasin, giornalista; Laura Travan, medico; Alessandro Tudor, avvocato; Elisabetta Zaccolo, giornalista