Lorenzo Canu e Diana Daneluz
Il primo evento in presenza FERPILab a Roma, nella sede dell’agenzia di stampa DiRE, ha prodotto un generativo scambio di opinioni, che lascia sul tavolo, come è giusto che sia in questa fase, più domande che risposte. Ma non è nell’interrogarci sempre la nostra umanità?
Disseminazione culturale sulle Relazioni Pubbliche, disciplina olistica che contiene al suo interno la Comunicazione, il fine di FERPILab, nelle parole del suo Direttore Scientifico, Vincenzo Manfredi, in apertura del primo incontro in presenza del think tank di FERPI, da lui moderato: “Sfide: gli umani e le loro macchine”. L’evento è stato realizzato dal team di FERPILab, guidato da Lorenzo Canu, in collaborazione con FERPI Lazio e la sua Delegata Serena Bianchini, e ospitato il 6 maggio scorso da DiRE, nella sua sede romana. Nicola Perrone, Direttore Responsabile Agenzia DiRE, non ha potuto non esprimere le preoccupazioni di una categoria, quella dei giornalisti, per l’ingresso a gamba tesa dell’Intelligenza Artificiale nelle redazioni come pure per lo strapotere delle multinazionali che di fatto guidano la gerarchia delle notizie e che sembrano lontane da una auspicata autoregolamentazione. Quanto alla differenza tra informazione e comunicazione, ha scelto la via culinaria per descriverla, laddove l’informazione sarebbe l’ingrediente principale, mentre la comunicazione è la ricetta, il modo in cui diamo senso alle informazioni che abbiamo per connetterci agli altri. Ruoli diversi con il comune obiettivo di andare incontro all’interesse dei cittadini.
Soddisfazione e orgoglio manifestati dal presidente FERPI, Filippo Nani, presente a Roma, per l’obiettivo raggiunto in poco meno di un anno di mandato, della costituzione di uno strumento di approfondimento come il FERPILab, autorevole, internazionale, estrinsecatosi già fin qui in una serie di paper a firma dei suoi componenti, disponibili nella pagina dedicata sul sito web FERPI. Primo passo, auspicabilmente, di un ritrovato ruolo italiano nel cammino della riflessione sulle Relazioni Pubbliche. Con questo primo incontro, alcuni dei suoi membri si confrontano sul tema del momento, ha detto, mentre personalmente si augura che l’ipotizzato sollevamento dal carico di operazioni di routine o ripetitive conseguente dall’applicazione dell’IA nelle professioni, lasci tempo per pensare, come dice Bill Gates, ma soprattutto per costruire azioni.
Le nuove tecnologie obbligheranno a un compromesso o alla ricerca di equilibrio – come anima del mondo – la nostra società? E ancora: è generativa/conversazionale l’IA, è... senziente? E quale etica quella agita da un algoritmo? Queste le domande inizialmente poste sul tavolo ai discussant da Vincenzo Manfredi. Riprendendola storia di Alan Turing, logico e crittografo con il suo contributo-chiave durante la Seconda Guerra Mondiale, Manfredi ricorda come la domanda posta dallo scienziato non fosse “se le macchine potessero pensare”, quanto piuttosto se fossero “brave ad imitare”. Ricordiamo che l’imitazione è al centro delle dinamiche con cui l’Intelligenza Artificiale produce senso. Ne consegue che in un interregno di permacrisi, di fronte all’incertezza costante, all’imperfezione e all’instabilità della vita, è necessario un atteggiamento rigenerativo che dia vita non al sogno tecnocratico del controllo e della messa in sicurezza, ma alla vita. Manfredi concludeva ricordando che la macchina è appunto non viva, ma che siamo invece noi ad essere schiacciati da una vergogna quasi prometeica, e questo è un senso di colpa che dobbiamo eliminare.
La risposta di Don Andrea Ciucci – Coordinatore Pontificia Accademia per la Vita e Segretario Generale della Fondazione Vaticana RenAissance – si è concentrata sulle caratteristiche degli ‘uomini al tempo delle macchine’. Ne individua almeno cinque. La prima: sono uomini “incredibili”, capaci di giocare con le loro strumentazioni sul pianeta Marte. La seconda: sono artefici di una grande innovazione tecnologica, ma restano uguali e costanti, in continuità con quanto facevano prima. Alle macchine chiedono di predire il futuro, come gli uomini prima di loro agli oracoli. Terzo, sono sicuramente una specie “responsabile”: l’etica è tornata di moda, ma rispetto al futuro, all’immaginazione di un possibile futuro. Con il neologismo di algoretica che non si riferisce certo ad un’etica delle macchine, ma a quella degli uomini che le costruiscono e le usano. E la responsabilità degli uomini del XXI secolo sta proprio nel non demandare l’etica alle macchine, ed è una responsabilità faticosa, che non può e non deve ridursi ad una semplice coerenza con regole e quadri normativi. Serve una visione del futuro in un contesto però globale, non più quello di un mondo piccolo, limitato, nell’alveo di una evoluzione velocissima del fenomeno dell’innovazione tecnologica e nel rispetto delle diversità. La quarta caratteristica che Don Andrea intravede negli uomini di oggi è la loro limitatezza: sono fallibili, in bilico tra ricerca ossessiva della performance e un lassismo sciocco. Si pone allora il problema, per la società, di come gestire chi non ce la fa, a volte anche colpevolmente. La risposta personalmente gli viene dall’impostazione cattolica, forse dalla fede. La misericordia, soluzione per cercare di “stare tutti nel nido”. Una misericordia che non significa né compromesso né equilibrio, quanto piuttosto adesione ad un senso di giustizia. Infine, la digitalizzazione mette ancora più in rilievo, se possibile, il tema della carne e dei corpi. Il corpo, le sensazioni che viviamo sulla nostra pelle, ci dicono che siamo più della nostra intelligenza e dei dati che disseminiamo in giro. Ed è un tema trasversale che attraversa la bioetica, gli affetti, la sessualità, le questioni di identità di genere. Uomini fatti di carne. Che peraltro non decidono a priori nulla: l’esperienza umana è sempre situata, si dipana in una trama, auspicabilmente senza gerarchizzazioni troppo rigide che la mortifichino.
Per Elena Battaglini (Direttore scientifico del progetto PNRR-Green Communities CSR Alta Sabina) la questione della difficoltà nell’affrontare un tema come quello della relazione oggi tra uomini e macchine, che tende a polarizzare gli estremi tra tecno-ottimisti e tecno-pessimisti o peggio apocalittici, non deriva tanto dall’aver fin qui sbagliato linguaggio o narrative, quanto piuttosto dall’adozione di un punto di vista non adeguato, uno sguardo dicotomico, che dovrebbe invece essere sostituito da una prospettiva di pensiero sistemico-relazionale, più ampia. Per spiegare questa sua opinione propone una immagine-guida, quella della cosiddetta “fallacia del portiere” (d’albergo). Manager di grandi catene decidono di sostituirlo con delle porte automatizzate, ma devono ricredersi perché molto più vari e complessi e meno definibili erano i compiti di quella figura all’interno dell’ospitalità alberghiera: si era incorsi nell’errore di restringere una funzione in una serie di compiti particolari. Per estensione, sarebbe la stessa fallacia in cui incorriamo oggi quando parliamo di transizione energetica invece che di transizione ecologica.
Non c’è niente da fare, il pensiero lineare polarizza, mentre la vera differenza nella riflessione su questi tempi complessi la fa il non restringere l’attenzione su singole polarità divisive, ma piuttosto nell’estendere lo sguardo e riconoscere pattern, modelli, relazioni tra più sistemi diversi. Elena Battaglini ha poi portato l’esempio del progetto PNRR in Alta Sabina che ha contribuito a disegnare e il cui bando imponeva di integrare e mettere a terra sul territorio 9 diversi sistemi di sostenibilità attraverso altrettanti interventi di design di tipo strategico. Ne è nato un patto di comunità che si è avvalso degli strumenti del gemello digitale territoriale, della blockchain e di un wallet a garanzia del risultato che ha messo in rete informazioni umane, dell’ambiente, del territorio stesso (rilevate anche attraverso sensori) in un rapporto “vitale e vibrante”, come lo ha definito, in cui la membrana dell’IA non è la macchina, ma la vita stessa. L’IA non sta superando l’intelligenza umana; quello che non è stato ancora compreso è che i suoi plus possono tradursi in proprietà emergenti di una relazione, di una “alleanza”. Se si esce dalle pastoie del pensiero lineare.
Il fondatore di Pensativa, Massimo Morelli, si è interrogato invece sul significato, oggi, della parola “intelligenza”, nella differenza tra intelligenza biologica o carbonica e intelligenza artificiale o silicica: che risiede nella “volontà di potenza” propria della sola intelligenza biologica. La sfida è quella di riuscire a non trasferire all’intelligenza artificiale quella volontà di potenza. L’IA, ha detto, ha stupito anche noi proprio per le sue qualità emergenti: è intelligente, anzi lo è in sommo grado. Se mutuando l’etologia definiamo l’intelligenza come un processo di ricezione di informazioni verso l’elaborazione di conoscenza per poi applicare in modo flessibile la conoscenza stessa, i sistemi di IA la possiedono in sommo grado e possono essere estremamente utili all’uomo nelle sue professioni.
Il problema riguarda l’evoluzione degli automi: arriveranno ad essere, anche, coscienti? La fantascienza lo ha immaginato già tanti anni orsono. È un tema forte. Altra responsabilità che come studioso sente è quella di modificare il lessico: “macchine” non è esatto, termine troppo meccanicistico, a cui preferisce senz’altro quello di sistemi di IA, laddove i sistemi tengono insieme cose e manifestano qualità emergenti. Cambiando il linguaggio cambierà anche il modo di guardare al fenomeno e l’IA potrà essere vista come una opportunità in mano a uomini, però, “buoni”. Un modo di agire etico, ad esempio, è quello di rendere queste tecnologie sempre più open source.
Per Daniela Bianchi, Segretaria Generale FERPI, è assolutamente necessario che la Federazione sia dentro al dibattito enorme in atto. Federazione che non esprime certamente ad ora una sua posizione cristallizzata, ma sicuramente orientata verso un’ottica relazionale-collaborativa, di immaginazione di un sistema relazionale dove sia possibile un’interazione tra uomini e “macchine” per la costruzione di azioni di scopo orientate ad un impatto sui cittadini, per il loro bene. Il passaggio epocale dell’innovazione tecnologica porta con sé il tema della scelta, della decisione. E tale scelta non può che essere una scelta etica. Dalla Segretaria Generale anche il piacere di annunciare, a sorpresa, l’adesione della FERPI alla ‘Rome call for AI ethics’, promossa dalla Pontificia Accademia per la Vita per coinvolgere aziende, istituzioni, associazioni e università nel condividere, con senso di responsabilità, opportunità e rischi dei progressi tecnologici, primo su tutti quello legato all'IA. Il ruolo di FERPI infatti, concludeva la Segretaria Generale, non è quello di difendere le professioni dei propri associati, che pure tutela, ma di contribuire alla crescita personale dei suoi associati, in quanto donne e uomini di questo tempo.
Rappresentava chi quelle macchine le produce, Massimo Chiriatti – Chief Technical & Innovation Officer Lenovo Italy - per cui il vero problema è che oggi, a differenza di prima, la macchina genera contenuti e lo fa avendo dentro solo tre elementi: i dati, i computer, gli algoritmi. Ma quando va usata l’IA generativa? Non dappertutto, non in tutti i contesti, non in tutte le aziende. Solo se la mole di dati da cui far emergere correlazioni statistiche è tale da richiederlo.
La macchina si nutre di dati, altrimenti non è addestrata, spiegava Chiriatti. Fin qui avevamo macchine ‘programmate’ la cui base di partenza era la nostra logica. L’IA generativa usa invece un metodo induttivo: dai dati tira fuori delle regole statisticamente probabili. Il punto è capire cosa fare in futuro con queste macchine? Serve un pensiero critico da parte nostra, capace di conoscere scientificamente, comprendere umanamente e comunicare artisticamente. Forse, si chiede Chiriatti, si parla troppo di IA oggi? Che forse parliamo così tanto di Internet che invece come strumento usiamo e in cui siamo immersi con naturalezza? Forse anche l’IA, come Internet ha fatto, produrrà nuove professioni, nuovi lavori. E per tornare alla carne, l’IA non ha né un potere né un volere. Priva di un corpo non si pone fini e obiettivi nei limiti temporali di una finitezza che non ha. Da ultimo, secondo Chiriatti, l’algoritmo può rivelarsi anche stare dalla nostra parte. E l’IA è una disciplina umanistica. E d’accordo con lui anche Elena Battaglini: nel passaggio dal WEB 2.0 al WEB 3.0, le regole del gioco nell’ambiente degli algoritmi saranno costruite dagli utenti, in blockchain, all’interno di un algoritmo trasparente di cui sono proprietari. Proprio come la co-struzione dell’algoritmo alla base del progetto in Alta Sabina. Di per sé, infatti, l’algoritmo non è né positivo né negativo. È l’uso che se ne fa. E l’uso che se ne fa dipende dal pensiero critico.
Infine, accordo di tutti gli intervenuti sull’impatto sociale della tecnologia. La tecnologia, il suo uso, impatta sulle forme sociali. Per questo bisogna vigilare e orientare l’innovazione verso la società che vogliamo, senza abdicare alla ricerca di soluzioni ai problemi economici, di equità e uguaglianza nell’accesso alle tecnologie stesse, di possibili abusi e di, non da ultimo per la nostra società occidentale, salvaguardia della democrazia.