Introdurre l’intelligenza artificiale nei processi aziendali, a prescindere dai settori di attività, è la nuova sfida che può fare la differenza sul mercato. In Europa si fa ancora resistenza, come emerge da uno studio di Gallup. Capire cosa significa utilizzare questa nuova tecnologia è il primo passo fondamentale.

Sembra inevitabile. Il confronto con l’impatto dell’Intelligenza Artificiale da parte delle aziende, in qualsiasi ambito siano impegnate, sta diventando sempre più strategico. L’elemento cui prestare attenzione in questo momento storico, però, non risiede tanto nella tecnologia in sé, quanto piuttosto nella preparazione culturale di un’azienda e nella sua prontezza a sposare e sfruttare questa innovazione.
Il Culture of AI Benchmark Report pubblicato recentemente da Gallup, istituto statunitense per le ricerche statistiche e l’analisi dell’opinione pubblica, offre un’analisi dei motivi per cui alcune aziende eccellono nell’adozione di tecnologie avanzate, mentre altre restano indietro. Lo studio si è concentrato in particolare su 40 grandi realtà europee, che rappresentano collettivamente $ 1,3 trilioni di fatturato e oltre 3 milioni di dipendenti.
Ne è emerso che in Europa le aziende sono indietro rispetto ad altre regioni nel mondo che invece si stanno dimostrando più competitive. Circa la metà dei leader d’azienda intervistati ha dichiarato di sentirsi a suo agio nell’utilizzare l’IA, ma 6 aziende su 10 hanno affermato che i loro team direttivi presentano alcune difficoltà. Inoltre, 7 leader su 10 hanno affermato che i loro dipendenti non sono ancora pronti per lavorare con l’IA.
Sconfiggere la resistenza al cambiamento
In questo momento affrontare la resistenza culturale di fronte a un cambiamento così radicale si dimostra dunque il passaggio fondamentale. Dallo studio emerge infatti che il ritardo nell’adozione dell’Intelligenza Artificiale in Europa non sia dovuto alla mancanza di risorse finanziarie, bensì piuttosto al fatto che le culture aziendali non siano ancora pronte ad accettare questo nuovo approccio.
La tecnologia sta cambiando rapidamente, ma la mentalità non sta tenendo il passo, come emerge dal report Gallup: circa 4 leader su 10 hanno dichiarato che la loro azienda non ha la prontezza per gestire una tale innovazione, mentre quasi 6 su 10 sentono che manca ancora qualcosa. Senza una preparazione culturale adeguata, le aziende europee faticheranno nella competizione internazionale.
Gallup ha individuato quattro condizioni necessarie affinché un’azienda possa accogliere con prontezza l’IA al suo interno:
- Prontezza sistemica, ovvero l’insieme di sistemi, processi e rituali che influenzano l’intera organizzazione nell’impiego di tecnologie avanzate.
- Prontezza della leadership, ovvero di quei manager e dirigenti alla guida dell’organizzazione che ne possono ispirare l’adozione.
- Prontezza del team, ovvero del personale operativo che integra tecnologie avanzate nel lavoro quotidiano.
- Prontezza delle Risorse Umane, ovvero della divisione che sviluppa e fornisce la cultura necessaria per gestire le tecnologie avanzate.

intelligenza artificiale: conoscerla bene per usarla meglio
Come rivela il report di Gallup, agli albori di una tecnologia rivoluzionaria le aziende hanno molto da imparare perché c’è ancora parecchia confusione a riguardo, a partire da quali tipi di IA esistono al momento. Attualmente, “l’approccio tradizionale è quello simbolico, che deriva dalla logica e procede attraverso la manipolazione di simboli” spiega la ricercatrice Daniela Tafani, che insegna Etica e politica dell’intelligenza artificiale e Storia della filosofia politica all’Università di Pisa.
E continua: “È utile per molti compiti, ma non consente di trattare funzioni, come per esempio il riconoscimento delle immagini. Nessuno di noi, ad esempio, è in grado di elencare le caratteristiche che ci consentono di distinguere un cane da un gatto, malgrado abbiamo imparato facilmente a farlo, fin da bambini. I sistemi sub-simbolici come i sistemi di apprendimento automatico (machine learning) non richiedono invece simili istruzioni; sono sistemi di natura sostanzialmente statistica, che consentono di costruire modelli a partire da esempi, purché si abbiano a disposizione potenti infrastrutture di calcolo ed enormi quantità di dati.”
“Anziché essere ‘istruiti’ dal programmatore, ‘imparano’ – o, più propriamente, sono calibrati statisticamente – a partire dai dati (nell’esempio dei cani e dei gatti, a partire da milioni di immagini di cani e di gatti, etichettate come tali da esseri umani). È all’intelligenza artificiale sub-simbolica che si devono i più recenti progressi nello svolgimento di compiti come la traduzione automatica, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali.
Si tratta di sistemi di intelligenza artificiale debole o ristretta, in grado di eseguire uno o pochi compiti specifici. Non esiste oggi alcun sistema di intelligenza artificiale generale o forte, in grado di eseguire, in modo integrato, la maggior parte delle azioni che gli esseri umani possono compiere”.

Quali sono i grandi equivoci o le criticità che possono capitare in questo primo momento di utilizzo dell’Intelligenza artificiale nei settori produttivi come il beauty o altri?
Ci sono oggi, accanto a effettivi e genuini progressi, sistemi che non funzionano, o perché sono inadeguati rispetto al compito o perché il compito che è stato affidato loro non è affatto possibile.
Il punto cruciale è che l’IA oggi è un derivato della sorveglianza. I sistemi di apprendimento automatico richiedono infrastrutture di calcolo e l’accesso a un’enorme quantità di dati, che solo i monopoli della tecnologia, in virtù di un modello di business fondato sulla sorveglianza, possono permettersi.
Le Big Tech stanno sfruttando questa posizione dominante e i traguardi effettivamente raggiunti per un’espansione ulteriore di prodotti e servizi “intelligenti”: se un sistema di “intelligenza artificiale” è in grado di tradurre quello che scriviamo, perché non sostenere che sia anche in grado di comprenderlo? Se può identificare un singolo individuo o classificarne correttamente alcuni tratti somatici, perché non sostenere che sia in grado altresì di riconoscere un ladro o un bravo lavoratore dalle loro fattezze esteriori o un malato di mente dalla voce?
I ricercatori chiamano questi sistemi “IA olio di serpente” (AI snake oil), in memoria di quell’intruglio a base di trementina, olio minerale, grasso di cottura, peperoncino, diluente per vernici e insetticida, che il cowboy Clark Stanley vendeva ai gonzi nel Far West come rimedio per tutti i mali. Negli articoli che si occupano di intelligenza artificiale e industria cosmetica si leggono frasi come “l’IA renderà possibile l’impossibile” o “all’IA bastano pochi secondi per capire chi sei e di cosa hai bisogno”. Non serve un informatico per capire che si tratta di hype, ossia di una strategia di marketing fondata su promesse che non hanno alcun riscontro nell’attuale livello di sviluppo della tecnologia.
Quali sono le applicazioni dell’IA in un servizio commerciale?
La personalizzazione è solo una promessa. La natura statistica di questi sistemi fa sì che si tratti sempre di omologazione, non di personalizzazione: i sistemi di apprendimento automatico procedono infatti raggruppando i singoli individui in classi. Si assume che tutto quello che è accaduto in passato si ripeterà e che le persone si comporteranno in modo analogo a quelle classificate come simili a loro.
L’unica personalizzazione possibile ha luogo quando un altro essere umano – che ci conosce o che ha anche solo parlato con noi qualche volta – ci dà un consiglio, sulla base delle sue conoscenze, della sua esperienza e di ciò che ha compreso di noi. Le personalizzazioni automatizzate continueranno comunque a essere promosse dalle aziende, perché danno ai clienti che ne usufruiscano l’illusione che si tratti di un servizio aggiuntivo, in grado di considerare e valorizzare la loro unicità.
Quello che è possibile oggi è la prova virtuale di cosmetici e accessori, utilizzando i generatori di immagini. Ad essa si affiancano talvolta strumenti ulteriori, che scansionano le foto degli utenti e suggeriscono interventi correttivi di varia natura: di questi diffiderei perché, non fanno altro che indurre le persone a credere di dover somigliare più possibile a uno dei modelli stereotipati di bellezza, costruiti su base statistica.
Quale può essere il ruolo delle chatbot?
I generatori di linguaggio si fondano su grandi modelli del linguaggio naturale. Si tratta di sistemi informatici di natura statistica, che predicono sequenze di forme linguistiche sulla base della distribuzione delle parole nei testi di partenza. Sono capaci di produrre linguaggio e, al tempo stesso, incapaci di pensare. Questa è una novità a cui gli esseri umani faticano ad adattarsi: siamo abituati al fatto che, generalmente, se una persona risponde in modo appropriato a una nostra domanda, ha compreso ciò che le abbiamo chiesto, sa cosa ci sta dicendo e intende, con la propria risposta, comunicare con noi. Con i generatori di linguaggio non è così. La novità è tale che noi tendiamo comunque ad antropomorfizzarli: crediamo che sappiano cosa stanno dicendo, addirittura ci fidiamo di loro o sviluppiamo una dipendenza.
Occorre in ogni caso ricordare che i testi prodotti sono lessicalmente e sintatticamente corretti, ma privi di valore informativo (i generatori di linguaggio non contengono alcun riferimento al vero e al falso, né alcun criterio per distinguerli). Simili chatbot possono essere perciò molto pericolosi per i clienti, perché possono dare suggerimenti che ne mettano a rischio la vita o la salute.
Dei limiti ci ha parlato. Può dirci quali sono, secondo Lei, le prospettive dell’IA?
Al momento sono i monopoli della tecnologia, in virtù della loro posizione dominante e della concentrazione di risorse e potere, a dettare le linee di progettazione e sviluppo dei sistemi di IA. Restano possibili, naturalmente, una progettazione e uno sviluppo dei sistemi di intelligenza artificiale che creino valore, anziché estrarlo, che valorizzino il lavoro umano, anziché parcellizzarne l’esecuzione a fini di controllo, e che non incarnino un modello di business basato sulla sorveglianza e sul controllo sociale.
Tale possibilità sembra tuttavia affidata oggi, come già in altre epoche di cambiamento tecnologico, alle sole lotte dei lavoratori. Gli sceneggiatori di Hollywood, ad esempio, hanno mostrato concretamente come, senza il loro consenso e il loro lavoro, i sistemi di “intelligenza artificiale” non siano in grado di produrre alcunché. A livello statale, la priorità dovrebbe essere quella acquisire il controllo di dati e potenza di calcolo. Il che significa, anzitutto, seguire le tracce dei francesi, che hanno smesso di far usare Microsoft e Google e i loro cloud per scuole, università e amministrazioni pubbliche. Dovremmo anche noi valorizzare le competenze locali, a partire dalla rete GARR, la rete nazionale a banda ultralarga per la comunità della ricerca, dell’istruzione e della cultura e che rappresenta un’eccellenza pubblica italiana.

