Categorie
Work

AI for Good 2024

Il 30 maggio 2024, la Segretaria Generale dell’ITU, Doreen Bogdan-Martin, ha dato il via alla conferenza AI for Good 2024 a Ginevra con un discorso ricco di passione e determinazione. Il fulcro del suo intervento era l’urgenza di una collaborazione globale per assicurare che l’intelligenza artificiale (AI) sia sviluppata in modo sicuro, inclusivo e accessibile a tutti.

Bogdan-Martin ha sottolineato come l’AI abbia il potenziale per influenzare profondamente il futuro dell’umanità. Tuttavia, per realizzare questo potenziale, è cruciale che si operi all’interno di un quadro di standard internazionali ben definiti. Questi standard non solo faciliterebbero l’adozione dell’AI, ma garantirebbero anche una distribuzione equa dei benefici derivanti da queste tecnologie.

Con una domanda provocatoria,

“Quale sarà il ruolo dell’AI per il futuro dell’umanità?”

Bogdan-Martin ha invitato i partecipanti a riflettere su come l’AI possa essere utilizzata non solo per avanzare tecnologicamente, ma anche per migliorare la qualità della vita a livello globale.

Il discorso di apertura di Doreen Bogdan-Martin ha così dato il via alla conferenza AI for Good 2024, preparando il terreno per due giorni di discussioni intense e riflessioni sul ruolo trasformativo dell’AI nella società moderna.


Il Ruolo degli LLM nel Futuro delle Aziende

Il secondo intervento della conferenza AI for Good 2024 ha visto la partecipazione di Azeem Azhar, fondatore di Exponential View, che ha condiviso una visione affascinante e pragmatica sull’adozione degli LLM (modelli di linguaggio di grandi dimensioni) nel contesto aziendale.

Azhar ha iniziato il suo discorso evidenziando che gli LLM sono la tecnologia con la più rapida adozione nella storia dell’umanità. Questo dato, secondo lui, non è solo una curiosità statistica, ma un segnale forte della natura esponenziale di questa tecnologia. Gli LLM non sono semplicemente una moda passeggera, ma rappresentano la spina dorsale delle aziende del futuro.

Un aspetto cruciale del discorso di Azhar è stata l’importanza della formazione del personale. Ha sottolineato che le aziende devono investire nella formazione dei propri dipendenti per sfruttare appieno le potenzialità degli LLM. Questo non solo aumenterà la produttività, ma permetterà anche di creare un ambiente lavorativo più innovativo e dinamico.

Azhar ha lanciato un appello diretto ai leader aziendali, esortandoli a non limitarsi ad osservare passivamente l’evoluzione degli LLM. In questa fase iniziale della tecnologia, è fondamentale che i leader aziendali adottino un approccio pratico e hands-on, sperimentando direttamente le applicazioni degli LLM per comprendere meglio come integrarli nelle loro strategie aziendali.

L’Impatto dei Social Media e dell’AI Generativa: Un’Analisi di Tristan Harris

Tristan Harris, co-fondatore del Center for Humane Technology e noto per il suo documentario di successo “The Social Dilemma” su Netflix, ha offerto un’analisi critica e approfondita del nostro primo e secondo contatto con l’intelligenza artificiale (AI) durante la conferenza AI for Good 2024.

Harris ha iniziato il suo intervento riflettendo sull’influenza dei social media, il nostro primo vero contatto con l’AI. Ha sottolineato come questa interazione iniziale abbia portato a conseguenze negative significative: dipendenza, disinformazione, problemi di salute mentale, polarizzazione e il dilemma tra censura e libertà di parola.

Harris ha messo in evidenza la crescente complessità del mondo rispetto alla nostra capacità di rispondere efficacemente.

Le piattaforme hanno incentivato una “corsa all’engagement” che ha portato a risultati negativi come disinformazione e problemi di salute mentale.

Passando al secondo contatto con l’AI, l’AI generativa, Harris ha evidenziato preoccupazioni simili. Le aspettative di miglioramenti in efficienza, codifica, ricerca medica, cambiamenti climatici e crescita del PIL sono spesso accompagnate da problemi come deepfake, indebolimento della democrazia, frodi, crimini, perdita di posti di lavoro e perpetuazione dei bias.

Le grandi aziende tecnologiche sono infatti al centro di una corsa alla distribuzione delle tecnologie AI, spesso accompagnata dalla tentazione di prendere scorciatoie che possono compromettere la sicurezza e l’integrità delle tecnologie. Harris ha proposto alcune soluzioni come più stringenti requisiti di sicurezza, protezione per i whistleblower e responsabilità legale.

Conclusione del discorso è stato un forte appello all’azione: aumentare gli investimenti in governance e sicurezza, ad oggi totalmente inadeguate ad affrontare il futuro.

Il Rischio Economico dell’AI

Gita Gopinath, Vice-direttore generale del Fondo Monetario Internazionale (IMF), ha tenuto un intervento incisivo sulla potenziale amplificazione delle crisi economiche da parte dell’intelligenza artificiale. Gopinath ha esplorato i rischi e le opportunità legati all’AI nel contesto economico globale, fornendo spunti fondamentali per prepararsi alle sfide future.

Gopinath ha iniziato il suo intervento sottolineando come l’AI possa rappresentare un rischio significativo per le economie globali, specialmente in tempi di crisi economica. Ha notato che, sebbene l’AI non abbia ancora causato una perdita massiccia di posti di lavoro, questo impatto potrebbe manifestarsi durante la prossima crisi economica.

Gopinath ha messo in guardia sul fatto che l’AI potrebbe amplificare le crisi economiche future, con stime che indicano come circa il 30% dei posti di lavoro nelle economie avanzate potrebbero essere a rischio. Ha sottolineato l’importanza di essere proattivi nel prepararsi a queste potenziali perturbazioni.

Una delle slide presentate da Gopinath ha evidenziato l’alto tasso di giovani che non sono né impiegati né in formazione nei mercati emergenti e nelle economie a basso reddito. Questo dato pone una sfida significativa per l’integrazione dell’AI in questi contesti. Inoltre i Paesi emergenti e a basso reddito sono meno preparati per l’adozione dell’AI rispetto alle economie avanzate. Questo gap di preparazione potrebbe esacerbare le disuguaglianze globali.

Gopinath ha discusso come i sistemi fiscali attuali tendano a favorire l’automazione rispetto al lavoro umano, mostrando a supporto le aliquote fiscali effettive relative ai software e all’hardware in vari paesi. Ha suggerito che è necessario riequilibrare queste politiche fiscali per non penalizzare ulteriormente il lavoro umano.

Per prevenire una crisi economica aggravata dall’AI, Gopinath ha proposto diverse azioni chiave, tra cui la creazione di sistemi fiscali che non favoriscano l’automazione in modo inefficiente, l’aiuto ai lavoratori per affrontare l’impatto dell’AI, e la riduzione dei rischi finanziari e delle catene di approvvigionamento.

Durante l’ultima Grande Crisi Finanziaria, l’88% delle perdite di lavoro di routine sono avvenute entro il primo anno di recessione. Questo dato rafforza la necessità di prepararsi adeguatamente per future crisi economiche, considerando l’impatto potenziale dell’AI.

Gopinath ha concluso il suo intervento sottolineando che, sebbene l’AI possa aumentare la produttività globale del 15%, è cruciale gestire i rischi associati e prepararsi per i cambiamenti strutturali nel mercato del lavoro. 

LLM e Sfide Africane

Pelonomi Moiloa, CEO di Lelapa AI, ha portato una prospettiva fondamentale e spesso trascurata: le sfide e le opportunità per l’adozione dell’intelligenza artificiale in Africa. Ha evidenziato le problematiche specifiche legate all’utilizzo dei modelli di linguaggio di grandi dimensioni (LLM) nelle lingue africane e i costi elevati associati a queste tecnologie.

Gli LLM attuali sono inadeguati per le lingue africane, un fatto che influisce negativamente su circa 520 milioni di persone che parlano otto lingue principali in Africa. Ha inoltre affrontato il problema dei costi elevati di questi sistemi, che sono spesso incompatibili con le economie dei paesi africani.

Una delle slide ha mostrato che attualmente l’Internet in lingue africane è praticamente inesistente (0%), e che esiste solo un centro dati con GPU nell’intero continente. Inoltre, solo il 2,2% delle startup finanziate da venture capital in Africa si occupano di AI/IoT. Questi dati evidenziano le enormi sfide che il continente deve affrontare nell’adozione delle tecnologie AI.

Moiloa ha presentato Vulavula, un progetto di Lelapa AI, che mira a rendere le tecnologie AI più accessibili e adeguate alle lingue africane. Le caratteristiche di Vulavula includono la conversione audio-testo, la chat conversazionale e l’analisi del testo. Il modello Vulavula è notevolmente più piccolo e meno costoso rispetto agli LLM generativi tradizionali, rendendolo più adatto all’ambiente africano.

Gli LLM richiedono costi di addestramento molto più elevati ($100 milioni e 45TB di dati) rispetto agli lLM (little language model) che sono significativamente più economici ($5000 e 50GB di dati), rendendoli una soluzione più praticabile per il contesto africano

Tendenze di Mercato e Sfide dei Dati nell’AI

Costi Perricos, Global Generative AI Leader di Deloitte, ha offerto una panoramica esaustiva sulle tendenze di mercato attuali e le sfide legate alla qualità dei dati nel campo dell’intelligenza artificiale.

Iniziando il suo intervento sottolineando l’importanza cruciale dei dati nella costruzione di sistemi di intelligenza artificiale, ha affermato che l’AI deriva dai dati, ma quando la qualità dei dati è scarsa, si ottiene solo un’incompetenza digitale.

Perricos ha illustrato cinque tendenze principali che stanno influenzando il mercato dell’AI, come mostrato nella slide di accompagnamento:

  1. Dall’Esperimento alla Scala: Le imprese stanno passando dalla fase sperimentale a una fase di scalabilità delle soluzioni AI.
  2. Ascesa della Forza Lavoro Digitale: C’è una crescente adozione di lavoratori digitali, che utilizzano strumenti AI per migliorare la produttività.
  3. Piattaforme Aziendali e GenAI: Le piattaforme aziendali stanno procedendo rapidamente con l’integrazione dell’AI generativa.
  4. Sovranità dell’AI: Si sta assistendo a un aumento della sovranità dell’AI, con regolamentazioni specifiche per paese o regione che influenzano lo sviluppo e l’implementazione.
  5. Modelli Proprietari e Specifici per Dominio: C’è uno spostamento verso modelli AI privati, proprietari e specifici per domini particolari, per rispondere meglio alle esigenze specifiche delle aziende.

Queste tendenze indicano un panorama in rapido cambiamento in cui le aziende devono adattarsi per sfruttare appieno il potenziale dell’AI. La chiave per il successo risiede nella qualità dei dati e nella capacità di scalare efficacemente le soluzioni AI.

L’intervista a Sam Altman CEO, OpenAI

Durante la sua intervista, forse l’evento più atteso, Sam Altman ha dato alcune risposte piuttosto standard ma ha anche fatto trapelare alcune informazioni interessanti: ad esempio ha parlato dell’incredibile incremento di produttività ottenuto dai suoi ingegneri grazie all’adozione dell’AI. E ha affermato che la prossima generazione di ChatGPT potrebbe offrire un aumento analogo di produttività per molte altre aziende.

Ha risposto alle domande scomode sottolineando che i fatti dovrebbero parlare per sé, preferendo mostrare le intenzioni e i valori di OpenAI attraverso i prodotti piuttosto che tramite dichiarazioni. Riguardo alla sicurezza, ha affermato che le misure di sicurezza devono essere integrate nello sviluppo del software AI – in disaccordo rispetto a quanto proposta da Tristan Harris.

È necessario subire alcuni contraccolpi sul breve termine in vista di grandi benefici sul lungo termine.

Dichiarazione di Sam Altman durante l’evento AI for Good

Dal punto di vista filosofico, per supportare questa incrollabile convinzione che l’AI sia alla fine sostanzialmente sempre un AI for Good, Altman ha portato l’evidenza che l’AI continuerà a mettere in dubbio la centralità dell’uomo nell’universo, come hanno fatto altre grandi scoperte scientifiche in passato. E questo dovrebbe alimentare una positiva umiltà del genere umano.

Evoluzione umana grazie all’Artificial Intelligence

Juan Lavista Ferrer ha fornito un’interessante prospettiva sull’intelligenza artificiale, definendola la prossima General Purpose Technology (GPT) paragonabile all’elettricità per il suo potenziale di trasformare la società.

Ferrer ha iniziato il suo intervento sottolineando un aspetto evoluzionistico fondamentale: la nostra naturale tendenza al pessimismo. Questa predisposizione si estende anche alla nostra percezione del futuro dell’AI, spesso vista attraverso una lente negativa.

Ferrer ha esposto come l’AI, e in particolare i modelli linguistici di grandi dimensioni (LLM), rappresentino una delle tecnologie più potenti a nostra disposizione. Tuttavia, per sfruttare appieno il loro potenziale, è essenziale comprendere il loro funzionamento e i limiti intrinseci. Gli LLM infatti possono elaborare enormi quantità di dati, permettendo di estrarre informazioni e intuizioni preziose che sarebbero altrimenti inaccessibili, ma essi non possano discernere la verità dai dati. La loro affidabilità dipende strettamente dalla qualità e dalla veridicità delle informazioni su cui sono basati.

Ferrer ha inoltre affrontato il tema della produttività, mostrando come gli strumenti di AI, come GitHub Copilot, possano accelerare il completamento dei compiti del 55%, migliorando al contempo la qualità su vari fronti, inclusa la leggibilità e l’assenza di errori. Ha sottolineato che i modelli linguistici generativi possono aiutare a colmare il divario digitale, rendendo chiunque un utente avanzato di AI, un aspetto cruciale dato che una grande parte della popolazione mondiale non ha accesso all’educazione necessaria per comprendere o utilizzare queste tecnologie.

L’AI non è altro che matematica e nonostante appaiano simili agli umani nel comportamento, questi modelli operano sulla base di grandi quantità di dati e calcoli molto sofisticati. L’AI può diventare un potente strumento per il progresso umano, purché venga gestita e compresa correttamente.

Questa analisi ha fornito un’importante base di partenza per le discussioni successive, invitando tutti a riflettere sulle sfide e le opportunità che l’intelligenza artificiale presenta nel nostro mondo in continua evoluzione.

L’impatto sulle nuove generazioni

Un fatto importante è valutare l’impatto della tecnologia – anche dell’AI – sui più giovani (Gen Z). Al pari di quanto detto da Tristan Harris, anche secondo Abdullah Al Rashid dell’Ithra l’impatto è potenzialmente devastante.

Le statistiche parlano chiaro: solo 30 minuti di tempo trascorso su dispositivi portatili è associato a un aumento del 49% del rischio di ritardo nel linguaggio espressivo nei bambini sotto i due anni. Inoltre, il 69% della Gen Z salta il sonno settimanalmente a causa della tecnologia. Sappiamo per certo che serviranno regolamentazioni globali per correggere i problemi che le grandi aziende tecnologiche hanno creato e creeranno nel futuro. Infatti, questa industry non è in grado di autoregolamentarsi.

La tecnologia Gen AI tra Cinema e Deep Fake

Quello di Hao Li è stato uno dei pochi interventi ad alto tasso tecnico ed infatti ha portato esempi di applicazioni in fase di studio che saranno rilasciate nei prossimi anni. A partire da tecnologie visive applicate nel mondo del cinema che rivoluzioneranno le produzioni creative globali. Li ha mostrato come le AI Generative possano creare interi film entro due anni, come dichiarato anche dal regista di “Avengers: Endgame”, Joe Russo.

Ha illustrato l’uso dell’AI per la produzione di contenuti, con Hollywood che è praticamente già pronta per implementare tecniche di doppiaggio visivo, doppioni digitali e ringiovamentimento, cattura e re-targeting delle performance, e re-targeting delle voci.

Inoltre, ha discusso dei rischi legati ai deepfake, con esempi di truffe come il caso di un lavoratore finanziario truffato per 25 milioni di dollari durante una videochiamata con un deepfake di un falso CFO. Ha evidenziato anche il potenziale dell’AI per una sorta di “teletrasporto” che permetterebbe di essere ovunque con chiunque in qualsiasi momento, utilizzando tecnologie come Microsoft Hololens 2 per la telepresenza immersiva e le interazioni sociali. Tutte queste tecnologie esistono già e saranno sempre più accessibili a una fetta crescente della popolazione globale.

L’AI per l’accessibilità

Uno degli ambiti in cui c’è stato il maggiore progresso rispetto all’anno scorso sono le tecnologie AI per combattere le disabilità. In particolare, sono stati presentati numerosi progetti per assistere le persone ipovedenti o non vedenti, una platea che arriva fino a circa 1 miliardo di persone in tutto il mondo.

Grazie a queste sfide di ‘accessibilità’ le innovazioni potranno fiorire e impattare l’intera umanità.

Queste nuove tecnologie, come il caschetto-guida e il trolley intelligente, richiederanno anche una modifica del nostro senso comune per imparare a convivere con questi nuovi dispositivi abilitanti e con le persone che li usano.

Il pezzo forte: l’intervista a Geoffrey Hinton

Uno dei ‘padri’ dell’attuale AI Generativa ha sfidato alcune delle visioni più comuni sul rapporto tra gli esseri umani e l’Intelligenza Artificiale, partendo dalla convinzione che l’AI non abbia coscienza. Secondo Hinton, possiamo pensare alle attuali AI come soggetti dotati di esperienza soggettiva perché hanno un’esperienza del mondo simile a quella degli esseri umani: non per esperienza diretta e immediata, ma attraverso gli input dati al loro sistema percettivo. Biologico-neurale nel nostro caso, informatico-neurale nel loro.

Le possibilità offerte da sistemi così avanzati sono incredibili, soprattutto nell’istruzione, dove tutti potranno avere a breve un tutor personale a costi molto bassi. Questo è un campo in cui si possono creare opportunità più eque per tutti.

È impressionante il livello raggiunto dagli attuali LLM, anche per uno come lui: i sistemi di AI generativa sembrano capire il mondo attraverso il linguaggio in un modo simile a come lo capiscono e apprendono gli esseri umani. Inoltre, con insiemi di dati più equi, potremmo avere sistemi con meno pregiudizi, in linea teorica perfino migliori di noi umani.

Un bel segnale di positività e speranza per chiudere il Global Summit AI for Good 2024!

Vuoi approfondire ulteriormente?

Guarda i miei Dieci insight sul mondo dell’Intelligenza Artificiale per il bene (AI for Good), in base alla mia esperienza all’AI for Good Summit 2024.

Oppure scrivimi.


Questo articolo è stato scritto grazie a tecnologie di intelligenza artificiale generativa, ma prende spunto da appunti presi da Pasquale Borriello durante l’evento ‘AI for Good 2024’ ed è stato riletto e corretto prima di essere pubblicato.

Categorie
Work

Artificial Intelligence e mondo del Lavoro

Fin dal 2017, si parla seriamente di come la rivoluzione dell’Intelligenza Artificiale stia impattando sul mondo del lavoro. In quell’anno lo storico Yuval Noah Harari pubblicò un articolo su Nature in cui prevedeva che l’intelligenza artificiale avrebbe “scalzato molte persone dal mondo del lavoro”.

In quello stesso anno furono inventati i modelli di generazione testo (Transformer) su cui è basato ChatGPT che però sarebbe arrivato solo 5 anni più tardi, assieme ai modelli di generazione immagini come Midjourney (Diffusion). C’erano quindi i semi per la rivoluzione a cui stiamo assistendo oggi e sulla quale numerosi studiosi tra cui un gruppo di studio dell’Università di Stanford e la stessa OpenAI (creatrice di GPT) si stanno interrogando.

A che punto siamo oggi?

Davvero scompariranno centinaia di milioni di posti di lavoro nel prossimo decennio?

La situazione non è così semplice, ma sicuramente sappiamo già quali sono le professioni più a rischio.

Harari attribuiva questo cambiamento alla convergenza tra lo sviluppo dell’AI, che analizza enormi quantità di dati, e le biotecnologie che decifrano i pensieri e le emozioni umane. Questa fusione tra infotech e biotech avrebbe potuto rendere obsoleti milioni di lavoratori, come i medici di famiglia, mentre altri avrebbero potuto concentrarsi sulla ricerca e sull’innovazione.

Questa rivoluzione, diventata una nuova normalità, richiede una resilienza emotiva e l’abilità di adattarsi ai cambiamenti. L’empatia nel problem solving diventa cruciale, suggerendo che l’AI potrebbe sostituire i medici ma non le infermiere. Dal punto di vista filosofico, un ambito al di fuori della ricerca allora come in parte anche oggi è quello della coscienza delle Intelligenze Artificiali: i computer sono in grado di interpretare le emozioni degli esseri umani senza svilupparne di proprie. E questo li rende estremamente diversi rispetto a noi umani nel processo decisionale.

Con l’aumento delle AI e dei dati necessari per «alimentarle», aumenta la domanda di professionisti in grado di interpretare e utilizzare questi dati, come gli analisti. Mentre alcuni lavori diventano irrilevanti, sostituiti dalle AI, gli esseri umani potranno dedicarsi a ruoli più creativi e all’apprendimento continuo, rendendo il reddito universale (Universal Basic Income) una possibilità da valutare seriamente.

Tutto questo rappresenta una sfida superiore alle precedenti rivoluzioni industriali.

Sei anni dopo l’articolo di Harari, un report del 2023 di Stanford rivela che le offerte di lavoro legate all’AI negli Stati Uniti sono aumentate del 10% nell’ultimo anno in tutti i settori, ad eccezione di quelli più tradizionali come l’agricoltura e la pesca.

Le aziende stanno già cercando persone con capacità legate all’utilizzo dell’Intelligenza Artificiale nel proprio lavoro quotidiano.

Tuttavia, è un paper di OpenAI (la società dietro DALL-E e ChatGPT), pubblicato il 27 marzo 2023, a fornire le stime più sorprendenti:

l’80% della forza lavoro vedrà i propri compiti influenzati dall’AI, con un quinto dei lavoratori che subiranno sostituzioni o modifiche significative del proprio ruolo.

Tutto questo senza immaginare ulteriori sviluppi rispetto alle tecnologie esistenti (cosa peraltro poco probabile, vista la velocità di innovazione in questo campo).

Le nuove tecnologie, come i Large Language Models (LLM), permetteranno di velocizzare i compiti e sostituire completamente l’essere umano in alcuni ambiti. Inaspettatamente, saranno i lavoratori con stipendi più alti ad essere maggiormente esposti agli effetti dell’AI sul proprio lavoro. Questo perché i loro ruoli presentano barriere all’ingresso più elevate e quindi le immense nozioni a disposizione dell’AI troveranno maggiore applicazione.

Lo studio, basato sul vasto database O*NET 27.2, rivela che i lavori più a rischio sono quelli legati alla programmazionee alla scrittura e quelli che non richiedono training-on-the-job (che ovviamente le AI possono fare ma con più difficoltà). Mentre quelli che implicano ragionamento scientifico e pensiero critico sono meno vulnerabili.

Nonostante alcune lacune, come l’assenza di un’analisi per settori, lo studio fornisce informazioni preziose sull’impatto dell’AI sul mercato del lavoro: l’analisi (che è stata realizzata da ricercatori umani e da GPT-4, che sembrano concordare) indica che la stragrande maggioranza dei lavoratori ha il 10% dei propri task già pesantemente esposti all’AI.

Il paper più recente su questo tema, pubblicato il 19 aprile 2023, arriva a suggerire che i governi debbano intervenire per regolamentare questa nuova situazione, confermando che i lavoratori con maggiori titoli di studio e con stipendi più alti sono proprio quelli più esposti all’AI.

La vera notizia è che ancora non sono chiari i risultati di questa esposizione: si tratterà di un’automazione completa dei compiti (e quindi una perdita di posti di lavoro) oppure di un affiancamento di umani con intelligenze artificiali?

In questo secondo caso l’impatto sarà un netto aumento della produttività individuale e quindi un aumento sproporzionato dei redditi in favore della fasce più abbienti della popolazione.

Rispetto alle 2 principali tecnologie di AI generativa più diffuse al momento, sembra che sia GPT ad avere gli impatti più importanti, soprattutto in ambiti dove le abilità linguistiche sono fondamentali come il telemarketing o la formazione a distanza. Le piattaforme di text-to-image potrebbero invece essere rivoluzionarie in ambiti come l’architettura e l’interior design.

Potenzialmente, si tratta di una situazione simile a quella delle digitalizzazione iniziata con l’avvento del personal computer, che ha generato forti disparità tra lavoratori abili o inabili rispetto alle nuove tecnologie.

Da queste riflessioni, con numerosi dati a supporto (secondo i parametri del database O*NET), deriva l’invito a fare in modo che nessuno resti indietro rispetto all’adozione dei nuovi strumenti. Le discriminazioni sono dietro l’angolo perché le innovazioni sembrano riguardare in modo sproporzionato donne, caucasici e asiatici piuttosto che uomini, afroamericani e ispanici.

In questo mondo in continua evoluzione, la formazione e l’aggiornamento delle competenze diventano fondamentali per rimanere competitivi nel mercato del lavoro. L’istruzione e la formazione professionale dovranno essere riformate per rispondere alle nuove esigenze, incoraggiando la flessibilità, la creatività e l’apprendimento continuo. Proprio quello che suggeriva Harari oltre 6 anni fa.

Ma istruzione e formazione basteranno?

Secondo uno studio di Harvard Business School pubblicato il 27 settembre 2023, l’attuale generazione di intelligenza artificiale generativa è già in grado di aumentare la produttività di lavoratori esperti di circa il 40%. Un dato che farebbe saltare sulla sedia qualunque manager.

Tuttavia, alcuni esperimenti hanno perimetrato maggiormente l’impatto positivo dell’AI sul lavoro umano: la qualità aumenta soltanto se gli esseri umani imparano a collaborare con l’AI in modo costruttivo evitando di affidarsi in modo cieco. È quello che sull’articolo viene definito come “approccio cyborg” (continuo scambio tra AI e umano), contrapposto all’approccio centauro (divisione netta tra task AI e task umani).

In generale, secondo uno studio del Fondo Monetario Internazionale pubblicato ad inizio 2024, nei paesi avanzati l’esposizione all’AI arriverà al 60% dei posti di lavoro. “Esposizione” è il solito eufemismo per non dichiarare in modo netto se l’AI prenderà il posto degli esseri umani oppure li affiancherà.

Cosa dobbiamo attenderci?

Come ha detto Richard Baldwin del Geneva Graduate Institute:

Non sarà l’AI a prendere il tuo posto di lavoro, ma qualcuno che sa usare l’AI lo farà.

Il ritmo dell’innovazione è tale che nessuno può permettersi di restare indietro. Quindi magari la formazione e il reskilling non saranno sufficienti, ma sicuramente saranno necessari per restare competitivi nel mondo del lavoro nell’era dell’AI.

L’articolo è stato editato e in parte riscritto con l’aiuto di GPT-4. Immagini realizzate con MidJourney. Aggiornato il 21 aprile 2024.

Fonti:

  1. Gen-AI: Artificial Intelligence and the Future of Work
  2. Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality
  3. Occupational Heterogeneity in Exposure to Generative AI
  4. Artificial Intelligence Index Report 2023
  5. GPTs are GPTs: An early look at the Labor Market Impact Potential of Large Language Models
  6. Reboot for the AI Revolution
Categorie
Work

AI for Good 2023

Cosa ho imparato alla conferenza di Ginevra sull’Intelligenza Artificiale

Il 6 e 7 luglio si è tenuta la conferenza internazionale AI for Good dove alcuni tra i più grandi pensatori contemporanei hanno conversato sui due temi a mio avviso più importanti della nostra era: l’intelligenza artificiale con i suoi impatti e gli obiettivi di sviluppo sostenibile dell’ONU. Unire questi due mondi è una necessità: l’AI è il principale strumento che abbiamo per salvare il nostro pianeta.

“AI for Good” è una piattaforma digitale globale delle Nazioni Unite che opera tutto l’anno. Questa piattaforma consente agli innovatori dell’intelligenza artificiale (AI) e ai responsabili delle decisioni di imparare, discutere e collaborare per sviluppare soluzioni AI concrete che promuovono gli Obiettivi di Sviluppo Sostenibile (SDGs) delle Nazioni Unite. Dopo una pausa dovuta al Covid, quest’anno la conferenza si è svolta il 6 e 7 luglio presso il CICG (International Conference Center Geneva). La necessità di organizzare vertici globali incentrati sull’azione nell’ambito dell’AI è nata dalla constatazione che il dibattito accademico era dominato da ricerche specifiche, come il Netflix Prize per migliorare l’algoritmo di raccomandazione di film. Durante la conferenza di quest’anno, uno degli oratori ha sfidato l’audience con una domanda provocatoria: “Crediamo veramente che il massimo potenziale dell’AI sia fornire annunci pubblicitari su cui le persone cliccano di più?”.

AI for Good si dedica a promuovere ricerche sull’intelligenza artificiale che possono contribuire alla risoluzione di problemi globali, in particolare nel contesto degli Obiettivi di Sviluppo Sostenibile. Questa iniziativa è gestita dall’ITU (Unione Internazionale delle Telecomunicazioni), un’agenzia delle Nazioni Unite specializzata nelle tecnologie dell’informazione e della comunicazione.

L’ITU, istituita nel 1865, afferma sul suo sito web che “Ogni volta che fai una chiamata tramite il cellulare, accedi a Internet o invii un’email, stai beneficiando del lavoro dell’ITU […] L’ITU si impegna a connettere tutte le persone del mondo – ovunque vivano e qualunque siano i loro mezzi. Attraverso il nostro lavoro, proteggiamo e sosteniamo il diritto di comunicare di tutti.” Di conseguenza, è del tutto logico che l’ITU promuova la creazione di un sistema di governance globale per l’Intelligenza Artificiale, che rappresenta attualmente la tecnologia informatica e di comunicazione più avanzata a nostra disposizione.

Quali erano le mie aspettative su AI for Good 2023?

Mi aspettavo fondamentalmente di poter esplorare lo stato avanzato dell’AI e di avere l’opportunità di apprendere direttamente dalle figure più influenti in questo campo. Ero inoltre interessato a capire come l’Intelligenza Artificiale possa influenzare positivamente il nostro mondo, argomento cruciale per l’azienda – Arkage – che ho l’onore di guidare attraverso un’era di potenti cambiamenti.

La mia prima impressione dell’evento è stata sorprendente: robot, robot e ancora robot, ovunque. Dalla ormai celebre Sophia ad altri robot antropomorfi estremamente avanzati, fino a robot di salvataggio, bracci meccanici, droni, quadrupedi saltellanti e piccoli cingolati. La hall del centro congressi ospitava stand di diverse aziende partner dell’iniziativa e palchi per sessioni secondarie che trattavano temi più tecnici – sicuramente di grande interesse per i professionisti del settore. Ma per me, filosofo di formazione, il clou era costituito dall’auditorium con il palco principale. Sono riuscito a raggiungerlo giusto in tempo per l’inizio dell’evento, dopo aver schivato un’avanzatissima foca-robot da compagnia.

La conferenza si è svolta nell’arco di due giorni: il primo giorno ha avuto un carattere più istituzionale, con il discorso d’apertura tenuto dal segretario generale delle Nazioni Unite, mentre il secondo giorno ha visto una maggiore focalizzazione su questioni di governance e sul futuro dell’Intelligenza Artificiale.

AI for Good 2023 – Primo giorno

L’anteprima della conferenza è stata spettacolare: l’artista Harry Yeff ha meravigliato il pubblico con la sua “machine inspired voice”. È qualcosa che dovreste ascoltare voi stessi, poiché è impossibile descriverlo a parole.

Harry Yeff and LJ Rich

1° insight: gli artisti hanno una relazione con l’innovazione più intima delle altre persone che hanno a che fare con l’AI.

L’elemento artistico ha acquisito una posizione centrale nell’evento, raggiungendo il suo apice in un panel del secondo giorno, anche grazie allo splendido lavoro della presentatrice LJ Rich, artista AI lei stessa.

In questo clima di fervore artistico, António Guterres, Segretario Generale dell’ONU, ha saputo riportare l’audience alla realtà, sottolineando la necessità di utilizzare il potere dell’AI per accelerare la transizione verso i 17 SDGs (gli obiettivi di sviluppo sostenibile da raggiungere entro il 2030). Ha evidenziato l’importanza di stabilire delle linee guida che impediscano a questa tecnologia di deviare dal suo percorso verso il ‘bene’.

Antònio Guterres

La cooperazione internazionale è sempre stata al centro della conferenza – evidentemente Ginevra è la location perfetta per questo tipo di approccio – e ciò lo ha ribadito anche Doreen Bogdan-Martin, Segretaria Generale dell’ITU. Proprio attraverso l’impegno congiunto di tutti i Paesi membri dell’ONU, l’AI può essere utilizzata per rimettere in pista l’Agenda 2030.

Doreen Bogdan-Martin

Secondo Bogdan-Martin, esistono tre scenari futuri possibili: 

  1. Un uso improprio dell’AI che causerà l’insuccesso degli SDG e potenzialmente conseguenze ancora peggiori; 
  2. Un uso non regolamentato dell’AI che accentuerà le disparità tra le nazioni e le disuguaglianze tra coloro che hanno moltissimo (potere, denaro, opportunità) e chi non ha nulla; 
  3. Il successo nel raggiungimento degli obiettivi SDG grazie anche all’implementazione dell’AI.

2° insight: l’AI è il super potere che ci permetterà di accelerare verso il raggiungimento degli SDG.

Ma cosa significa concretamente avere successo nell’utilizzo dell’AI? Numerosi esempi provengono dalla serie “Now Go Build” (disponibile su Amazon Prime) che presenta casi di successo in tutto il mondo. Il protagonista della serie, Werner Vogels, CTO di Amazon, ha preso parte alla conferenza pur con l’aiuto di una stampella, giustificandosi per avere un ginocchio artificiale, reso possibile dai progressi tecnologici. La tecnologia, e in particolare l’AI, può davvero fungere da acceleratore verso gli SDG, a patto che le macchine si limitino a fare previsioni e che sia l’umanità a prendere le decisioni. Perché ciò si realizzi, è fondamentale disporre di una grande quantità di dati, che rappresentano le basi per tutte le AI. Quindi, l’obiettivo è democratizzare l’accesso ai dati, rendendo l’AI lo strumento che ci consentirà di ottenere approfondimenti preziosi.

Werner Vogels

Quello che mi ha piacevolmente sorpreso di questa conferenza è stata l’ampia presenza femminile, in un campo – quello dell’AI – tradizionalmente dominato dagli uomini, come ha sottolineato Lila Ibrahim di Google Deepmind. Salendo sul palco dopo Werner, ha enfatizzato l’importanza di stabilire principi che permettano all’AI di beneficiare l’intera umanità. Questi principi sono necessari innanzitutto per delineare una governance dell’AI, e poi per regolare le attività di ricerca, sviluppo e implementazione dell’AI, con le relative ripercussioni sull’umanità.

Lila Ibrahim

Umanità sempre più al centro del dibattito: è stato notevole l’intervento di Moriba Jah, scienziato e ingegnere aerospaziale, che ha iniziato il suo discorso ringraziando gli antenati, la Madre Terra e il Padre Cielo, prima di lanciarsi in un discorso che univa tecnicismi e momenti di grande ispirazione. L’idea della Terra come nave spaziale è stata utilizzata per spiegare il progetto Wayfinder, che mira a prevedere in tempo reale l’orbita di migliaia di satelliti attorno alla Terra per prevedere e potenzialmente prevenire impatti catastrofici. Ma ciò che ha contraddistinto l’intervento di Jah è stato il continuo riferimento al ruolo dell’essere umano e alla necessità di empatia. Mi ha particolarmente colpito una sua affermazione: “Believing in Randomness is saying no to learning”.

3° insight: nel mondo dell’AI c’è sempre da imparare e non è mai troppo tardi per iniziare e studiare.

Vero genio dei nostri tempi, Jah, ha colto l’occasione per sottolineare l’importanza di un sistema di governance per l’AI, che dovrebbe comprendere almeno tre aspetti fondamentali:

  • prevedibilità dei risultati;
  • trasparenza del processo;
  • responsabilità (accountability) delle decisioni.

A quel punto della conferenza, ho iniziato a percepire come l’agenda fosse stata progettata in modo davvero meticoloso, con un ritmo perfettamente scandito e interventi che si integravano alla perfezione l’uno con l’altro.

Infatti, subito dopo Jah, Andrew Zolli di Planet, azienda specializzata nell’osservazione satellitare della Terra, ha preso la parola.

Andrew Zolli

Planet utilizza l’AI per gestire l’enorme quantità di dati che raccoglie praticamente su ogni metro quadrato del nostro pianeta. Zolli ha evidenziato un aspetto spesso trascurato: solo grazie all’AI siamo in grado di estrarre informazioni e approfondimenti da questa mole di dati che altrimenti nessun essere umano potrebbe utilizzare direttamente. Il ruolo dell’AI generativa, quindi, diventa quello di rendere queste informazioni accessibili al maggior numero possibile di persone, in modo semplice.

4° insight: l’enorme quantità di dati che abbiamo a disposizione può essere sfruttata ormai soltanto con l’AI (e in nessun altro modo).

Dal Pianeta Terra a Marte con Vandi Verma, scienziata della NASA che ha descritto come l’AI sia fondamentale per l’esplorazione su Marte. La robotica avanzata e i sistemi di guida autonoma sono necessari per eseguire missioni che sarebbero impossibili da controllare a distanza dal nostro pianeta (ci vogliono oltre 24 minuti per trasmettere dati tra Terra e Marte).

5° insight: la tecnologia AI della guida autonoma ha senso sulla terra in alcuni (pochi) casi, ma è invece fondamentale per l’esplorazione spaziale.

Vandi Verma

Ma non solo droni e piccole sonde spaziali: all’evento AI for Good, i robot umanoidi hanno preso il palcoscenico insieme a David Hanson, il creatore di Sophia the Robot, il più famoso tra i robot “human-inspired”. Dopo una dimostrazione sul palco, l’impressione è che, grazie all’AI generativa, i robot possano finalmente offrire un’esperienza di conversazione realistica, cosa che era impossibile fino a pochi mesi fa.

David Hanson con i suoi robot sul palco

Il pomeriggio è iniziato con l’eccezionale intervento di Yuval Harari, intervistato da Nicholas Thompson (The Atlantic). Harari sostiene la necessità di un controllo rigoroso sull’AI, non tanto per quanto riguarda gli sviluppi, quanto piuttosto in termini di rilascio al pubblico di nuove funzionalità, cioè non tanto in riferimento al development, quanto al deployment. L’assunto è che l’AI, pur essendo in grado di portare benefici immensi all’umanità, sia potenzialmente pericolosa. Questo perché si tratta di una tecnologia qualitativamente diversa dalle altre: può prendere decisioni in modo autonomo e può generare idee “nuove”. Essa richiede quindi regolamentazioni, soprattutto considerando che gli esseri umani non hanno una buona storia di capacità di controllo delle grandi innovazioni tecnologiche (ovvio il riferimento alla bomba atomica). Harari vede un pericolo nell’eventuale messa in discussione dell’essenza stessa della società democratica: si tratta di uno scenario distopico più simile a quello descritto da Black Mirror che non quello di Terminator. Un’AI che non si presenta come tale potrebbe farci perdere il controllo delle conversazioni pubbliche, amplificando esponenzialmente i rischi che abbiamo intravisto nei social media. Ecco perché, secondo lui,

“È fondamentale capire se sto parlando con un essere umano o con un’AI”.

Harari sostiene che le grandi aziende che sviluppano modelli di AI dovrebbero dedicare il 20% del loro budget al miglioramento della sicurezza dei sistemi, seguendo l’esempio di altri settori regolamentati, come l’industria automobilistica o aeronautica.

6° insight: la minaccia dell’AI non riguarda la fine del mondo in stile Skynet ma la fine della democrazia moderna.

Quasi nessun riferimento ai rischi legati alla perdita di posti di lavoro, che invece è stato lo spunto di avvio del panel moderato dalla fantastica Maja Mataric: abbiamo di fronte solo due possibili scenari, automation o augmentation. Ovvero la sostituzione del lavoro umano o il miglioramento (enhancement) di tale lavoro. Diventa importante definire uno standard di interazione uomo-robot in cui l’AI possa abilitare le persone a comportarsi e agire meglio. Non dovrebbe inoltre sorprenderci che in un paper in fase di pubblicazione su arXiv, il team di ricerca capitanato dalla Mataric abbia misurato e validato la personalità e il comportamento di alcuni modelli linguistici (LLM) in base ad alcuni standard riconosciuti (come ad esempio il Big Five).

Maja Mataric

Il panel, incentrato sul concetto di interazione uomo-robot e in generale uomo-macchina ha visto anche altri protagonisti, che hanno sollevato i due temi secondo me più rilevanti. In primo luogo, esiste un urgente bisogno di una carta etica riconosciuta per l’industria della robotica, al fine di instaurare un’autoregolamentazione. Tuttavia, fino ad oggi, non esiste nulla del genere, il che solleva preoccupazioni riguardo alla sicurezza.

Inoltre, il concetto di robotizzazione supera di gran lunga l’idea di robot umanoidi. Il pensiero di un robot che svolge lavori domestici o di un veicolo autonomo guidato da un robot è fuorviante. In realtà, è molto più probabile che l’automazione futura sia “invisibile”, modificando i nostri dispositivi di uso quotidiano per renderli più autonomi e meno dipendenti dall’interazione umana.

Uno scenario potenziale potrebbe essere l’automobile che non necessita di un conducente, quindi non ha bisogno di un volante. Allo stesso modo, l’AI e la robotica stanno diventando sempre più rilevanti nel settore sanitario. Il futuro della salute è digitale, non solo per quanto riguarda le connessioni, ma anche l’accesso ai dati, e l’AI generativa svolge un ruolo centrale in questo processo. 

7° insight: l’innovazione dell’automazione animata dall’AI non è soltanto quella dei robot, ma prevederà capacità intellettuali e fisiche sostanzialmente diverse dall’umanizzazione che avevamo in mente nei film di fantascienza.

Altre due industrie importanti che potrebbero influenzare l’evoluzione globale dell’AI sono l’aviazione civile e l’energia nucleare. Questi settori hanno una governance definita a livello internazionale e potrebbero quindi ispirare il prossimo Global Compact 2024 sull’AI, come annunciato durante la conferenza. Secondo Amandeep Singh Gill, rappresentante ONU per la Tecnologia, l’obiettivo principale è promuovere gli effetti benefici e minimizzare i rischi di questa tecnologia digitale. Questo sarà raggiunto attraverso meccanismi di sicurezza, regole di governance e standard condivisi.

Roberto Viola e altri

Un esempio di questo tipo di cooperazione internazionale è l’accordo tra gli USA e l’UE sulla modellazione degli eventi atmosferici estremi. Ne hanno discusso Anne Neuberger, rappresentante della Casa Bianca, e Roberto Viola, direttore generale DG Connect della Commissione Europea. Hanno sottolineato l’importanza di un’IA “trustworthy” (affidabile) e “human-centric” (centrata sull’essere umano), un approccio all’intelligenza artificiale che sia inclusivo, sicuro e responsabile. Questi concetti sono stati poi ripresi da altri relatori nel secondo giorno della conferenza.

8° insight: l’AI deve portare ad una nuova stagione di cooperazione internazionale, ma dove sono Russia, Cina e India?

La giornata si è conclusa con un intervento di Lori Rodney di Shutterstock, partner della conferenza e protagonista nel campo dell’AI generativa con la recente iniziativa shutterstock.ai.

Lori Rodney

AI for Good 2023 – Secondo giorno

Il secondo giorno della conferenza è iniziato con una performance musicale a cura del batterista Jojo Mayer, che collabora con intelligenze artificiali per migliorare le sue capacità artistiche.

A differenza del primo giorno, il contenuto della seconda giornata è stato più focalizzato sulla tecnologia e meno sulle questioni istituzionali, con presentazioni degne dei migliori TED Talks.

La serie di presentazioni eccezionali della seconda giornata è stata inaugurata da Bernard Maissen del governo svizzero. Ha sottolineato l’importanza di regolamentare non l’IA in sé, ma il suo utilizzo, per assicurare che l’innovazione rimanga sempre possibile per il progresso dell’umanità. Ha sottolineato il ruolo guida degli Obiettivi di Sviluppo Sostenibile (SDG) nel dirigere la nostra attenzione verso gli obiettivi più importanti da perseguire per il bene dell’umanità.

Juan Lavista Ferres del gruppo AI for Good Lab di Microsoft ha acceso l’entusiasmo dei partecipanti con una domanda provocatoria:

“La nostra generazione sarà veramente ricordata per aver usato l’IA soltanto per far cliccare le persone sugli annunci pubblicitari?”

La sua risposta è che l’AI potrebbe essere l’unico strumento capace di risolvere alcuni dei problemi più pressanti dell’umanità. E in fondo, siamo una specie che ama le sfide: dopo tutto, abbiamo mandato un uomo sulla Luna prima di inventare le valigie con le rotelle.

Juan Lavista Ferres

Nello stesso modo in cui l’elettricità ha rivoluzionato il benessere della specie umana nel 19° secolo, l’IA è destinata a svolgere un ruolo significativo nel promuovere una maggiore diffusione dei diritti umani nel futuro. Non è detto che la sicurezza debba essere l’unico obiettivo: ad esempio, la soluzione elettrica basata sulla sicurezza (DC) proposta da Edison si è dimostrata meno efficace rispetto alla soluzione basata sulla distribuzione su larga scala (AC) di Tesla. Il punto fondamentale è comprendere che l’IA è sia uno strumento di potenziale utilità che un’arma: i modelli linguistici di apprendimento automatico (LLM) sono gli strumenti che possono aiutarci a trarre vantaggio dai dati non strutturati che popolano la nostra infosfera.

9° insight: occorre regolamentare l’uso dell’AI in modo da aumentarne i benefici su larga scala, la sicurezza non deve essere l’unico metro di giudizio.

Il Professore Gary Marcus della New York University ha identificato le tre grandi sfide che l’umanità deve affrontare per assicurare un futuro positivo: la governance, l’allineamento e i valori. La governance si riferisce alla regolamentazione dell’AI; l’allineamento riguarda la capacità di allineare l’AI con gli obiettivi umani di sopravvivenza e prosperità (e prevenire che l’AI anteponga i suoi interessi una volta che supererà l’intelligenza umana); i valori rappresentano la necessità di basare ogni decisione su valori condivisi a livello globale, piuttosto che sulle scelte individuali.

Gary Marcus

Dal punto di vista tecnologico, ci troviamo ancora all’inizio del percorso dell’IA, come affermato da Marcus. Questo è dimostrato dalle cosiddette “allucinazioni” dei modelli di apprendimento automatico, che rappresentano un livello di qualità inaccettabile dal punto di vista del software e sono, in effetti, dei veri e propri malfunzionamenti.

10° insight: gli attuali modelli linguistici alla base della AI sono ancora ad un livello primordiale, pieno di malfunzionamenti tecnici.

Una prospettiva affascinante è stata offerta da Orly Lobel, esperta di sistemi cognitivi e autrice del libro “The Equality Machine”. Secondo Lobel, esistono numerosi pregiudizi e bias nel campo dell’IA, tra i quali:

  • Il doppio standard: il livello di sicurezza richiesto per l’IA dovrebbe essere lo stesso che ci aspettiamo dagli esseri umani. Ad esempio, la guida autonoma non potrà mai raggiungere una sicurezza del 100%.
  • Ignorare la scarsità delle risorse: l’IA e la digitalizzazione potrebbero essere strumenti per colmare le lacune nell’accesso alle risorse, come l’istruzione e la sanità.
  • Il dualismo libertà-proibizionismo: la regolamentazione dell’IA richiede sfumature di giudizio, come di solito accade per i sistemi complessi.
  • La (falsa) importante dello human-in-the-loop: non sempre è ottimale affidare una decisione a un essere umano. Ad esempio, ci sono procedure nel settore dell’aviazione che richiedono un’automazione completa per garantire la sicurezza.
Orly Lobel

Il concetto di ‘automation rights’, o diritti di automazione, è emerso fortemente: il diritto di automatizzare certi processi della nostra vita o del nostro lavoro necessita di un approccio sofisticato verso la fiducia nell’IA, che eviti eccessi sia in termini di diffidenza (undertrust) che di fiducia cieca (overtrust).

11° insight: gli esseri umani devono poter essere liberi di automatizzare ciò che è giusto automatizzare, per il bene comune.

Il problema dei bias è stato toccato in modo significativo anche durante il secondo intervento di Shutterstock alla conferenza. Alessandra Sala e Sejal Amin hanno sollevato la questione dell'”Uncontrolled Crawling”, ossia la raccolta incontrollata di dati, nelle piattaforme di arte generativa come Midjourney. Questo fenomeno può generare bias, discriminazioni, violazioni del copyright, ma anche un’esclusione totale degli artisti dai benefici economici derivanti dal contenuto su cui le macchine si allenano.

Alessandra Sala e Sejal Amin

Pertanto, diventa fondamentale posizionare l’artista (umano) al centro del processo per garantire che l’arte prodotta dalla collaborazione tra uomo e IA possa beneficiare i creatori di contenuti.

Artisti come l’olandese Jeroen van der Most evocato da Shutterstock e i cinque protagonisti del panel “Creative Visionaries”Rania KimChristian Mio LoclairSougwen Chung e Harry Yeff, stanno esplorando il ruolo dell’arte nel farci sondare la nostra umanità attraverso l’interazione con l’IA.

LJ Rich modera il panel Creative Visionaries

Questo processo serve sia a far evolvere la nostra umanità che a spingere le macchine al limite delle loro potenzialità tecniche. In questo modello ibrido uomo+AI, il ritmo accelerato dell’innovazione rappresenta la sfida più grande, una sfida per la quale la nostra cultura attuale non è del tutto preparata. Da questo panel è emerso un concetto molto affascinante:

“Machines need better Humans”

Le macchine necessitano di essere umani migliori, nel senso che ci sollecitano a scoprire ciò che veramente costituisce l’essenza della nostra umanità, in termini di connessioni sociali e capacità espressive. Ed è verso questa direzione che dobbiamo muoverci.

Successivamente, ha preso la parola un altro docente, Stuart Russell della University of California, Berkeley. Ha presentato la situazione in termini estremamente chiari: i modelli di Linguaggio di Grandi Dimensioni (LLM) raggiungeranno presto un punto di saturazione tecnica, in quanto non ci sarà più testo originale da acquisire nell’intero universo. Pertanto, l’evoluzione dovrà concentrarsi sulla capacità degli algoritmi di comprendere meglio il proprio comportamento e gli scopi per i quali vengono utilizzati. Sarà necessario affrontare alcune questioni morali ancora aperte riguardanti il valore dell’autonomia umana rispetto alle macchine.

Il panel con Stuart Russell

Joanna Shields, ex Ministro nel governo britannico e attuale CEO di BenevolentAI, ha sottolineato come sia necessario che la tecnologia dell’Intelligenza Artificiale venga regolamentata, per evitare che diventi un privilegio esclusivo dei ‘potenti’, ovvero coloro che dispongono di risorse intellettuali ed economiche sufficienti per trarne vantaggi significativi. Si tratta di un fenomeno già osservabile con i Social Media, che hanno creato profonde disparità.

Joanna Shields

A concludere la seconda giornata di conferenze è intervenuto il visionario Ray Kurzweil, imprenditore, pensatore e futurologo noto per aver previsto la ‘singolarità’ – il momento in cui l’intelligenza artificiale supererà l’intelligenza umana – per il 2029. Kurzweil ha espresso la convinzione che, nonostante attualmente gli esseri umani abbiano ancora un vantaggio rispetto alle macchine nella capacità di creare e apprezzare la musica, e di provare emozioni, non passerà molto tempo prima che anche questo divario venga colmato. E in quel momento, avremo raggiunto la ‘singolarità’. Gli esseri umani dovranno abituarsi a convivere con queste intelligenze basate sul silicio e ad avere delle vere e proprie ‘espansioni’ del proprio cervello. Dopo tutto, non siamo già ‘aumentati’ dalle capacità del nostro smartphone? Pensate, ad esempio, a quanto siate dipendenti dal vostro telefono quando vi trovate in un luogo sconosciuto in vacanza, forse all’estero, e lo utilizzate per comprendere la lingua locale o per trovare un ristorante in cui pranzare.

Ray Kurzweil

12° insight: il presente e il futuro è dell’umanità aumentata, sta a noi assicurarci che non ne venga fatto un uso sbagliato.

La sensazione è che le “macchine stanno arrivando”, ma la storia umana ci ha dimostrato che l’impatto delle nuove tecnologie può essere positivo. Quindi, non ci resta che preparare il terreno per far sì che l’Intelligenza Artificiale possa diventare una forza per il bene.

Cosa mi porto a casa dalla partecipazione ad AI for Good?

Ci troviamo di fronte a un momento storico: abbiamo la possibilità di utilizzare la tecnologia più rivoluzionaria della storia umana per affrontare i problemi più urgenti che l’umanità deve risolvere. I futuri scenari in cui l’AI non viene sfruttata o non viene applicata ai veri problemi dell’umanità non sono incoraggianti. Sembra proprio che non abbiamo scelta.

Io, personalmente, farò tutto il possibile per dare il mio contributo, con il supporto del fantastico team di Arkage. Presto condividerò delle novità (spero) interessanti.

🎁 Bonus Content: le migliori slide delle presentazioni dell’AI for Good

Ricordate, l’intelligenza artificiale è qui per rimanere. La sua potenziale influenza sul nostro mondo è enorme, e abbiamo tutti un ruolo da giocare nel plasmare il futuro. Che sia per il bene di tutti.

Categorie
Life Work

Change

Il cambiamento è necessario, nel lavoro come nella vita. Qualcuno si spinge a sostenere che la capacità di evolvere per adattarsi al cambiamento è la prima e più importante caratteristica di un’azienda che vuole avere successo.

Chi mi conosce sa bene che adoro i cambiamenti, perché intravedo le potenzialità incredibili che si nascondono dietro l’enorme fatica necessaria per mettere in discussione lo status quo.

Ma la sostanza della parola cambiamento? L’etimologia greca fa intuire che il sostantivato (-mento) non rende quanto il semplice verbo “cambiare”, dal greco κάμπτω ovvero curvare, piegare ma anche curvarsi, voltarsi.

L’essenza del cambiamento è ben catturata dalla prima persona singolare “cambio” che in italiano, come change in Inglese, è sia intransitivo (cambio io stesso) che transitivo (cambio un’idea o un’azienda, o persino qualcuno).

Il cambiamento richiede innanzitutto che sia il soggetto a cambiare, perché qualcos’altro possa essere cambiato.

Il mio augurio è che possiate affrontare qualunque cosa nella vita con la consapevolezza di potervi voltare verso le novità, in prima persona, e diventare abili a cambiare voi stessə.

Perché solo chi sa portare il cambiamento dentro di sé può pensare di portare cambiamento nel mondo.

Categorie
Work

Agile Business

Agile è un mindset: non è una metodologia né un’insieme di nozioni, non è fatto di pratiche né di processi. Essere agili significa abbracciare il cambiamento. Il cambiamento è il nostro percorso all’interno di moltissimi futuri possibili.

Questo post è un ‘breve’ racconto sui 3 giorni del Product Ownership Camp 2021 a Borgo Lanciano, dove si è parlato di Agile, Product Management, Coaching e molto altro. Il PO Camp Italy è Organizzato dai volontari dell’associazione Italian Agile Movement ed è giunto alla nona edizione. Il lavoro di Alessandro, Stefano, Gabriele, Fabio e di tutti gli altri organizzatori è stato fantastico, come eccezionale è stata la location (che non conoscevo).

Troverete alcuni spunti che reputo molto interessanti e, in ultimo, una piccola proposta per il prossimo PO Camp.

Premetto ringraziando Fabio Armani che mi ha invitato a partecipare al mio primo PO Camp (assieme ai colleghi Matteo e Veronica). La parola chiave di quest’evento, per me, è stata exaptation (esattamento o exattamento in italiano).

L’exaptation è la capacità di adattare ad una nuova finalità una caratteristica (fisica-biologica o mentale) nata per uno scopo diverso. Ad esempio le piume che abilitano gli uccelli al volo nascono con finalità di termoregolazione.

E già sento che la tanta conoscenza acquisita durante questi 3 giorni sarà adattabile e riutilizzabile in contesti molto diversi tra di loro e soprattutto da quello di origine. Faccio qualche esempio perché sia più chiaro per chi avrà voglia di leggere.

Il marketplace

Tutto ha avuto inizio al Marketplace: un “non luogo” dove si mercanteggiano i contenuti (ognuno propone argomenti che vuole affrontare o che vuole che altri affrontino) per organizzare l’un-conference, una non conferenza senza programma predefinito e senza regole troppo stringenti, per stimolare creatività e partecipazione.

La base di tutto è la legge dei 2 piedi (two-feet law): s’incentiva a sbirciare in giro alle sessioni senza paura di dover restare alla fine e addirittura sì potrebbe anche decidere di non partecipare affatto.

Tutto questo funziona e si potrebbe applicare a qualunque programma che normalmente immaginiamo organizzato monoliticamente e metodicamente. Rispetto ad altre un-conference a cui avevo partecipato, qui i principi sono stati rispettati in modo ferreo e nulla era pianificato.

Agile Music

Fabio Armani, in un suo talk davvero coinvolgente, ha parlato di mindset agile applicato alla creazione/produzione musicale. Ovviamente questo apre all’applicabilità del mindset in qualunque ambito di produzione creativa, magari con qualche revisitazione dei 4 valori dell’agile manifesto.

Probabilmente è facile intuire per tutti quanti conoscono un po’ di musica quanto sia vicino il concetto di interplay al mantra dell’adaptation della business agility.

Continuous Disclosure

Raffaele Colace di 20Tab ha raccontato il suo punto di vista su come introdurre un mindset agile in un’azienda, portando la propria esperienza. Centrale in tutto il discorso è stato il Ciclo di Deming e il concetto di continuous improvement attraverso la trasparenza all’interno dell’azienda.

Il Ciclo di Deming (o PDCA).

Gli interventi dei partecipanti hanno aggiunto ulteriore valore consigliando, a chi come noi sta per affrontare una transizione, alcune buone prassi:

  • lead by example e non un cambiamento calato dall’alto
  • un gruppo di sostenitori e non solo un gruppo di change agents
  • mantenere un cambiamento graduale e non a scatti
  • focus sull’outcome e non sul metodo
  • iniziare dal basso (dall’operatività) ma con un supporto silenzioso del management
  • condividere continuamente (anche con gli information radiator https://www.agilealliance.org/glossary/information-radiators/)

Gli “imbucati” del Backlog

L’intervento di Stefano Cocci si è focalizzato sostanzialmente sugli interventi AGT (a gamba tesa). Ok, finamola qui con gli acronimi.

Gli interventi a gamba tesa sono quelli che rendono difficoltoso il lavoro vero e proprio. Possono arrivare dall’esterno o dall’interno del gruppo di lavoro, ma ancora peggio potrebbero arrivare da stakeholder esterni non identificati all’inizio. È importante quindi fin da subito portare al tavolo chi è incaricato di FARE le cose (gli operativi) e sentire sempre “gli utenti” ovvero mappare tutti gli stakeholder.

L’intervento di Francesco ha aggiunto uno strumento al toolbox dei partecipanti (almeno per chi come me non lo conosceva): la matrice di interesse vs potere.

Matrice Interesse vs Potere (appunti)

Altrettanto interessante è stata la rappresentazione che sempre Francesco ha fatto della sfera di influenza vs deliverables.

Problema e Soluzione (appunti)

Il tema centrale – in cui mi ritrovo moltissimo – penso sia che troppo spesso ci concentriamo sui deliverables invece che sui goals. E questo è una conseguenza naturale del fatto che spesso gli esperti non conoscono sufficientemente il dominio del problema. Anzi, quasi sempre…

gli esperti fondano la propria conoscenza sulla soluzione e sul know-how tecnico di come si realizzano i deliverables invece che sulla conoscenza del problema

Refinement

Danilo Pasqualini ha guidato una tavola rotonda molto più verticale su un processo ongoing della metodologia Scrum: il Product Backlog Refinement (o solo refinement, precedentemente chiamato anche grooming). Il refinement è, cito la scrum guide:

“[…] l’azione di aggiungere dettagli e stime e di riordinare gli item del product backlog. È un processo continuativo nel quale il Product Owner e il Team collaborano sui dettagli degli item del backlog”

Refinement secondo la Scrum Guide.

Sono emerse una serie di best practice sul refinement applicate dalle persone intervenute alla tavola rotonda nel proprio lavoro quotidiano ed ha assunto uno spazio cruciale nella conversazione il cosiddetto ping-pong time: il tempo impiegato a recuperare tutte le informazioni necessarie ad iniziare una lavorazione.

Si è ribadito che un saldo criterio per definire quali item del backlog possono essere lavorati è quello dato dall’acronimo INVEST (independent, negotiable, valuable, estimatable, small, testable).

Product Team

Gabriele Giaccari di 20tab, che sta organizzando il Product Management Day, non poteva non incentrare il suo intervento sul tema del prodotto.

La figura del product owner testimonia ovviamente la centralità del prodotto all’interno del mindset agile. La centralità del prodotto significa voler creare un team di ‘missionari’ votati alla qualità realizzativi piuttosto che ‘mercenari’ che si limitano a ‘lavorare’. Tale approccio travalica i limiti del prodotto in senso stretto. Questo significa privilegiare l’outcome all’output ma addirittura pensare ad un impact più che un outcome: il product owner (o alcuni direbbero product manager) vuole migliorare il mondo.

Experiment

Stefano Leli ha proposto una session dedicata ad uno dei principali pilastri del mindset agile: la volontà/capacità/possibilità di fare esperimenti. Esperimenti misurabili, certo, magari in modo continuativo, ma soprattutto basati su ipotesi falsificabili.

Perché un esperimento abbia senso, dev’essere ideato e strutturato per far sì che metta in discussione l’ipotesi che si vuole provare, così da avere delle solide basi nel caso in cui l’esperimento abbia successo oppure invalidare l’ipotesi in modo robusto nel caso in cui fallisca.

L’esperimento inoltre dev’essere gestito seriamente con una durata definita, un perimetro di controllo e una misurabilità continuativa.

La sperimentazione è sfidante: quali aziende davvero si possono permettere di sperimentare liberamente?

Decision Making

Francesco Racanati ha messo in dubbio le convinzioni di tutti noi sul decision making, sulla scorta del libro Adaptive Decision Making di Gary Klein.

Lo studio di Klein si è basato su contesti in cui le decisioni vengono prese in emergenza e in modo istantaneo e sembra mettere in discussione quanto propugnato da Kahnemann e Tversky relativamente al processo decisionale umano.

Ma perché questo focus sui processi decisionali? Perché per Francesco (e tutti concordavano)

una delle vere differenze tra un agilista e un non agilista è nel decision making

In particolare, un agilista sa abbracciare il cambiamento e applicare assieme conoscenze tacite e conoscenze esplicite – quest’ultime le uniche di solito sfruttate dal management tradizionale.

L’argomento è denso e mi auguro che sarà approfondito in successivi incontri della community dell’agile movement.

Coaching

Con tutti i coach presenti, non mi ha stupito trovare un panel dedicato all’analisi delle differenze tra coach e coach agile, proposto e gestito da Daniela ‘Didi’ Rinaldi ed Emanuele Moscato.

L’accordo si è raggiunto su una sostanziale convergenza del concetto di Coach e Agile Coach in termini di ‘coaching’ (il gioco di parole è voluto). L’agile coach rientra infatti nell’ambito del coaching e mantiene l’accountability sul cliente, ‘limitandosi’ a sbloccare un potenziale su un obiettivo definito a monte. Cosa diversa è invece il‘consulente agile che è un attore del cambiamento e ne definisce i passi in modo più serrato e più calato dall’alto. A noi, aziende in fase di transizione, comprendere di cosa abbiamo bisogno. Un’idea? Forse entrambi e magari in fasi diverse.

Retrospective

L’evento non poteva che chiudersi con una retrospective in stile ‘Glad – Sad – Mad’. I commenti, raccolti in post-it giganti saranno l’input per la prossima iterazione del PO Camp.

PO Camp X

A proposito, il prossimo sarà il PO Camp X (ovvero dieci) e promette di alzare il livello: maggiore comunicazione esterna, migliore networking tra i partecipanti e una struttura ancora più leggera.

Cosa mi piacerebbe trovare l’anno prossimo?

A beneficio dei ‘nuovi’ ma anche dei ‘veterani’, nella magnifica location di Borgo Lanciano (confermata per il 2022), si potrebbe organizzare un’accoglienza esplorativa, una sorta di induction ‘forte’. Mi aspetterei un’accoglienza ridotta al minimo e una scoperta della non-struttura dell’unconference con una sorta di caccia al tesoro. Ovvero: prese le chiavi della stanza una serie di indizi dovrebbe far convergere gli invitati nella location della prima sessione di marketplace senza che ci sia nulla di predefinito e organizzato. Un serious game che permetta a tutti ancora di più di immergersi nel mindset giusto per 3 giorni di esplorazione. E poi, ovviamente, aperitivo in piscina come premio finale.

Categorie
Life Work

La parola dell’anno è Fiducia

Mai come quest’anno mi sono trovato a riflettere sul significato della parola fiducia. In ambito lavorativo ma anche personale. E quest’anno dobbiamo avere fiducia negli altri per uscire da una crisi epocale come poche altre nella storia dell’umanità. Provo a cercare conforto nell’analisi del significato stesso della parola.

Il primo termine che mi viene in mente è l’inglese Trust.

trust | trʌst |

In inglese Trust è qualcosa o qualcuno in cui avere fede a causa dell’affidabilità, della verità o di una qualche abilità incontrovertibile. Questo senso di fiducia è così forte che grazie ad essa un’essere umano acquisisce una posizione dominante. Ma è anche la fiducia di chi crede in Dio: “In God We Trust” è scritto sulle banconote americane. Sembra che sia una parafrasi di un salmo dell’Antico Testamento.

La banconota da 1 Dollaro con “In God We Trust”.

Trust in inglese è un termine anche legale: il Trust indica un rapporto giuridico nel quale una persona amministra dei beni per conto di terzi, un sistema giuridico della common law che indica qualcosa di più rispetto alla fiducia, un affido (o affidamento). Ma Trust assume un significato negativo, e probabilmente più noto, quando è inteso come una coalizione di imprese che unite vogliono limitare la concorrenza. E infatti parliamo di antitrust quando si configura una situazione di monopolio. Curioso che da una fiducia quasi sacra alla coalizione monopolistica il passo sia così breve.

Ma l’inglese ha tante parole molto specifiche e non ci può dare grandi soddisfazioni etimologiche. Per quello, c’è il greco antico. E infatti esiste in questa lingua una parola ricca di significati, tra cui fiducia.

πίστις | pistis |

La parola greca Pistis ha come significato proprio fiducia, la fiducia che si può dare, guadagnare, ma comunque una fiducia importante. Tanto che in Aristotele diventa fede, convinzione saldissima – in qualcosa o in qualcuno. Fin qui, il significato è simile a quello inglese, tanto che la Pistis è la fede religiosa e la garanzia ‘contrattuale’, un’assicurazione, una promessa e addirittura un giuramento. Questa parola in latino diventa Fides, la personificazione della lealtà, la Dea del pantheon romano che ha il suo tempio sul Campidoglio. Pensateci, la lealtà è ciò che ispira la fiducia: siamo passati in un battibaleno da un punto di vista soggettivo ad uno oggettivo.

La Dea Fides latina.

Tornando ai Greci, possiamo scovare qualche ulteriore significato di questa magnifica parola nei dialoghi platonici. Platone ci parla di Pistis quando ci delinea la sua Teoria della conoscenza, nel libro VI de La Repubblica. Secondo Platone, la conoscenza si articola in 2 stadi: l’opinione (δόξα) e la scienza propriamente detta (ἐπιστήμη). Ciascuno di questi 2 stadi è suddiviso in 2 parti: questa quadripartizione della conoscenza è raccontata metaforicamente nel celebre Mito della Caverna.

All’inizio del percorso della conoscenza gli uomini sono come prigionieri incatenati in una caverna buia, bloccati cosicché possano osservare solo il muro davanti a sé, dove sono proiettate da un grande fuoco delle ombre di forme che rappresentano oggetti, animali, piante o persone. Queste immagini sono le sole cose che possiamo conoscere in questo stadio, definito immaginazione (Εἰκασία). I prigionieri farebbero soltanto un piccolo passa avanti se rivolgessero l’attenzione direttamente alle forme che generavano tali ombre, perché resterebbero ancora nella caverna. Questa fase è ancora una conoscenza immatura, perché i prigionieri permangono all’interno della Caverna. Questa è la fase della Fede (Πίστις), ancora legata al divenire dell’esistenza e quindi lontano dall’essere scienza in quanto ricerca intellattuale.

Non dobbiamo stupirci: Platone conferiva maggiore importanza alle idee, agli archetipi, che non alle cose – che alla fine sono soltanto dei simulacri. Sembra quasi un declassamento rispetto all’altezza del termine Fiducia, eppure a ben vedere è un punto di vista che ne coglie un aspetto essenziale.

La Pistis di Platone è un atto di fede che non può essere “verificato” intellettualmente. Ed è questa la sua magia. La fiducia non ha a che fare con delle valutazioni razionali e intellettuali: quando diamo o chiediamo fiducia, lo facciamo con il cuore.

In questo senso, quest’anno mi ha insegnato che la fiducia è davvero un atto di fede. E per questo è così importante alimentarla. Perché fidarsi significa credere negli altri e dar loro una possibilità. È vero, è un rischio. Eppure tale fiducia innesca una serie di reazioni positive che non hanno nulla a che fare con la valutazione razionale del rischio. La fiducia si può perdere ma si può anche recuperare e noi essere umani siamo in grado di avvertire quando c’è o quando manca.

Ci sono poche cose più belle di un atto di fiducia incondizionata: pensate alla fiducia tra amanti o tra genitori e figli. È proprio quando un bambino è ‘in fiducia’ che inizia a camminare da solo.

Quante fantastiche cose potremmo fare, come umanità, se solo ci fosse più fiducia negli altri?

Categorie
Work

Coronavirus: cosa possono fare le aziende?

Il Coronavirus, com’era prevedibile, è arrivato anche in Italia. Sarà responsabilità delle istituzioni arginare l’epidemia. Ma cosa possono fare le aziende per tutelarsi?

Primo obiettivo: tutelare la sicurezza e salute dei lavoratori

Ai sensi del D.lgs. 81/2008 “è in capo al datore di lavoro, l’obbligo di tutelare i propri dipendenti dal rischio biologico eventualmente connesso alla prestazione lavorativa”. Ovvero, è responsabilità dell’azienda tutelare la salute dei propri dipendenti e collaboratori in casi come questo.

Un altro ruolo molto importante è quello di informare e formare tutta la forza lavoro sulle misure precauzionali adeguate.

Un’ottima fonte di informazioni certe e verificate è il sito del Ministero della Salute. Ci sono anche diversi video che è opportuno diffondere il più possibile.

Il punto di vista dell’Impresa

Per le aziende, soprattutto quelle più piccole, è fondamentale mantenere un minimo livello di produttività. In Italia ci sono tantissime PMI che possono rischiare molto per lunghi periodi di chiusura temporanea del luogo di lavoro, come nel caso estremo di quarantena forzata.

Più in generale, un’azienda deve darsi alcune priorità:

  • Garantire la sicurezza dei lavoratori
  • Mantenere il più possibile un livello di servizio ai clienti 
  • Mantenere in generale un buon livello di produttività
  • Supportare i partner in difficoltà (clienti e fornitori)

La prima soluzione più ovvia è quello dello smartworking, legale e regolamentato anche in Italia, ma che spesso viene visto ‘male’ dal datore di lavoro. E invece è questo il momento per introdurre il lavoro da casa per tutti, cercando anche di dotare tutti i dipendenti delle attrezzature adeguate per farlo (computer, accessi da remoto etc.).

Quali precauzioni e protocolli adottare in caso di Coronavirus?

In generale, le precauzioni sono quelle che abbiamo visto ovunque in questi giorni e sono ben riassunte in un ottimo poster sul Nuovo Coronavirus realizzato dal Ministero della Salute e dall’Istituto Superiore di Sanità.

Il poster sul Coronavirus realizzata dal Ministero della Salute e dall’ISS

Sempre sul sito ci sono anche le risposte alle domande più comuni sul Coronavirus.

Ma sarebbe anche utile che le aziende si dotassero di un vero e proprio protocollo nel caso si trovassero in zone colpite da ordinanze di pubblica sicurezza particolarmente restrittive. Molte aziende in Lombardia e Veneto si sono già attrezzate.

Alcune idee per un regolamento aziendale:

  • introdurre lo smartworking e limitare tutti gli spostamenti/trasferte
  • definire clienti o servizi prioritari che devono essere tutelati maggiormente
  • comunicare a clienti e partner i protocolli adottati per garantire reperibilità e un adeguato livello di trasparenza
  • definire priorità amministrative per tutelare gli aspetti finanziari della gestione operativa
  • identificare dei responsabili all’interno dei gruppi di lavoro per coordinare provvedimenti ulteriori

Infine, da comunicatore, raccomanderei anche di mantenere sempre il più possibile un livello di informazione costante e trasparente su quello che l’azienda sta facendo nel corso dell’emergenza.

Aggiornamento del 23.02 – Diverse persone mi hanno chiesto cosa fare in questi giorni per contribuire alle misure di contenimento, soprattutto se non ci si trova nelle zone rosse ma magari si lavora con aziende in Piemonte, Lombardia o Veneto. La precauzione più ovvia è ovviamente quella di limitare il più possibile gli spostamenti e le trasferte in quelle zone e sostituire gli incontri de visu con le conference call. È un buon modo per non creare ansie inutili ma allo stesso tempo mantenere in piedi tutte le attività lavorative programmate.

Aggiornamento del 24.02 – Piano di qualche azienda ha cominciato a riflettere sull’impatto di una quarantena forzata sui reparti eCommerce delle aziende. Un bell’articolo di Digiday ad esempio racconta che in Cina molte aziende hanno sostituito attività di comunicazione digitali con quelle fisiche (Outdoor, eventi etc.) e gli eCommerce hanno avuto un boom, perché le persone si fanno consegnare a casa tutto quello che prima acquistavano nel negozio. Mi viene in mente un semplice consiglio per le aziende: trovate modo di garantire la robustezza delle operazioni lato eCommerce e di coprire i bisogni dei vostri clienti in modo alternativo agli incontri fisici che saranno fortemente impattati dalle diverse politiche di sicurezza sanitaria.

Aggiornamento del 25.02 – Ho registrato una puntata del podcast Il Bernoccolo assieme ad Andrea Ciulu sul tema Nuovo Coronavirus. Potete trovarlo su Apple Podcasts o Spotify, oppure farlo partire dal player qui sotto.

Ascolta “#77 – Il Coronavirus contagerà i brand?” su Spreaker.

Aggiornamento del 28.02 – Un bell’articolo su HBR spiega cosa le aziende devono fare per prepararsi. Le cose più interessanti sono in fondo: il Covid-19 non sarà un caso isolato e cerchiamo di imparare qualcosa da questa situazione di emergenza.

Aggiornamento del 02.03 – Vodafone ha fatto un bel regalino ai clienti business: giga illimitati a supporto dello smartworking. Davvero una bella mossa!

Aggiornamento 07.03 – Molte aziende si stanno mobilitando per aiutare gli italiani ai tempi del Coronavirus: arrivano donazioni e agevolazioni da Esselunga, Unicredit, Xiami, TIM, Eni, UnipolSai e molte altre. Bella l’iniziativa di Google che rende gratuite le funzioni avanzate di videoconferenza Google Meet per gli utenti G Suite Business e G Suite Education. L’imperativo è andare avanti e contribuire il più possibile a frenare il contagio restando a casa e limitando ogni spostamento.

Aggiornamento 11.03 – Nuova puntata del Bernoccolo sugli eventi cancellati o posticipati. Cosa faremo in questi mesi? Potete trovarlo su Apple Podcasts o Spotify.

Listen to “#78 – Cancellato! Cosa succede agli eventi nel 2020” on Spreaker.

[photo by Craig Whitehead on Unsplash]

Categorie
Work

La Vision di un’azienda

Molti parlano di Vision. La definirei come qualcosa che stabilisce cosa è importante per un’azienda sul breve, medio e lungo termine. È una sorta di inclinazione (o una fissazione?) che permette di compiere alcune scelte invece di altre.

Lo spiega in modo conciso e efficace Simon Sinek nel video che riporto qui sotto.

Non è detto che la visione sia sempre ‘alta’, può capitare che in alcune aziende le scelte siano orientate puramente al profitto di breve termine. In tal caso l’azienda diventa miope e non può andare molto lontano.

Perché la Vision serve in un’azienda?

In un’azienda ogni giorno vengono prese molte decisioni. E quasi tutte hanno un’impatto sul presente e sul futuro dell’azienda stessa. Come far sì che tali decisioni vadano tutte nella stessa direzione? Eh già, la vision.

Non è però facile far sì che tutti, ma davvero tutti, condividano la vision dell’azienda in cui lavorano. Qualcuno è molto motivato da un approccio ‘alto’, qualcun altro invece è più cinico e disilluso. E poi qualche volta parliamo più di Mission (quella sì dovrebbe motivare). Ma non è detto che mission e vision non possano essere la stessa cosa – come ad esempio avviene per Apple (secondo Comparably).

Mission e Vision di Apple secondo il sito Comparably.

Il vero ruolo della Vision: backcasting

Una visione solida permette al management di passare dal forecasting al backcasting. Invece di cercare di prevedere come sarà il futuro, è più utile ed efficace:

  1. immaginare un obiettivo (un master plan da qui a 10 anni come fa Tesla, ad esempio);
  2. a partire dall’obiettivo immaginare una serie di processi decisionali, regole e pianificazioni utili ad arrivare a quell’obiettivo;
  3. mantenere degli step intermedi per verificare che la visione di lungo termine sia rispettata.
Il backcasting parte dalla vision per pianificare tutte le scelte.

In questo modo possiamo influenzare davvero ogni scelta non tanto perché tutti in azienda abbiano la visione stampata nella mente, ma perché sono le stesse regole del gioco a fare in modo che gli obiettivi di tale visione possa essere raggiunti.

Photo by Bec Ritchie on Unsplash