Categorie
Work

AI for Good 2023

Cosa ho imparato alla conferenza di Ginevra sull’Intelligenza Artificiale

Il 6 e 7 luglio si è tenuta la conferenza internazionale AI for Good dove alcuni tra i più grandi pensatori contemporanei hanno conversato sui due temi a mio avviso più importanti della nostra era: l’intelligenza artificiale con i suoi impatti e gli obiettivi di sviluppo sostenibile dell’ONU. Unire questi due mondi è una necessità: l’AI è il principale strumento che abbiamo per salvare il nostro pianeta.

“AI for Good” è una piattaforma digitale globale delle Nazioni Unite che opera tutto l’anno. Questa piattaforma consente agli innovatori dell’intelligenza artificiale (AI) e ai responsabili delle decisioni di imparare, discutere e collaborare per sviluppare soluzioni AI concrete che promuovono gli Obiettivi di Sviluppo Sostenibile (SDGs) delle Nazioni Unite. Dopo una pausa dovuta al Covid, quest’anno la conferenza si è svolta il 6 e 7 luglio presso il CICG (International Conference Center Geneva). La necessità di organizzare vertici globali incentrati sull’azione nell’ambito dell’AI è nata dalla constatazione che il dibattito accademico era dominato da ricerche specifiche, come il Netflix Prize per migliorare l’algoritmo di raccomandazione di film. Durante la conferenza di quest’anno, uno degli oratori ha sfidato l’audience con una domanda provocatoria: “Crediamo veramente che il massimo potenziale dell’AI sia fornire annunci pubblicitari su cui le persone cliccano di più?”.

AI for Good si dedica a promuovere ricerche sull’intelligenza artificiale che possono contribuire alla risoluzione di problemi globali, in particolare nel contesto degli Obiettivi di Sviluppo Sostenibile. Questa iniziativa è gestita dall’ITU (Unione Internazionale delle Telecomunicazioni), un’agenzia delle Nazioni Unite specializzata nelle tecnologie dell’informazione e della comunicazione.

L’ITU, istituita nel 1865, afferma sul suo sito web che “Ogni volta che fai una chiamata tramite il cellulare, accedi a Internet o invii un’email, stai beneficiando del lavoro dell’ITU […] L’ITU si impegna a connettere tutte le persone del mondo – ovunque vivano e qualunque siano i loro mezzi. Attraverso il nostro lavoro, proteggiamo e sosteniamo il diritto di comunicare di tutti.” Di conseguenza, è del tutto logico che l’ITU promuova la creazione di un sistema di governance globale per l’Intelligenza Artificiale, che rappresenta attualmente la tecnologia informatica e di comunicazione più avanzata a nostra disposizione.

Quali erano le mie aspettative su AI for Good 2023?

Mi aspettavo fondamentalmente di poter esplorare lo stato avanzato dell’AI e di avere l’opportunità di apprendere direttamente dalle figure più influenti in questo campo. Ero inoltre interessato a capire come l’Intelligenza Artificiale possa influenzare positivamente il nostro mondo, argomento cruciale per l’azienda – Arkage – che ho l’onore di guidare attraverso un’era di potenti cambiamenti.

La mia prima impressione dell’evento è stata sorprendente: robot, robot e ancora robot, ovunque. Dalla ormai celebre Sophia ad altri robot antropomorfi estremamente avanzati, fino a robot di salvataggio, bracci meccanici, droni, quadrupedi saltellanti e piccoli cingolati. La hall del centro congressi ospitava stand di diverse aziende partner dell’iniziativa e palchi per sessioni secondarie che trattavano temi più tecnici – sicuramente di grande interesse per i professionisti del settore. Ma per me, filosofo di formazione, il clou era costituito dall’auditorium con il palco principale. Sono riuscito a raggiungerlo giusto in tempo per l’inizio dell’evento, dopo aver schivato un’avanzatissima foca-robot da compagnia.

La conferenza si è svolta nell’arco di due giorni: il primo giorno ha avuto un carattere più istituzionale, con il discorso d’apertura tenuto dal segretario generale delle Nazioni Unite, mentre il secondo giorno ha visto una maggiore focalizzazione su questioni di governance e sul futuro dell’Intelligenza Artificiale.

AI for Good 2023 – Primo giorno

L’anteprima della conferenza è stata spettacolare: l’artista Harry Yeff ha meravigliato il pubblico con la sua “machine inspired voice”. È qualcosa che dovreste ascoltare voi stessi, poiché è impossibile descriverlo a parole.

Harry Yeff and LJ Rich

1° insight: gli artisti hanno una relazione con l’innovazione più intima delle altre persone che hanno a che fare con l’AI.

L’elemento artistico ha acquisito una posizione centrale nell’evento, raggiungendo il suo apice in un panel del secondo giorno, anche grazie allo splendido lavoro della presentatrice LJ Rich, artista AI lei stessa.

In questo clima di fervore artistico, António Guterres, Segretario Generale dell’ONU, ha saputo riportare l’audience alla realtà, sottolineando la necessità di utilizzare il potere dell’AI per accelerare la transizione verso i 17 SDGs (gli obiettivi di sviluppo sostenibile da raggiungere entro il 2030). Ha evidenziato l’importanza di stabilire delle linee guida che impediscano a questa tecnologia di deviare dal suo percorso verso il ‘bene’.

Antònio Guterres

La cooperazione internazionale è sempre stata al centro della conferenza – evidentemente Ginevra è la location perfetta per questo tipo di approccio – e ciò lo ha ribadito anche Doreen Bogdan-Martin, Segretaria Generale dell’ITU. Proprio attraverso l’impegno congiunto di tutti i Paesi membri dell’ONU, l’AI può essere utilizzata per rimettere in pista l’Agenda 2030.

Doreen Bogdan-Martin

Secondo Bogdan-Martin, esistono tre scenari futuri possibili: 

  1. Un uso improprio dell’AI che causerà l’insuccesso degli SDG e potenzialmente conseguenze ancora peggiori; 
  2. Un uso non regolamentato dell’AI che accentuerà le disparità tra le nazioni e le disuguaglianze tra coloro che hanno moltissimo (potere, denaro, opportunità) e chi non ha nulla; 
  3. Il successo nel raggiungimento degli obiettivi SDG grazie anche all’implementazione dell’AI.

2° insight: l’AI è il super potere che ci permetterà di accelerare verso il raggiungimento degli SDG.

Ma cosa significa concretamente avere successo nell’utilizzo dell’AI? Numerosi esempi provengono dalla serie “Now Go Build” (disponibile su Amazon Prime) che presenta casi di successo in tutto il mondo. Il protagonista della serie, Werner Vogels, CTO di Amazon, ha preso parte alla conferenza pur con l’aiuto di una stampella, giustificandosi per avere un ginocchio artificiale, reso possibile dai progressi tecnologici. La tecnologia, e in particolare l’AI, può davvero fungere da acceleratore verso gli SDG, a patto che le macchine si limitino a fare previsioni e che sia l’umanità a prendere le decisioni. Perché ciò si realizzi, è fondamentale disporre di una grande quantità di dati, che rappresentano le basi per tutte le AI. Quindi, l’obiettivo è democratizzare l’accesso ai dati, rendendo l’AI lo strumento che ci consentirà di ottenere approfondimenti preziosi.

Werner Vogels

Quello che mi ha piacevolmente sorpreso di questa conferenza è stata l’ampia presenza femminile, in un campo – quello dell’AI – tradizionalmente dominato dagli uomini, come ha sottolineato Lila Ibrahim di Google Deepmind. Salendo sul palco dopo Werner, ha enfatizzato l’importanza di stabilire principi che permettano all’AI di beneficiare l’intera umanità. Questi principi sono necessari innanzitutto per delineare una governance dell’AI, e poi per regolare le attività di ricerca, sviluppo e implementazione dell’AI, con le relative ripercussioni sull’umanità.

Lila Ibrahim

Umanità sempre più al centro del dibattito: è stato notevole l’intervento di Moriba Jah, scienziato e ingegnere aerospaziale, che ha iniziato il suo discorso ringraziando gli antenati, la Madre Terra e il Padre Cielo, prima di lanciarsi in un discorso che univa tecnicismi e momenti di grande ispirazione. L’idea della Terra come nave spaziale è stata utilizzata per spiegare il progetto Wayfinder, che mira a prevedere in tempo reale l’orbita di migliaia di satelliti attorno alla Terra per prevedere e potenzialmente prevenire impatti catastrofici. Ma ciò che ha contraddistinto l’intervento di Jah è stato il continuo riferimento al ruolo dell’essere umano e alla necessità di empatia. Mi ha particolarmente colpito una sua affermazione: “Believing in Randomness is saying no to learning”.

3° insight: nel mondo dell’AI c’è sempre da imparare e non è mai troppo tardi per iniziare e studiare.

Vero genio dei nostri tempi, Jah, ha colto l’occasione per sottolineare l’importanza di un sistema di governance per l’AI, che dovrebbe comprendere almeno tre aspetti fondamentali:

  • prevedibilità dei risultati;
  • trasparenza del processo;
  • responsabilità (accountability) delle decisioni.

A quel punto della conferenza, ho iniziato a percepire come l’agenda fosse stata progettata in modo davvero meticoloso, con un ritmo perfettamente scandito e interventi che si integravano alla perfezione l’uno con l’altro.

Infatti, subito dopo Jah, Andrew Zolli di Planet, azienda specializzata nell’osservazione satellitare della Terra, ha preso la parola.

Andrew Zolli

Planet utilizza l’AI per gestire l’enorme quantità di dati che raccoglie praticamente su ogni metro quadrato del nostro pianeta. Zolli ha evidenziato un aspetto spesso trascurato: solo grazie all’AI siamo in grado di estrarre informazioni e approfondimenti da questa mole di dati che altrimenti nessun essere umano potrebbe utilizzare direttamente. Il ruolo dell’AI generativa, quindi, diventa quello di rendere queste informazioni accessibili al maggior numero possibile di persone, in modo semplice.

4° insight: l’enorme quantità di dati che abbiamo a disposizione può essere sfruttata ormai soltanto con l’AI (e in nessun altro modo).

Dal Pianeta Terra a Marte con Vandi Verma, scienziata della NASA che ha descritto come l’AI sia fondamentale per l’esplorazione su Marte. La robotica avanzata e i sistemi di guida autonoma sono necessari per eseguire missioni che sarebbero impossibili da controllare a distanza dal nostro pianeta (ci vogliono oltre 24 minuti per trasmettere dati tra Terra e Marte).

5° insight: la tecnologia AI della guida autonoma ha senso sulla terra in alcuni (pochi) casi, ma è invece fondamentale per l’esplorazione spaziale.

Vandi Verma

Ma non solo droni e piccole sonde spaziali: all’evento AI for Good, i robot umanoidi hanno preso il palcoscenico insieme a David Hanson, il creatore di Sophia the Robot, il più famoso tra i robot “human-inspired”. Dopo una dimostrazione sul palco, l’impressione è che, grazie all’AI generativa, i robot possano finalmente offrire un’esperienza di conversazione realistica, cosa che era impossibile fino a pochi mesi fa.

David Hanson con i suoi robot sul palco

Il pomeriggio è iniziato con l’eccezionale intervento di Yuval Harari, intervistato da Nicholas Thompson (The Atlantic). Harari sostiene la necessità di un controllo rigoroso sull’AI, non tanto per quanto riguarda gli sviluppi, quanto piuttosto in termini di rilascio al pubblico di nuove funzionalità, cioè non tanto in riferimento al development, quanto al deployment. L’assunto è che l’AI, pur essendo in grado di portare benefici immensi all’umanità, sia potenzialmente pericolosa. Questo perché si tratta di una tecnologia qualitativamente diversa dalle altre: può prendere decisioni in modo autonomo e può generare idee “nuove”. Essa richiede quindi regolamentazioni, soprattutto considerando che gli esseri umani non hanno una buona storia di capacità di controllo delle grandi innovazioni tecnologiche (ovvio il riferimento alla bomba atomica). Harari vede un pericolo nell’eventuale messa in discussione dell’essenza stessa della società democratica: si tratta di uno scenario distopico più simile a quello descritto da Black Mirror che non quello di Terminator. Un’AI che non si presenta come tale potrebbe farci perdere il controllo delle conversazioni pubbliche, amplificando esponenzialmente i rischi che abbiamo intravisto nei social media. Ecco perché, secondo lui,

“È fondamentale capire se sto parlando con un essere umano o con un’AI”.

Harari sostiene che le grandi aziende che sviluppano modelli di AI dovrebbero dedicare il 20% del loro budget al miglioramento della sicurezza dei sistemi, seguendo l’esempio di altri settori regolamentati, come l’industria automobilistica o aeronautica.

6° insight: la minaccia dell’AI non riguarda la fine del mondo in stile Skynet ma la fine della democrazia moderna.

Quasi nessun riferimento ai rischi legati alla perdita di posti di lavoro, che invece è stato lo spunto di avvio del panel moderato dalla fantastica Maja Mataric: abbiamo di fronte solo due possibili scenari, automation o augmentation. Ovvero la sostituzione del lavoro umano o il miglioramento (enhancement) di tale lavoro. Diventa importante definire uno standard di interazione uomo-robot in cui l’AI possa abilitare le persone a comportarsi e agire meglio. Non dovrebbe inoltre sorprenderci che in un paper in fase di pubblicazione su arXiv, il team di ricerca capitanato dalla Mataric abbia misurato e validato la personalità e il comportamento di alcuni modelli linguistici (LLM) in base ad alcuni standard riconosciuti (come ad esempio il Big Five).

Maja Mataric

Il panel, incentrato sul concetto di interazione uomo-robot e in generale uomo-macchina ha visto anche altri protagonisti, che hanno sollevato i due temi secondo me più rilevanti. In primo luogo, esiste un urgente bisogno di una carta etica riconosciuta per l’industria della robotica, al fine di instaurare un’autoregolamentazione. Tuttavia, fino ad oggi, non esiste nulla del genere, il che solleva preoccupazioni riguardo alla sicurezza.

Inoltre, il concetto di robotizzazione supera di gran lunga l’idea di robot umanoidi. Il pensiero di un robot che svolge lavori domestici o di un veicolo autonomo guidato da un robot è fuorviante. In realtà, è molto più probabile che l’automazione futura sia “invisibile”, modificando i nostri dispositivi di uso quotidiano per renderli più autonomi e meno dipendenti dall’interazione umana.

Uno scenario potenziale potrebbe essere l’automobile che non necessita di un conducente, quindi non ha bisogno di un volante. Allo stesso modo, l’AI e la robotica stanno diventando sempre più rilevanti nel settore sanitario. Il futuro della salute è digitale, non solo per quanto riguarda le connessioni, ma anche l’accesso ai dati, e l’AI generativa svolge un ruolo centrale in questo processo. 

7° insight: l’innovazione dell’automazione animata dall’AI non è soltanto quella dei robot, ma prevederà capacità intellettuali e fisiche sostanzialmente diverse dall’umanizzazione che avevamo in mente nei film di fantascienza.

Altre due industrie importanti che potrebbero influenzare l’evoluzione globale dell’AI sono l’aviazione civile e l’energia nucleare. Questi settori hanno una governance definita a livello internazionale e potrebbero quindi ispirare il prossimo Global Compact 2024 sull’AI, come annunciato durante la conferenza. Secondo Amandeep Singh Gill, rappresentante ONU per la Tecnologia, l’obiettivo principale è promuovere gli effetti benefici e minimizzare i rischi di questa tecnologia digitale. Questo sarà raggiunto attraverso meccanismi di sicurezza, regole di governance e standard condivisi.

Roberto Viola e altri

Un esempio di questo tipo di cooperazione internazionale è l’accordo tra gli USA e l’UE sulla modellazione degli eventi atmosferici estremi. Ne hanno discusso Anne Neuberger, rappresentante della Casa Bianca, e Roberto Viola, direttore generale DG Connect della Commissione Europea. Hanno sottolineato l’importanza di un’IA “trustworthy” (affidabile) e “human-centric” (centrata sull’essere umano), un approccio all’intelligenza artificiale che sia inclusivo, sicuro e responsabile. Questi concetti sono stati poi ripresi da altri relatori nel secondo giorno della conferenza.

8° insight: l’AI deve portare ad una nuova stagione di cooperazione internazionale, ma dove sono Russia, Cina e India?

La giornata si è conclusa con un intervento di Lori Rodney di Shutterstock, partner della conferenza e protagonista nel campo dell’AI generativa con la recente iniziativa shutterstock.ai.

Lori Rodney

AI for Good 2023 – Secondo giorno

Il secondo giorno della conferenza è iniziato con una performance musicale a cura del batterista Jojo Mayer, che collabora con intelligenze artificiali per migliorare le sue capacità artistiche.

A differenza del primo giorno, il contenuto della seconda giornata è stato più focalizzato sulla tecnologia e meno sulle questioni istituzionali, con presentazioni degne dei migliori TED Talks.

La serie di presentazioni eccezionali della seconda giornata è stata inaugurata da Bernard Maissen del governo svizzero. Ha sottolineato l’importanza di regolamentare non l’IA in sé, ma il suo utilizzo, per assicurare che l’innovazione rimanga sempre possibile per il progresso dell’umanità. Ha sottolineato il ruolo guida degli Obiettivi di Sviluppo Sostenibile (SDG) nel dirigere la nostra attenzione verso gli obiettivi più importanti da perseguire per il bene dell’umanità.

Juan Lavista Ferres del gruppo AI for Good Lab di Microsoft ha acceso l’entusiasmo dei partecipanti con una domanda provocatoria:

“La nostra generazione sarà veramente ricordata per aver usato l’IA soltanto per far cliccare le persone sugli annunci pubblicitari?”

La sua risposta è che l’AI potrebbe essere l’unico strumento capace di risolvere alcuni dei problemi più pressanti dell’umanità. E in fondo, siamo una specie che ama le sfide: dopo tutto, abbiamo mandato un uomo sulla Luna prima di inventare le valigie con le rotelle.

Juan Lavista Ferres

Nello stesso modo in cui l’elettricità ha rivoluzionato il benessere della specie umana nel 19° secolo, l’IA è destinata a svolgere un ruolo significativo nel promuovere una maggiore diffusione dei diritti umani nel futuro. Non è detto che la sicurezza debba essere l’unico obiettivo: ad esempio, la soluzione elettrica basata sulla sicurezza (DC) proposta da Edison si è dimostrata meno efficace rispetto alla soluzione basata sulla distribuzione su larga scala (AC) di Tesla. Il punto fondamentale è comprendere che l’IA è sia uno strumento di potenziale utilità che un’arma: i modelli linguistici di apprendimento automatico (LLM) sono gli strumenti che possono aiutarci a trarre vantaggio dai dati non strutturati che popolano la nostra infosfera.

9° insight: occorre regolamentare l’uso dell’AI in modo da aumentarne i benefici su larga scala, la sicurezza non deve essere l’unico metro di giudizio.

Il Professore Gary Marcus della New York University ha identificato le tre grandi sfide che l’umanità deve affrontare per assicurare un futuro positivo: la governance, l’allineamento e i valori. La governance si riferisce alla regolamentazione dell’AI; l’allineamento riguarda la capacità di allineare l’AI con gli obiettivi umani di sopravvivenza e prosperità (e prevenire che l’AI anteponga i suoi interessi una volta che supererà l’intelligenza umana); i valori rappresentano la necessità di basare ogni decisione su valori condivisi a livello globale, piuttosto che sulle scelte individuali.

Gary Marcus

Dal punto di vista tecnologico, ci troviamo ancora all’inizio del percorso dell’IA, come affermato da Marcus. Questo è dimostrato dalle cosiddette “allucinazioni” dei modelli di apprendimento automatico, che rappresentano un livello di qualità inaccettabile dal punto di vista del software e sono, in effetti, dei veri e propri malfunzionamenti.

10° insight: gli attuali modelli linguistici alla base della AI sono ancora ad un livello primordiale, pieno di malfunzionamenti tecnici.

Una prospettiva affascinante è stata offerta da Orly Lobel, esperta di sistemi cognitivi e autrice del libro “The Equality Machine”. Secondo Lobel, esistono numerosi pregiudizi e bias nel campo dell’IA, tra i quali:

  • Il doppio standard: il livello di sicurezza richiesto per l’IA dovrebbe essere lo stesso che ci aspettiamo dagli esseri umani. Ad esempio, la guida autonoma non potrà mai raggiungere una sicurezza del 100%.
  • Ignorare la scarsità delle risorse: l’IA e la digitalizzazione potrebbero essere strumenti per colmare le lacune nell’accesso alle risorse, come l’istruzione e la sanità.
  • Il dualismo libertà-proibizionismo: la regolamentazione dell’IA richiede sfumature di giudizio, come di solito accade per i sistemi complessi.
  • La (falsa) importante dello human-in-the-loop: non sempre è ottimale affidare una decisione a un essere umano. Ad esempio, ci sono procedure nel settore dell’aviazione che richiedono un’automazione completa per garantire la sicurezza.
Orly Lobel

Il concetto di ‘automation rights’, o diritti di automazione, è emerso fortemente: il diritto di automatizzare certi processi della nostra vita o del nostro lavoro necessita di un approccio sofisticato verso la fiducia nell’IA, che eviti eccessi sia in termini di diffidenza (undertrust) che di fiducia cieca (overtrust).

11° insight: gli esseri umani devono poter essere liberi di automatizzare ciò che è giusto automatizzare, per il bene comune.

Il problema dei bias è stato toccato in modo significativo anche durante il secondo intervento di Shutterstock alla conferenza. Alessandra Sala e Sejal Amin hanno sollevato la questione dell'”Uncontrolled Crawling”, ossia la raccolta incontrollata di dati, nelle piattaforme di arte generativa come Midjourney. Questo fenomeno può generare bias, discriminazioni, violazioni del copyright, ma anche un’esclusione totale degli artisti dai benefici economici derivanti dal contenuto su cui le macchine si allenano.

Alessandra Sala e Sejal Amin

Pertanto, diventa fondamentale posizionare l’artista (umano) al centro del processo per garantire che l’arte prodotta dalla collaborazione tra uomo e IA possa beneficiare i creatori di contenuti.

Artisti come l’olandese Jeroen van der Most evocato da Shutterstock e i cinque protagonisti del panel “Creative Visionaries”Rania KimChristian Mio LoclairSougwen Chung e Harry Yeff, stanno esplorando il ruolo dell’arte nel farci sondare la nostra umanità attraverso l’interazione con l’IA.

LJ Rich modera il panel Creative Visionaries

Questo processo serve sia a far evolvere la nostra umanità che a spingere le macchine al limite delle loro potenzialità tecniche. In questo modello ibrido uomo+AI, il ritmo accelerato dell’innovazione rappresenta la sfida più grande, una sfida per la quale la nostra cultura attuale non è del tutto preparata. Da questo panel è emerso un concetto molto affascinante:

“Machines need better Humans”

Le macchine necessitano di essere umani migliori, nel senso che ci sollecitano a scoprire ciò che veramente costituisce l’essenza della nostra umanità, in termini di connessioni sociali e capacità espressive. Ed è verso questa direzione che dobbiamo muoverci.

Successivamente, ha preso la parola un altro docente, Stuart Russell della University of California, Berkeley. Ha presentato la situazione in termini estremamente chiari: i modelli di Linguaggio di Grandi Dimensioni (LLM) raggiungeranno presto un punto di saturazione tecnica, in quanto non ci sarà più testo originale da acquisire nell’intero universo. Pertanto, l’evoluzione dovrà concentrarsi sulla capacità degli algoritmi di comprendere meglio il proprio comportamento e gli scopi per i quali vengono utilizzati. Sarà necessario affrontare alcune questioni morali ancora aperte riguardanti il valore dell’autonomia umana rispetto alle macchine.

Il panel con Stuart Russell

Joanna Shields, ex Ministro nel governo britannico e attuale CEO di BenevolentAI, ha sottolineato come sia necessario che la tecnologia dell’Intelligenza Artificiale venga regolamentata, per evitare che diventi un privilegio esclusivo dei ‘potenti’, ovvero coloro che dispongono di risorse intellettuali ed economiche sufficienti per trarne vantaggi significativi. Si tratta di un fenomeno già osservabile con i Social Media, che hanno creato profonde disparità.

Joanna Shields

A concludere la seconda giornata di conferenze è intervenuto il visionario Ray Kurzweil, imprenditore, pensatore e futurologo noto per aver previsto la ‘singolarità’ – il momento in cui l’intelligenza artificiale supererà l’intelligenza umana – per il 2029. Kurzweil ha espresso la convinzione che, nonostante attualmente gli esseri umani abbiano ancora un vantaggio rispetto alle macchine nella capacità di creare e apprezzare la musica, e di provare emozioni, non passerà molto tempo prima che anche questo divario venga colmato. E in quel momento, avremo raggiunto la ‘singolarità’. Gli esseri umani dovranno abituarsi a convivere con queste intelligenze basate sul silicio e ad avere delle vere e proprie ‘espansioni’ del proprio cervello. Dopo tutto, non siamo già ‘aumentati’ dalle capacità del nostro smartphone? Pensate, ad esempio, a quanto siate dipendenti dal vostro telefono quando vi trovate in un luogo sconosciuto in vacanza, forse all’estero, e lo utilizzate per comprendere la lingua locale o per trovare un ristorante in cui pranzare.

Ray Kurzweil

12° insight: il presente e il futuro è dell’umanità aumentata, sta a noi assicurarci che non ne venga fatto un uso sbagliato.

La sensazione è che le “macchine stanno arrivando”, ma la storia umana ci ha dimostrato che l’impatto delle nuove tecnologie può essere positivo. Quindi, non ci resta che preparare il terreno per far sì che l’Intelligenza Artificiale possa diventare una forza per il bene.

Cosa mi porto a casa dalla partecipazione ad AI for Good?

Ci troviamo di fronte a un momento storico: abbiamo la possibilità di utilizzare la tecnologia più rivoluzionaria della storia umana per affrontare i problemi più urgenti che l’umanità deve risolvere. I futuri scenari in cui l’AI non viene sfruttata o non viene applicata ai veri problemi dell’umanità non sono incoraggianti. Sembra proprio che non abbiamo scelta.

Io, personalmente, farò tutto il possibile per dare il mio contributo, con il supporto del fantastico team di Arkage. Presto condividerò delle novità (spero) interessanti.

🎁 Bonus Content: le migliori slide delle presentazioni dell’AI for Good

Ricordate, l’intelligenza artificiale è qui per rimanere. La sua potenziale influenza sul nostro mondo è enorme, e abbiamo tutti un ruolo da giocare nel plasmare il futuro. Che sia per il bene di tutti.

Categorie
Life Work

Change

Il cambiamento è necessario, nel lavoro come nella vita. Qualcuno si spinge a sostenere che la capacità di evolvere per adattarsi al cambiamento è la prima e più importante caratteristica di un’azienda che vuole avere successo.

Chi mi conosce sa bene che adoro i cambiamenti, perché intravedo le potenzialità incredibili che si nascondono dietro l’enorme fatica necessaria per mettere in discussione lo status quo.

Ma la sostanza della parola cambiamento? L’etimologia greca fa intuire che il sostantivato (-mento) non rende quanto il semplice verbo “cambiare”, dal greco κάμπτω ovvero curvare, piegare ma anche curvarsi, voltarsi.

L’essenza del cambiamento è ben catturata dalla prima persona singolare “cambio” che in italiano, come change in Inglese, è sia intransitivo (cambio io stesso) che transitivo (cambio un’idea o un’azienda, o persino qualcuno).

Il cambiamento richiede innanzitutto che sia il soggetto a cambiare, perché qualcos’altro possa essere cambiato.

Il mio augurio è che possiate affrontare qualunque cosa nella vita con la consapevolezza di potervi voltare verso le novità, in prima persona, e diventare abili a cambiare voi stessə.

Perché solo chi sa portare il cambiamento dentro di sé può pensare di portare cambiamento nel mondo.

Categorie
Work

Agile Business

Agile è un mindset: non è una metodologia né un’insieme di nozioni, non è fatto di pratiche né di processi. Essere agili significa abbracciare il cambiamento. Il cambiamento è il nostro percorso all’interno di moltissimi futuri possibili.

Questo post è un ‘breve’ racconto sui 3 giorni del Product Ownership Camp 2021 a Borgo Lanciano, dove si è parlato di Agile, Product Management, Coaching e molto altro. Il PO Camp Italy è Organizzato dai volontari dell’associazione Italian Agile Movement ed è giunto alla nona edizione. Il lavoro di Alessandro, Stefano, Gabriele, Fabio e di tutti gli altri organizzatori è stato fantastico, come eccezionale è stata la location (che non conoscevo).

Troverete alcuni spunti che reputo molto interessanti e, in ultimo, una piccola proposta per il prossimo PO Camp.

Premetto ringraziando Fabio Armani che mi ha invitato a partecipare al mio primo PO Camp (assieme ai colleghi Matteo e Veronica). La parola chiave di quest’evento, per me, è stata exaptation (esattamento o exattamento in italiano).

L’exaptation è la capacità di adattare ad una nuova finalità una caratteristica (fisica-biologica o mentale) nata per uno scopo diverso. Ad esempio le piume che abilitano gli uccelli al volo nascono con finalità di termoregolazione.

E già sento che la tanta conoscenza acquisita durante questi 3 giorni sarà adattabile e riutilizzabile in contesti molto diversi tra di loro e soprattutto da quello di origine. Faccio qualche esempio perché sia più chiaro per chi avrà voglia di leggere.

Il marketplace

Tutto ha avuto inizio al Marketplace: un “non luogo” dove si mercanteggiano i contenuti (ognuno propone argomenti che vuole affrontare o che vuole che altri affrontino) per organizzare l’un-conference, una non conferenza senza programma predefinito e senza regole troppo stringenti, per stimolare creatività e partecipazione.

La base di tutto è la legge dei 2 piedi (two-feet law): s’incentiva a sbirciare in giro alle sessioni senza paura di dover restare alla fine e addirittura sì potrebbe anche decidere di non partecipare affatto.

Tutto questo funziona e si potrebbe applicare a qualunque programma che normalmente immaginiamo organizzato monoliticamente e metodicamente. Rispetto ad altre un-conference a cui avevo partecipato, qui i principi sono stati rispettati in modo ferreo e nulla era pianificato.

Agile Music

Fabio Armani, in un suo talk davvero coinvolgente, ha parlato di mindset agile applicato alla creazione/produzione musicale. Ovviamente questo apre all’applicabilità del mindset in qualunque ambito di produzione creativa, magari con qualche revisitazione dei 4 valori dell’agile manifesto.

Probabilmente è facile intuire per tutti quanti conoscono un po’ di musica quanto sia vicino il concetto di interplay al mantra dell’adaptation della business agility.

Continuous Disclosure

Raffaele Colace di 20Tab ha raccontato il suo punto di vista su come introdurre un mindset agile in un’azienda, portando la propria esperienza. Centrale in tutto il discorso è stato il Ciclo di Deming e il concetto di continuous improvement attraverso la trasparenza all’interno dell’azienda.

Il Ciclo di Deming (o PDCA).

Gli interventi dei partecipanti hanno aggiunto ulteriore valore consigliando, a chi come noi sta per affrontare una transizione, alcune buone prassi:

  • lead by example e non un cambiamento calato dall’alto
  • un gruppo di sostenitori e non solo un gruppo di change agents
  • mantenere un cambiamento graduale e non a scatti
  • focus sull’outcome e non sul metodo
  • iniziare dal basso (dall’operatività) ma con un supporto silenzioso del management
  • condividere continuamente (anche con gli information radiator https://www.agilealliance.org/glossary/information-radiators/)

Gli “imbucati” del Backlog

L’intervento di Stefano Cocci si è focalizzato sostanzialmente sugli interventi AGT (a gamba tesa). Ok, finamola qui con gli acronimi.

Gli interventi a gamba tesa sono quelli che rendono difficoltoso il lavoro vero e proprio. Possono arrivare dall’esterno o dall’interno del gruppo di lavoro, ma ancora peggio potrebbero arrivare da stakeholder esterni non identificati all’inizio. È importante quindi fin da subito portare al tavolo chi è incaricato di FARE le cose (gli operativi) e sentire sempre “gli utenti” ovvero mappare tutti gli stakeholder.

L’intervento di Francesco ha aggiunto uno strumento al toolbox dei partecipanti (almeno per chi come me non lo conosceva): la matrice di interesse vs potere.

Matrice Interesse vs Potere (appunti)

Altrettanto interessante è stata la rappresentazione che sempre Francesco ha fatto della sfera di influenza vs deliverables.

Problema e Soluzione (appunti)

Il tema centrale – in cui mi ritrovo moltissimo – penso sia che troppo spesso ci concentriamo sui deliverables invece che sui goals. E questo è una conseguenza naturale del fatto che spesso gli esperti non conoscono sufficientemente il dominio del problema. Anzi, quasi sempre…

gli esperti fondano la propria conoscenza sulla soluzione e sul know-how tecnico di come si realizzano i deliverables invece che sulla conoscenza del problema

Refinement

Danilo Pasqualini ha guidato una tavola rotonda molto più verticale su un processo ongoing della metodologia Scrum: il Product Backlog Refinement (o solo refinement, precedentemente chiamato anche grooming). Il refinement è, cito la scrum guide:

“[…] l’azione di aggiungere dettagli e stime e di riordinare gli item del product backlog. È un processo continuativo nel quale il Product Owner e il Team collaborano sui dettagli degli item del backlog”

Refinement secondo la Scrum Guide.

Sono emerse una serie di best practice sul refinement applicate dalle persone intervenute alla tavola rotonda nel proprio lavoro quotidiano ed ha assunto uno spazio cruciale nella conversazione il cosiddetto ping-pong time: il tempo impiegato a recuperare tutte le informazioni necessarie ad iniziare una lavorazione.

Si è ribadito che un saldo criterio per definire quali item del backlog possono essere lavorati è quello dato dall’acronimo INVEST (independent, negotiable, valuable, estimatable, small, testable).

Product Team

Gabriele Giaccari di 20tab, che sta organizzando il Product Management Day, non poteva non incentrare il suo intervento sul tema del prodotto.

La figura del product owner testimonia ovviamente la centralità del prodotto all’interno del mindset agile. La centralità del prodotto significa voler creare un team di ‘missionari’ votati alla qualità realizzativi piuttosto che ‘mercenari’ che si limitano a ‘lavorare’. Tale approccio travalica i limiti del prodotto in senso stretto. Questo significa privilegiare l’outcome all’output ma addirittura pensare ad un impact più che un outcome: il product owner (o alcuni direbbero product manager) vuole migliorare il mondo.

Experiment

Stefano Leli ha proposto una session dedicata ad uno dei principali pilastri del mindset agile: la volontà/capacità/possibilità di fare esperimenti. Esperimenti misurabili, certo, magari in modo continuativo, ma soprattutto basati su ipotesi falsificabili.

Perché un esperimento abbia senso, dev’essere ideato e strutturato per far sì che metta in discussione l’ipotesi che si vuole provare, così da avere delle solide basi nel caso in cui l’esperimento abbia successo oppure invalidare l’ipotesi in modo robusto nel caso in cui fallisca.

L’esperimento inoltre dev’essere gestito seriamente con una durata definita, un perimetro di controllo e una misurabilità continuativa.

La sperimentazione è sfidante: quali aziende davvero si possono permettere di sperimentare liberamente?

Decision Making

Francesco Racanati ha messo in dubbio le convinzioni di tutti noi sul decision making, sulla scorta del libro Adaptive Decision Making di Gary Klein.

Lo studio di Klein si è basato su contesti in cui le decisioni vengono prese in emergenza e in modo istantaneo e sembra mettere in discussione quanto propugnato da Kahnemann e Tversky relativamente al processo decisionale umano.

Ma perché questo focus sui processi decisionali? Perché per Francesco (e tutti concordavano)

una delle vere differenze tra un agilista e un non agilista è nel decision making

In particolare, un agilista sa abbracciare il cambiamento e applicare assieme conoscenze tacite e conoscenze esplicite – quest’ultime le uniche di solito sfruttate dal management tradizionale.

L’argomento è denso e mi auguro che sarà approfondito in successivi incontri della community dell’agile movement.

Coaching

Con tutti i coach presenti, non mi ha stupito trovare un panel dedicato all’analisi delle differenze tra coach e coach agile, proposto e gestito da Daniela ‘Didi’ Rinaldi ed Emanuele Moscato.

L’accordo si è raggiunto su una sostanziale convergenza del concetto di Coach e Agile Coach in termini di ‘coaching’ (il gioco di parole è voluto). L’agile coach rientra infatti nell’ambito del coaching e mantiene l’accountability sul cliente, ‘limitandosi’ a sbloccare un potenziale su un obiettivo definito a monte. Cosa diversa è invece il‘consulente agile che è un attore del cambiamento e ne definisce i passi in modo più serrato e più calato dall’alto. A noi, aziende in fase di transizione, comprendere di cosa abbiamo bisogno. Un’idea? Forse entrambi e magari in fasi diverse.

Retrospective

L’evento non poteva che chiudersi con una retrospective in stile ‘Glad – Sad – Mad’. I commenti, raccolti in post-it giganti saranno l’input per la prossima iterazione del PO Camp.

PO Camp X

A proposito, il prossimo sarà il PO Camp X (ovvero dieci) e promette di alzare il livello: maggiore comunicazione esterna, migliore networking tra i partecipanti e una struttura ancora più leggera.

Cosa mi piacerebbe trovare l’anno prossimo?

A beneficio dei ‘nuovi’ ma anche dei ‘veterani’, nella magnifica location di Borgo Lanciano (confermata per il 2022), si potrebbe organizzare un’accoglienza esplorativa, una sorta di induction ‘forte’. Mi aspetterei un’accoglienza ridotta al minimo e una scoperta della non-struttura dell’unconference con una sorta di caccia al tesoro. Ovvero: prese le chiavi della stanza una serie di indizi dovrebbe far convergere gli invitati nella location della prima sessione di marketplace senza che ci sia nulla di predefinito e organizzato. Un serious game che permetta a tutti ancora di più di immergersi nel mindset giusto per 3 giorni di esplorazione. E poi, ovviamente, aperitivo in piscina come premio finale.

Categorie
Life Work

La parola dell’anno è Fiducia

Mai come quest’anno mi sono trovato a riflettere sul significato della parola fiducia. In ambito lavorativo ma anche personale. E quest’anno dobbiamo avere fiducia negli altri per uscire da una crisi epocale come poche altre nella storia dell’umanità. Provo a cercare conforto nell’analisi del significato stesso della parola.

Il primo termine che mi viene in mente è l’inglese Trust.

trust | trʌst |

In inglese Trust è qualcosa o qualcuno in cui avere fede a causa dell’affidabilità, della verità o di una qualche abilità incontrovertibile. Questo senso di fiducia è così forte che grazie ad essa un’essere umano acquisisce una posizione dominante. Ma è anche la fiducia di chi crede in Dio: “In God We Trust” è scritto sulle banconote americane. Sembra che sia una parafrasi di un salmo dell’Antico Testamento.

La banconota da 1 Dollaro con “In God We Trust”.

Trust in inglese è un termine anche legale: il Trust indica un rapporto giuridico nel quale una persona amministra dei beni per conto di terzi, un sistema giuridico della common law che indica qualcosa di più rispetto alla fiducia, un affido (o affidamento). Ma Trust assume un significato negativo, e probabilmente più noto, quando è inteso come una coalizione di imprese che unite vogliono limitare la concorrenza. E infatti parliamo di antitrust quando si configura una situazione di monopolio. Curioso che da una fiducia quasi sacra alla coalizione monopolistica il passo sia così breve.

Ma l’inglese ha tante parole molto specifiche e non ci può dare grandi soddisfazioni etimologiche. Per quello, c’è il greco antico. E infatti esiste in questa lingua una parola ricca di significati, tra cui fiducia.

πίστις | pistis |

La parola greca Pistis ha come significato proprio fiducia, la fiducia che si può dare, guadagnare, ma comunque una fiducia importante. Tanto che in Aristotele diventa fede, convinzione saldissima – in qualcosa o in qualcuno. Fin qui, il significato è simile a quello inglese, tanto che la Pistis è la fede religiosa e la garanzia ‘contrattuale’, un’assicurazione, una promessa e addirittura un giuramento. Questa parola in latino diventa Fides, la personificazione della lealtà, la Dea del pantheon romano che ha il suo tempio sul Campidoglio. Pensateci, la lealtà è ciò che ispira la fiducia: siamo passati in un battibaleno da un punto di vista soggettivo ad uno oggettivo.

La Dea Fides latina.

Tornando ai Greci, possiamo scovare qualche ulteriore significato di questa magnifica parola nei dialoghi platonici. Platone ci parla di Pistis quando ci delinea la sua Teoria della conoscenza, nel libro VI de La Repubblica. Secondo Platone, la conoscenza si articola in 2 stadi: l’opinione (δόξα) e la scienza propriamente detta (ἐπιστήμη). Ciascuno di questi 2 stadi è suddiviso in 2 parti: questa quadripartizione della conoscenza è raccontata metaforicamente nel celebre Mito della Caverna.

All’inizio del percorso della conoscenza gli uomini sono come prigionieri incatenati in una caverna buia, bloccati cosicché possano osservare solo il muro davanti a sé, dove sono proiettate da un grande fuoco delle ombre di forme che rappresentano oggetti, animali, piante o persone. Queste immagini sono le sole cose che possiamo conoscere in questo stadio, definito immaginazione (Εἰκασία). I prigionieri farebbero soltanto un piccolo passa avanti se rivolgessero l’attenzione direttamente alle forme che generavano tali ombre, perché resterebbero ancora nella caverna. Questa fase è ancora una conoscenza immatura, perché i prigionieri permangono all’interno della Caverna. Questa è la fase della Fede (Πίστις), ancora legata al divenire dell’esistenza e quindi lontano dall’essere scienza in quanto ricerca intellattuale.

Non dobbiamo stupirci: Platone conferiva maggiore importanza alle idee, agli archetipi, che non alle cose – che alla fine sono soltanto dei simulacri. Sembra quasi un declassamento rispetto all’altezza del termine Fiducia, eppure a ben vedere è un punto di vista che ne coglie un aspetto essenziale.

La Pistis di Platone è un atto di fede che non può essere “verificato” intellettualmente. Ed è questa la sua magia. La fiducia non ha a che fare con delle valutazioni razionali e intellettuali: quando diamo o chiediamo fiducia, lo facciamo con il cuore.

In questo senso, quest’anno mi ha insegnato che la fiducia è davvero un atto di fede. E per questo è così importante alimentarla. Perché fidarsi significa credere negli altri e dar loro una possibilità. È vero, è un rischio. Eppure tale fiducia innesca una serie di reazioni positive che non hanno nulla a che fare con la valutazione razionale del rischio. La fiducia si può perdere ma si può anche recuperare e noi essere umani siamo in grado di avvertire quando c’è o quando manca.

Ci sono poche cose più belle di un atto di fiducia incondizionata: pensate alla fiducia tra amanti o tra genitori e figli. È proprio quando un bambino è ‘in fiducia’ che inizia a camminare da solo.

Quante fantastiche cose potremmo fare, come umanità, se solo ci fosse più fiducia negli altri?

Categorie
Work

Coronavirus: cosa possono fare le aziende?

Il Coronavirus, com’era prevedibile, è arrivato anche in Italia. Sarà responsabilità delle istituzioni arginare l’epidemia. Ma cosa possono fare le aziende per tutelarsi?

Primo obiettivo: tutelare la sicurezza e salute dei lavoratori

Ai sensi del D.lgs. 81/2008 “è in capo al datore di lavoro, l’obbligo di tutelare i propri dipendenti dal rischio biologico eventualmente connesso alla prestazione lavorativa”. Ovvero, è responsabilità dell’azienda tutelare la salute dei propri dipendenti e collaboratori in casi come questo.

Un altro ruolo molto importante è quello di informare e formare tutta la forza lavoro sulle misure precauzionali adeguate.

Un’ottima fonte di informazioni certe e verificate è il sito del Ministero della Salute. Ci sono anche diversi video che è opportuno diffondere il più possibile.

Il punto di vista dell’Impresa

Per le aziende, soprattutto quelle più piccole, è fondamentale mantenere un minimo livello di produttività. In Italia ci sono tantissime PMI che possono rischiare molto per lunghi periodi di chiusura temporanea del luogo di lavoro, come nel caso estremo di quarantena forzata.

Più in generale, un’azienda deve darsi alcune priorità:

  • Garantire la sicurezza dei lavoratori
  • Mantenere il più possibile un livello di servizio ai clienti 
  • Mantenere in generale un buon livello di produttività
  • Supportare i partner in difficoltà (clienti e fornitori)

La prima soluzione più ovvia è quello dello smartworking, legale e regolamentato anche in Italia, ma che spesso viene visto ‘male’ dal datore di lavoro. E invece è questo il momento per introdurre il lavoro da casa per tutti, cercando anche di dotare tutti i dipendenti delle attrezzature adeguate per farlo (computer, accessi da remoto etc.).

Quali precauzioni e protocolli adottare in caso di Coronavirus?

In generale, le precauzioni sono quelle che abbiamo visto ovunque in questi giorni e sono ben riassunte in un ottimo poster sul Nuovo Coronavirus realizzato dal Ministero della Salute e dall’Istituto Superiore di Sanità.

Il poster sul Coronavirus realizzata dal Ministero della Salute e dall’ISS

Sempre sul sito ci sono anche le risposte alle domande più comuni sul Coronavirus.

Ma sarebbe anche utile che le aziende si dotassero di un vero e proprio protocollo nel caso si trovassero in zone colpite da ordinanze di pubblica sicurezza particolarmente restrittive. Molte aziende in Lombardia e Veneto si sono già attrezzate.

Alcune idee per un regolamento aziendale:

  • introdurre lo smartworking e limitare tutti gli spostamenti/trasferte
  • definire clienti o servizi prioritari che devono essere tutelati maggiormente
  • comunicare a clienti e partner i protocolli adottati per garantire reperibilità e un adeguato livello di trasparenza
  • definire priorità amministrative per tutelare gli aspetti finanziari della gestione operativa
  • identificare dei responsabili all’interno dei gruppi di lavoro per coordinare provvedimenti ulteriori

Infine, da comunicatore, raccomanderei anche di mantenere sempre il più possibile un livello di informazione costante e trasparente su quello che l’azienda sta facendo nel corso dell’emergenza.

Aggiornamento del 23.02 – Diverse persone mi hanno chiesto cosa fare in questi giorni per contribuire alle misure di contenimento, soprattutto se non ci si trova nelle zone rosse ma magari si lavora con aziende in Piemonte, Lombardia o Veneto. La precauzione più ovvia è ovviamente quella di limitare il più possibile gli spostamenti e le trasferte in quelle zone e sostituire gli incontri de visu con le conference call. È un buon modo per non creare ansie inutili ma allo stesso tempo mantenere in piedi tutte le attività lavorative programmate.

Aggiornamento del 24.02 – Piano di qualche azienda ha cominciato a riflettere sull’impatto di una quarantena forzata sui reparti eCommerce delle aziende. Un bell’articolo di Digiday ad esempio racconta che in Cina molte aziende hanno sostituito attività di comunicazione digitali con quelle fisiche (Outdoor, eventi etc.) e gli eCommerce hanno avuto un boom, perché le persone si fanno consegnare a casa tutto quello che prima acquistavano nel negozio. Mi viene in mente un semplice consiglio per le aziende: trovate modo di garantire la robustezza delle operazioni lato eCommerce e di coprire i bisogni dei vostri clienti in modo alternativo agli incontri fisici che saranno fortemente impattati dalle diverse politiche di sicurezza sanitaria.

Aggiornamento del 25.02 – Ho registrato una puntata del podcast Il Bernoccolo assieme ad Andrea Ciulu sul tema Nuovo Coronavirus. Potete trovarlo su Apple Podcasts o Spotify, oppure farlo partire dal player qui sotto.

Ascolta “#77 – Il Coronavirus contagerà i brand?” su Spreaker.

Aggiornamento del 28.02 – Un bell’articolo su HBR spiega cosa le aziende devono fare per prepararsi. Le cose più interessanti sono in fondo: il Covid-19 non sarà un caso isolato e cerchiamo di imparare qualcosa da questa situazione di emergenza.

Aggiornamento del 02.03 – Vodafone ha fatto un bel regalino ai clienti business: giga illimitati a supporto dello smartworking. Davvero una bella mossa!

Aggiornamento 07.03 – Molte aziende si stanno mobilitando per aiutare gli italiani ai tempi del Coronavirus: arrivano donazioni e agevolazioni da Esselunga, Unicredit, Xiami, TIM, Eni, UnipolSai e molte altre. Bella l’iniziativa di Google che rende gratuite le funzioni avanzate di videoconferenza Google Meet per gli utenti G Suite Business e G Suite Education. L’imperativo è andare avanti e contribuire il più possibile a frenare il contagio restando a casa e limitando ogni spostamento.

Aggiornamento 11.03 – Nuova puntata del Bernoccolo sugli eventi cancellati o posticipati. Cosa faremo in questi mesi? Potete trovarlo su Apple Podcasts o Spotify.

Listen to “#78 – Cancellato! Cosa succede agli eventi nel 2020” on Spreaker.

[photo by Craig Whitehead on Unsplash]

Categorie
Work

La Vision di un’azienda

Molti parlano di Vision. La definirei come qualcosa che stabilisce cosa è importante per un’azienda sul breve, medio e lungo termine. È una sorta di inclinazione (o una fissazione?) che permette di compiere alcune scelte invece di altre.

Lo spiega in modo conciso e efficace Simon Sinek nel video che riporto qui sotto.

Non è detto che la visione sia sempre ‘alta’, può capitare che in alcune aziende le scelte siano orientate puramente al profitto di breve termine. In tal caso l’azienda diventa miope e non può andare molto lontano.

Perché la Vision serve in un’azienda?

In un’azienda ogni giorno vengono prese molte decisioni. E quasi tutte hanno un’impatto sul presente e sul futuro dell’azienda stessa. Come far sì che tali decisioni vadano tutte nella stessa direzione? Eh già, la vision.

Non è però facile far sì che tutti, ma davvero tutti, condividano la vision dell’azienda in cui lavorano. Qualcuno è molto motivato da un approccio ‘alto’, qualcun altro invece è più cinico e disilluso. E poi qualche volta parliamo più di Mission (quella sì dovrebbe motivare). Ma non è detto che mission e vision non possano essere la stessa cosa – come ad esempio avviene per Apple (secondo Comparably).

Mission e Vision di Apple secondo il sito Comparably.

Il vero ruolo della Vision: backcasting

Una visione solida permette al management di passare dal forecasting al backcasting. Invece di cercare di prevedere come sarà il futuro, è più utile ed efficace:

  1. immaginare un obiettivo (un master plan da qui a 10 anni come fa Tesla, ad esempio);
  2. a partire dall’obiettivo immaginare una serie di processi decisionali, regole e pianificazioni utili ad arrivare a quell’obiettivo;
  3. mantenere degli step intermedi per verificare che la visione di lungo termine sia rispettata.
Il backcasting parte dalla vision per pianificare tutte le scelte.

In questo modo possiamo influenzare davvero ogni scelta non tanto perché tutti in azienda abbiano la visione stampata nella mente, ma perché sono le stesse regole del gioco a fare in modo che gli obiettivi di tale visione possa essere raggiunti.

Photo by Bec Ritchie on Unsplash