Skip to content Skip to footer

CLIAPI 12 – Cosa possiamo imparare dalla figuraccia di Google nell’Intelligenza Artificiale?

Articolo Cliapi12_Gemini_figuraccia Google
Tempo di lettura: 8 minuti

Nell’ultimo articolo dell’anno della serie “Capire l’Intelligenza Artificiale Per Investirci” voglio soffermarmi su un’azienda che avrebbe tutto per essere la leader indiscussa nel mondo dell’intelligenza artificiale, ma che sta facendo delle pessime figure, l’ultima veramente clamorosa. Mi riferisco, ovviamente a Google. Perché questo accade? Cosa possiamo imparare, come investitori, da tutto questo?  

L’occasione di parlare di Google all’interno di questa serie ci viene fornita dalla presentazione di Gemini, l’intelligenza artificiale generativa multimodale di Google sviluppata grazie all’integrazione del team di DeepMind e quello più interno a Google che lavorava con l’intelligenza artificiale. 

La super “figuraccia”

Vediamo, brevemente, cosa è successo con Gemini. Il 6 dicembre scorso Google ha presentato in pompa magna al mondo il suo nuovo modello di intelligenza artificiale, chiamato Gemini,  con “un marketing molto aggressivo”, per usare un eufemismo. Invito chi non l’avesse ancora fatto a visitare la pagina web di presentazione  nella quale si fa capire, senza troppi giri di parole, che Google avrebbe realizzato l’intelligenza artificiale più evoluta al mondo, molto superiore a ChatGTP della rivale OpenAI. 

Per sostenere questa tesi, la presentazione mostra una serie di benchmark ma, soprattutto, un video che è diventato virale, nel quale si vede un essere umano che compie delle azioni (disegna, muove le mani, mostra video, ecc.) che l’intelligenza artificiale sembra comprendere perfettamente, in tempo reale,  rispondendo in modo appropriato attraverso una voce (artificiale). Il video è realmente impressionante ed anch’io, la prima volta che l’ho visto, ho pensato – come tutti – che fossimo davanti a un passo in avanti epocale. Il video è questo.

Peccato che il video mostra qualcosa che ancora non esiste. Personalmente non ho alcun dubbio sul fatto che nei prossimi anni potremo arrivare a dialogare con un’intelligenza artificiale in modo molto simile a ciò che è montato nel video. Il punto però non è ciò che potrà accadere in futuro. Oggi Google non ha una tecnologia neppure paragonabile a ciò che mostra il filmato. Anche le affermazioni relative al confronto con ChatGPT sono – a dir poco – molto discutibili. In primo luogo le comparazioni sono fatte tra Gemini Ultra e ChatGPT 4. La versione Ultra di Gemini non è ancora disponibile e quindi non possono in nessun modo essere verificati. Inoltre, visto che poche settimane fa è stata distribuita la versione “Turbo” di Chat GPT 4 (quella multimodale, anche se non nativo come Gemini, e con un contesto molto più esteso) non si capisce se il confronto sia stato fatto – come sembra – con la versione precedente o con quella più recente (più probabile la prima). Infine, cosa ancora più grave, i confronti non sono sempre fatti con modalità identiche. In sintesi: in questo momento non è assolutamente vero che Google abbia il miglior sistema di intelligenza artificiale generativa utilizzabile. In futuro vedremo. Ma com’è possibile che un’azienda così importante come Google faccia una figuraccia così grande?

Google e l’intelligenza artificiale

Prima di quest’anno Google veniva considerata senza alcun dubbio l’azienda più avanti al mondo nel settore dell’intelligenza artificiale. Sicuramente aveva la maggioranza dei ricercatori ed ingegneri più capaci alle sue dipendenze ed in particolare all’interno di Deep Mind. Non molti sanno che la nascita stessa di Open AI (quella che ha realizzato ChatGPT) avviene proprio perché Google aveva acquisito Deep Mind nel 2014 per circa mezzo miliardo di dollari. Deep Mind è stata fondata, fra gli altri, da un vero e proprio genio, Demis Hassabis, ex bambino scacchista prodigio, ed oggi considerato uno dei massimi esperti mondiali di intelligenza artificiale. 

Larry Page (co-fondatore di Google) e Elon Musk erano molto amici, a tal punto che spesso Musk dormiva sul divano a casa di Larry Page. Elon Musk era molto preoccupato dal fatto che l’intelligenza artificiale potesse prendere una piega pericolosa per l’umanità e ne parlo con Larry Page, ma lui non con condivideva affatto la tesi dell’amico e – secondo quanto riportato dallo stesso Musk – arrivò ad accusarlo di essere “specista”. Larry Page avrebbe sostenuto, sempre secondo Musk, che se fosse nata un’intelligenza superiore all’uomo, non sarebbe stata una cosa così grave perché l’importante era l’evoluzione dell’intelligenza in sé, non che questa fosse al servizio di una singola specie, come quella umana. 

Allora Deep Mind aveva circa il 70% dei più importanti ricercatori ed ingegneri nel mondo che si occupavano di quel settore. Per questo Elon Musk pensò di finanziare un’alternativa attraverso una società senza scopo di lucro che facesse ricerca aperta. Fra i primi ricercatori che passarono da Google a Open AI vi fu Ilya Sutskever, il padre di ChatGPT, e questo fece infuriare Larry Page, e così l’amicizia con Elon Musk si deteriorò. 

Negli anni successivi Deep Mind mostrò al mondo qualcosa di strabiliante: attraverso le reti neurali, ed in particolare attraverso le tecniche che hanno preso il nome di “apprendimento profondo” (deep learning),  le macchine potevano acquisire capacità creative superiori a quelle umane. L’evento simbolo di questa scoperta fu la sfida fra il campione mondiale di Go, il coreano Lee Se-dol ed il software di Deep Mind AlphaGo. Il gioco del Go non è molto conosciuto in occidente e non si possono comprendere gli effetti sociali che quella partita ebbe, specialmente in Asia. Il Go è qualcosa di paragonabile agli scacchi, sebbene sia ancora più complesso ed impossibile da approcciare attraverso i software deterministici, inoltre è molto più famoso in Asia di quanto non siano gli scacchi in occidente. 

La maggioranza degli esperti riteneva che la possibilità di realizzare un software che battesse i più forti campioni  fosse al di fuori della tecnologia allora disponibile e che servissero anni prima di poter realizzare qualcosa di simile. 

E’ interessante, e per certi versi simbolico, il modo con il quale il campione del mondo è stato stracciato, perdendo quattro partite su cinque. Durante la seconda delle gare che hanno composto la sfida, alla mossa 37, la macchina gioca quello che che appare un orribile errore da principiante. Nessun essere umano avrebbe mai potuto ipotizzare una mossa del genere, semplicemente perché era considerata una mossa così evidentemente sbagliata che nessuno avrebbe mai sprecato energie per valutare le conseguenze di lungo termine di un tale errore. Nel video si possono osservare le reazioni emotive sia della persona del team di Deep Mind che deve, fisicamente, piazzare la pietra (pedina) sul goban (scacchiera), sia del campione appena vede la mossa fatta da AlphaGo, oltre a tutti i commentatori che si affrettano ad evidenziare l’errore. Naturalmente quella è stata la mossa più determinante per la vittoria. 

Dopo quell’evento-simbolo, sulla base di quella tecnologia, molto generalista, che può essere applicata a problemi come il gioco del Go, ma anche a tantissimi altri problemi ben più importanti, Deep Mind ha collezionato molti grandi risultati per l’intera umanità. Cito i due probabilmente più impattanti per il futuro dell’umanità.

Il primo è AlphaFold che si occupa di un problema scientifico probabilmente ignoto alla quasi totalità dei lettori ma di fondamentale importanza: il ripiegamento delle proteine. Come è noto, le proteine sono i “mattoncini” dei quali sono formati i corpi degli esseri viventi. La loro efficacia dipende chiaramente dalla loro conformazione fisica, cioè dallo spazio che occupano. Gli scienziati sono in grado di conoscere con una certa facilità la catena di amminoacidi che compongono le proteine, ma non la loro struttura.  Determinare la struttura tridimensionale della proteina è un processo complesso e laborioso, che richiede l’utilizzo di tecniche avanzate di cristallografia a raggi X, risonanza magnetica nucleare (NMR) o microscopia crioelettronica. 

Per capire la dimensione del problema, la scienza conosce la struttura tridimensionale di circa il 2% delle proteine codificate dal genoma umano, e circa il 5% di tutte le proteine conosciute, cioè delle quali conosciamo la catena di amminoacidi. Conoscere (o almeno ipotizzare con un elevato grado di precisione) la struttura tridimensionale di tutte le proteine conosciute farebbe fare un salto in avanti alla medicina epocale. Questo è ciò che sta consentendo di fare AlphaFold 2. L’applicazione di questa tecnologia ha giocato anche un ruolo importante nella realizzazione dei vaccini per il Covid19 ed ha creato un comprensibile entusiasmo negli scienziati. 

La seconda applicazione che voglio citare è stata presentata pochi giorni prima della brutta figura con Gemini anche con un articolo sulla prestigiosa rivista scientifica Nature. Riguarda la scienza dei materiali e si chiama GNoME, acronimo di Graph Networks for Materials Exploration. Così come AlphaFold sta rivoluzionando il settore della medicina in particolare e della biologia in generale, GNoME potrà rivoluzionare l’ingegneria dei materiali in particolare e la mineralogia in generale. Anche qui, per capire la dimensione del problema, attualmente il database ICSD (Inorganic Crystal Structure Database), contiene poco meno di 300 mila strutture cristalline, circa 20 mila sono stabili e potenzialmente utilizzabili. GNoME avrebbe trovato circa 2,2 milioni di nuove strutture di cui circa 380 mila stabili! Fino ad oggi, la scienza riusciva a trovare circa 12 mila nuove strutture all’anno. Quello che l’umanità potrà fare con questa enorme nuova quantità di conoscenza è impossibile da predire. Naturalmente il campo nel quale gli occhi di tutti sono puntati è la possibilità di scoprire un superconduttore a temperatura ambiente, che sarebbe il “santo graal” dell’elettronica. Tra le circa 380 mila strutture stabili che sono state trovate, infatti, vi sono oltre 50.000 nuovi composti stratificati simili al grafene, la prima area di ricerca per un ipotetico sviluppo di superconduttori. Inoltre GNoME avrebbe trovato 528 potenziali conduttori di ioni di litio e ciò fa sperare nella possibilità di miglioramenti nelle prestazioni delle batterie ricaricabili.

E’ del tutto evidente, quindi, che Google ha al suo interno il fior fiore dei ricercatori nel campo dell’intelligenza artificiale, come mai allora appare arrancare così tanto nel confronto con OpenAI?  Tentare di dare una spiegazione a questa domanda ci può essere molto d’aiuto come investitori. 

Le tecnologie dirompenti ed i vecchi leader

La tecnologia delle prime macchine fotografiche digitali nascono nei laboratori della Kodak, da parte di Steven Sasson che sviluppò la tecnologia CCD (Charged Coupled Device) che cattura la luce trasformandola in segnale elettrico. Nel 1978 fu depositato il brevetto, ma la Kodak si guardò bene, per moltissimi anni, dallo sfruttarlo per il pericolo che i consumatori non comprassero più pellicole fotografiche, il business principale della Kodak di allora. 

Questo è un esempio di quanto un’azienda molto grande possa trovare grande difficoltà a cavalcare la nuova tecnologia che può essere dirompente per il suo principale business. 

È inutile girarci intorno. L’intelligenza artificiale generativa conduce inevitabilmente, nel lungo termine, a rendere inutili i motori di ricerca così come li conosciamo adesso. Per il momento, fino a quando l’affidabilità è ancora molto scarsa, c’è bisogno quantomeno della collaborazione fra motore di ricerca e LLM. Prospetticamente, però, non ci sarà più bisogno di andare sul motore di ricerca di Google per identificare un sito internet nel quale trovare l’informazione. L’informazione che ci serve verrà generata automaticamente dall’intelligenza artificiale generativa. Questo costituisce un pericolo potenzialmente mortale per Google così come la fotografia digitale costituiva un pericolo mortale per Kodak. 

Per questa ragione, i geni che lavorano in Deep Mind, fino all’anno scorso, lavoravano in settori dell’intelligenza artificiale interessantissimi per l’umanità, ma evidentemente non hanno messo il focus sull’intelligenza artificiale generativa. 

OpenAi, che non aveva niente da perdere, ha concentrato le energie proprio nel settore nel quale Deep Mind  aveva meno interesse e – come tipico delle startup – non si è fatta scrupolo di gettare sul mercato un prodotto con evidenti problemi, ma che gli ha consentito di creare in pochissimo tempo una vastissima base di clienti ed attirare enormi capitali. 

Le grandissime organizzazioni come Google tendono ad avere una cultura aziendale che privilegia prima gli interessi dei singoli dipendenti rispetto a quelli dell’intera azienda. Ciò avviene a partire dai dirigenti, scendendo fino all’ultimo degli impiegati. Le decisioni assunte tendono ad avere una maggiore componente difensiva che non creativa. È meno pericoloso sbagliare in compagnia rispetto ai vantaggi che può portare avere ragione da solo. 

Per questa ragione è molto difficile che una tecnologia dirompente sia portata con successo sul mercato dall’azienda leader nella tecnologia destinata ad essere superata, anche se quest’ultima avrebbe tutte le risorse per farlo. 

Nel 2023 Google ha compreso che rischia di fare la fine di Kodak e quindi si è lanciata a cavalcare il settore dell’AI generativo, ma è evidente che lo sta facendo in modo impacciato. Potenzialmente, fra tutte le grandi big, è l’azienda che possiede le migliori risorse per produrre il modello generativo più efficace: ha la potenza computazionale, i dati, le menti. In teoria non gli manca niente. Il problema di Google, però, è Google stessa. È la cultura aziendale. In origine Google ha fatto scuola proprio per l’innovazione nella cultura aziendale. Andare a lavorare in Google era il sogno di ogni ingegnere informatico. Gradualmente, però, la cultura si è spostata più dalla parte dei benefici per i dipendenti che non della missione aziendale. Oggi Google non ha una missione aziendale forte e coinvolgente ed ha perso molto terreno nell’innovazione. Google è percepita sostanzialmente come il monopolista nei motori di ricerca che fa milioni di altre cose grazie ai soldi che gli arrivano dalla pubblicità. Senza una missione forte non si coinvolgono le grandi menti. Le grandi menti vengono sicuramente pagate molto bene, ma oltre un certo livello di stipendio, aumentare non diventa più particolarmente motivante.  

Il già citato Ilya Sutskever, la mente dietro ChatGPT, ha rinunciato a tanti soldi per andare a lavorare per una missione aziendale che lo motivava maggiormente. 

Cosa possiamo imparare dal caso di Google come investitori? Se si desidera investire nelle tecnologie dirompenti, come l’intelligenza artificiale, è importante non farsi abbagliare dalla presunta potenza dei giganti con i piedi di argilla. La materia prima dell’innovazione non sono l’organizzazione, la base di clienti o tutto ciò che si può comprare con i soldi o ricreare da zero. La cosa più importante quando parliamo di innovazione è la cultura aziendale: serve una cultura aziendale più orientata al raggiungimento della mission aziendale che deve essere coinvolgente per attrarre le migliori menti. Questa è la cosa più importante. È ovvio che non è l’unica e che dev’esserci anche tutto il resto, ma senza una cultura aziendale adeguata – come dimostra il caso di Google -tutto il resto non è sufficiente. 

 

 

Go to Top
Iscriviti alla newsletter di tekta scf

Ricevi i nostri
"Avvisi ai Naviganti"

Iscriviti alla newsletter di tekta scf

Ricevi i nostri
"Avvisi ai Naviganti"