Intelligenza artificiale: Google con Bard, Bing con ChatGPT, ma spunta Meta
Machine Learning e intelligenza artificiale al Google I/O 2023
Che l’intelligenza artificiale sia destinata a far parte in maniera pervasiva della nostra vita è un dato che possiamo ormai dare per assodato, ci troviamo inseriti in un periodo e in un contesto storico in cui le possibilità di integrazione, implementazione e innovazione sono infinite e ai diversi concorrenti di questa corsa all’oro non mancano sicuramente idee. In questo articolo affronteremo tutte le novità proposte da Google nel suo evento Google I/O 2023 svelando anche un nuovo player, inseritosi nella lotta tra i più famosi motori di ricerca con un’idea potenzialmente rivoluzionaria.
Indice
Google I/O 2023, tutte le novità
Possiamo definire l’evento tenutosi ieri come qualcosa di atteso e inaspettato allo stesso tempo, erano già trapelate diverse indiscrezioni sul futuro dell’IA nel motore di ricerca di Google tuttavia ciò che è stato presentato e le sue applicazioni hanno ecceduto ogni ( o quasi) immaginazione.
Già dall’introduzione è stato chiaro il focus delle ricerche e degli studi di Google sull’intelligenza artificiale: Rendere l’IA utile a tutti.
In che modo, quindi, Google vorrebbe tenere fede a questo proposito? Principalmente in quattro modi
- migliorando la conoscenza e l’apprendimento
- stimolando la creatività e la produttività
- abilitando altri ad innovare
- e costruendo e implementando in modo responsabile.
Gli aggiornamenti significativi proposti nell’evento includono, per il momento, la formulazione automatica delle email di risposta su Gmail, ampliando quindi la funzione, ormai a tutti familiare, dei suggerimenti di scrittura, un’anteprima del percorso in animazione 3D su Maps e la possibilità di editare le fotografie caricate su Google Foto grazie al Magic Editor con il supporto dell’intelligenza artificiale che, per fare un esempio, cambierà l’illuminazione dell’intera foto se verranno cancellate le nuvole in cielo.

PALM2: cosa cambia dal modello precedente?
Un altro punto caldo dell’evento è stata la presentazione di nuovi modelli di linguaggio basati su PaLM2.
Facendo un passo indietro, un modello di linguaggio è, in parole molto semplici, un software che simula il funzionamento del linguaggio umano. Questi modelli si basano su modelli statistici e algoritmi di apprendimento profondo (deep learning) i quali vengono addestrati attraverso l’analisi di enormi quantità di dati testuali per imparare a prevedere, tenendo conto del contesto del contenuto precedente, la parola successiva in una sequenza.
Tornando quindi a PALM2, questo si presenta come la naturale evoluzione di PALM (Pathways Language Model) presentato l’anno scorso da Google, il nuovo modello proposto vede tra le sue fila nuovi modelli di linguaggio come Gecko, ottimizzato per le applicazioni mobili, e altri come Otter, Bison e Unicorn.
PaLM 2 è stato addestrato su più di 100 lingue, mentre Med-PaLM 2, prima tra le varianti altamente specializzate che saranno proposte, è stato addestrato con una specifica formazione medica così da poter rispondere alle ricerche degli utenti con conoscenze esperte sull’argomento.
BARD: le nuove integrazioni
Basato su PaLM 2 e integrato con Adobe Firefly, il rinnovato BARD supporta oltre 20 linguaggi di programmazione e offre funzionalità come la generazione, il debugging e la spiegazione del codice.
Tra le diverse funzionalità di BARD c’è, inoltre, la possibilità di caricare foto e creare commenti divertenti, trovare località con offerte specifiche e visualizzare mappe o tabelle. Anche Workspace può vantare nuove funzionalità basate sull’IA come DUET AI, un tool che offre funzioni come la trasformazione del testo in immagini nei documenti, un copilota per Gmail e la creazione automatica di note nelle presentazioni per il relatore.

Come cambia la ricerca Google?
Anche la ricerca Google, tra tutte queste novità, è stata notevolmente migliorata, ora, all’apice dei risultati di ricerca, compare una Casella Snapshot alimentata da IA che include ulteriori collegamenti. Quando si cerca un prodotto, inoltre, i risultati visibili nel grafico dello shopping, comprese le recensioni, vengono visualizzati in evidenza sotto la casella snapshot IA. Infine, è possibile passare direttamente alla modalità di conversazione nella ricerca, con Google che ricorda il contesto della sessione precedente al cambio di modalità di “input” di ricerca.
Altra importante innovazione è data da Perspective, una funzionalità nella ricerca Google che permetterà di trovare informazioni affidabili e verificate su forum di discussione, siti Q&A e social media. Questa implementazione potrebbe rappresentare la risposta alla domanda sempre crescente di informazioni reali così come una possibile soluzione al problema delle Fake news nonostante Google abbia comunicato che questa nuova funzionalità serva lo scopo di cambiare la classificazione dei contenuti nella ricerca generale strizzando l’occhio ai contenuti con conoscenze ed esperienze uniche.
Tra i due litiganti, il terzo gode
In questo scenario di rivoluzioni in campo di ricerca e IA, un misterioso player si è inserito nella guerra tra Google e Bing in punta di piedi sbarcando anch’esso sul mercato dell’intelligenza artificiale con un’idea nuova e potenzialmente rivoluzionaria.
Stiamo parlando di Meta, la società che racchiude al suo interno alcuni dei social più amati come Facebook e Instagram e che si presenta a noi con un tool per la generazione dei contenuti dalle svariate funzioni e con un metodo di apprendimento che lo fa somigliare molto a noi umani.
Questo strumento prende il nome di ImageBind e viene descritto dalla società stessa come il primo modello di AI in grado di legare informazioni da sei modalità puntando a simulare la capacità umana di raccogliere e analizzare le informazioni mediante l’uso combinato di più sensi nello stesso momento. Questo modello infatti comprende non solo testo, immagini, video e audio, ma anche dati provenienti da sensori di profondità, termici e inerziali per determinare movimento e posizione.
ImageBind usa quindi una percezione globale che associa, per esempio, gli elementi presenti in una fotografia con il loro suono, la forma tridimensionale, la temperatura e il loro movimento. Questo modus operandi trova la sua fonte di ispirazione nella capacità umana di collegare un’immagine a più aspetti, questo anche perché una singola immagine, può “legare” insieme un’intera esperienza sensoriale.
È, in sostanza, un ulteriore passo avanti rispetto al metodo di apprendimento corrente, un apprendimento multimodale che si basa sui dati accoppiati e che tiene conto di più variabili in un solo momento uscendo dal binomio “singolo imput-risultato”.

Quali sono le prospettive di OpenAI?
Per quanto riguarda ImageBind, Meta stessa ha già anticipato che continueranno le ricerche sui modi per integrare ulteriori variabili di apprendimento- quali per esempio il tatto, la parola, l’olfatto e i segnali fMRI cerebrali- che premettano all’intelligenza artificiale di arricchire e amplificare l’esperienza umana nella fruizione dei diversi contenuti.
La corsa all’oro tra le diverse società non accenna quindi a placarsi ma dal coro cominciano a emergere delle “voci stonate”.
Recentemente, infatti, diversi ex dipendenti di Google hanno espresso la loro sulla questione, uno in particolare, ha puntato i riflettori su una questione spinosa che vede l’ascesa dei modelli Open source, a dallo conseguentemente di OpenAI & co, in quanto più veloci, più personalizzabili, più privati e più capaci.
In conclusione
Alla luce di quello che sappiamo sui cambi nella ricerca, in particolare grazie a Perspective, ci sarà una strategia integrata con YouTube, forum di discussioni ed altri social network? E per quanto riguarda l’ascesa dei modelli open source, stiamo davvero per assistere ad un’inversione dei ruoli nel campo dell’AI, soprattutto in vista di tutte le ultime novità proposte da Google? Te ne parliamo nel nostro prossimo articolo!