Google Assistant, Siri, Alexa e Cortana a confronto: qual è il più intelligente?

Tecnologia
Immagine di archivio (Getty Images)

Loup Ventures ha posto 800 domande alle principali AI presenti sugli smartphone di tutto il mondo. Il software dell'azienda di Mountain View ha ottenuto i risultati migliori, seguito a breve distanza dall'assistente virtuale di Apple 

Gli assistenti virtuali, come Alexa di Amazon e Cortana di Windows, sono ormai entrati da qualche anno nelle vite quotidiane dei possessori di smartphone, tablet e PC. Vengono usati per consultare le previsioni del meteo, aprire le applicazioni o trovare delle informazioni sui motori di ricerca. Non è un mistero che alla base di questi software ci siano delle intelligenze artificiali avanzate, ma quanto è effettivamente vasta la loro conoscenza?
Un test condotto dalla società di investimento Loup Ventures ha trovato una risposta a questo interrogativo. Per determinare l'intelligenza degli assistenti virtuali, i ricercatori hanno posto a Siri, Google Assistant, Alexa e Cortana ben 800 domande a testa.
L'assistente di Google, con l'86% di risposte corrette, si è dimostrato il più brillante del quartetto, seguito a breve distanza da Siri (79%). Alexa non è riuscita a superare il 61% e Cortana, col suo 52%, si è fermata sotto la soglia della sufficienza.

Monitoraggio costante

Non è la prima volta che Loup Ventures svolge questo tipo di test. Per comprendere meglio le capacità dei sotware di riconoscimento vocale e degli assistenti digitali, la società effettua periodicamente delle indagini sul loro funzionamento. Gli esperimenti svolti variano a seconda dei dispositivi presi in considerazione. Non è dunque possibile fare riferimento ai dati pubblicati da Loup Ventures per confrontare l'intelligenza di un assistente virtuale presente in uno smartphone con quella dello stesso software montato su Google Home o in un Echo Dot.

L'assistente di Google è il primo della classe

Le 800 domande utilizzate per testare le abilità e l'utilità degli assistenti virtuali sono state divise in cinque categorie: luoghi nelle vicinanze, acquisti online, indicazioni stradali, informazioni e comandi. Per ogni quesito sono stati presi in considerazione due parametri: la comprensione della richiesta e l'accuratezza della risposta.
Rispetto ai test condotti in passato da Loup Ventures, il set di domande è stato riveduto e corretto per adeguarsi alle attuali capacità delle intelligenze artificiali. I nuovi interrogativi hanno messo un po' in difficoltà gli assistenti sull'argomento "indicazioni stradali", ma il numero totale di risposte corrette non è cambiato più di tanto.
Google Assistant ha difeso con successo la sua posizione di primo della classe, riuscendo a comprendere tutte le domande che gli sono state poste. Siri non è riuscita a capirne undici, Alexa tredici e Cortana diciannove. Le incomprensioni si sono verificate sui nomi propri, tra cui quelli di città e ristoranti.
I risultati del test dimostrano che l'intelligenza degli assistenti virtuali è in continua crescita, ma che ci sono ancora dei margini di miglioramento. 

Tecnologia: I più letti