Google Assistant, Siri, Alexa e Cortana a confronto: qual è il più intelligente?
TecnologiaLoup Ventures ha posto 800 domande alle principali AI presenti sugli smartphone di tutto il mondo. Il software dell'azienda di Mountain View ha ottenuto i risultati migliori, seguito a breve distanza dall'assistente virtuale di Apple
Gli assistenti virtuali, come Alexa di Amazon e Cortana di Windows, sono ormai entrati da qualche anno nelle vite quotidiane dei possessori di smartphone, tablet e PC. Vengono usati per consultare le previsioni del meteo, aprire le applicazioni o trovare delle informazioni sui motori di ricerca. Non è un mistero che alla base di questi software ci siano delle intelligenze artificiali avanzate, ma quanto è effettivamente vasta la loro conoscenza?
Un test condotto dalla società di investimento Loup Ventures ha trovato una risposta a questo interrogativo. Per determinare l'intelligenza degli assistenti virtuali, i ricercatori hanno posto a Siri, Google Assistant, Alexa e Cortana ben 800 domande a testa.
L'assistente di Google, con l'86% di risposte corrette, si è dimostrato il più brillante del quartetto, seguito a breve distanza da Siri (79%). Alexa non è riuscita a superare il 61% e Cortana, col suo 52%, si è fermata sotto la soglia della sufficienza.
Monitoraggio costante
Non è la prima volta che Loup Ventures svolge questo tipo di test. Per comprendere meglio le capacità dei sotware di riconoscimento vocale e degli assistenti digitali, la società effettua periodicamente delle indagini sul loro funzionamento. Gli esperimenti svolti variano a seconda dei dispositivi presi in considerazione. Non è dunque possibile fare riferimento ai dati pubblicati da Loup Ventures per confrontare l'intelligenza di un assistente virtuale presente in uno smartphone con quella dello stesso software montato su Google Home o in un Echo Dot.
L'assistente di Google è il primo della classe
Le 800 domande utilizzate per testare le abilità e l'utilità degli assistenti virtuali sono state divise in cinque categorie: luoghi nelle vicinanze, acquisti online, indicazioni stradali, informazioni e comandi. Per ogni quesito sono stati presi in considerazione due parametri: la comprensione della richiesta e l'accuratezza della risposta.
Rispetto ai test condotti in passato da Loup Ventures, il set di domande è stato riveduto e corretto per adeguarsi alle attuali capacità delle intelligenze artificiali. I nuovi interrogativi hanno messo un po' in difficoltà gli assistenti sull'argomento "indicazioni stradali", ma il numero totale di risposte corrette non è cambiato più di tanto.
Google Assistant ha difeso con successo la sua posizione di primo della classe, riuscendo a comprendere tutte le domande che gli sono state poste. Siri non è riuscita a capirne undici, Alexa tredici e Cortana diciannove. Le incomprensioni si sono verificate sui nomi propri, tra cui quelli di città e ristoranti.
I risultati del test dimostrano che l'intelligenza degli assistenti virtuali è in continua crescita, ma che ci sono ancora dei margini di miglioramento.