TimGate
header.weather.state

Oggi 08 agosto 2022 - Aggiornato alle 04:00

 /    /    /  Alexa e Siri presto riconosceranno i disturbi del linguaggio
Alexa e Siri presto riconosceranno i disturbi del linguaggio

- Credit: Andrew Le / Unsplash

tecnologia01 marzo 2021

Alexa e Siri presto riconosceranno i disturbi del linguaggio

di Redazione

Gli assistenti vocali di Amazon ed Apple lo faranno con nuovi algoritmi, e Google lavora nella stessa direzione

Gli assistenti virtuali, ormai, sono entrati nella routine quotidiana di milioni di persone, che li sfruttano per impartire comandi vocali ai dispositivi smart. Tuttavia, nonostante i progressi inimmaginabili agli albori rispetto alla reale capacità di comprensione di quanto detto a parole, chi è affetto da vari tipi di disturbi nel linguaggio (balbuzie, dislessia, discalculia, disartria e parafasia, solo per citarne alcuni tra i più comuni), i vocal assistant sono uno strumento impossibile o quasi da utilizzare.

 

Per rispondere a questa esigenza e renderli fruibili anche ai soggetti in questione secondo quanto riferito dal Wall Street Journal sia Siri (Apple) che Alexa (Amazon) hanno avviato un processo che, grazie a nuovi e più complessi algoritmi, consentirà ai due assistenti virtuali in questione di riconoscere anche parole pronunciate molto lentamente o con fonetica non esattamente perfetta.

 

- LEGGI ANCHE: Assistenti vocali: Google Assistant è il più "intelligente"

- E ANCHE: Amazon, su Alexa in arrivo “dimmi quando”: che cos’è e come funziona

 

Il riconoscimento vocale, come noto, si basa su sistemi di intelligenza artificiale appositamente “addestrati” con sistemi di apprendimento automatico (machine learning) che -ascoltando milioni di file audio nelle varie lingue – arrivano ormai a un livello di precisione impensabile. Tranne che per le persone che parlano troppo piano o in modo anomalo per via dei predetti disturbi. Un problema in via di soluzione.

 

Amazon, infatti, ha deciso di aggiornare Alexa con il supporto di una startup israeliana (Voiceitt) - che sviluppa appositi algoritmi per riconoscere anche i disturbi nel linguaggio – e nel volgere di qualche mese sarà possibile parlare con Alexa mediante l’apposita applicazione di Voiceitt.

 

Apple, invece, ha cominciato a sviluppare una nuova tecnologia che, attraverso il machine learning con una banca dati di circa 30.000 estratti audio (registrati da podcast), rileverà automaticamente le balbuzie e consentirà a Siri di comprendere quanto detto da chi presenta il disturbo in questione.

 

Anche Google si è attivata in questa direzione con un nuovo progetto (Project Euphonia) per migliorare Google Assistant sotto questo punto di vista. Il percorso, ovviamente, sarà lungo, ma si può affermare con certezza che - in un futuro nemmeno troppo lontano - gli assistenti virtuali saranno effettivamente utilizzabili da tutti senza ostacoli di sorta.