Nel pieno entusiasmo per i biomarcatori vocali e per le applicazioni dell’intelligenza artificiale alla salute, c’è un punto cieco che la comunità scientifica non può più permettersi di ignorare: l’udito. È questo il cuore del Viewpoint pubblicato su JAMA Otolaryngology–Head & Neck Surgery da J. M. Warith Rahman, Micah Boyer, Victoria A. Sanchez e Yaël Bensoussan, secondo cui la ricerca sui voice biomarkers sta crescendo rapidamente, ma continua a trascurare in modo sistematico la valutazione dello stato uditivo dei partecipanti. Una lacuna che non è soltanto metodologica: rischia di compromettere l’accuratezza clinica, la riproducibilità degli studi e l’equità delle future applicazioni digitali.
Il messaggio dell’editoriale è semplice e, proprio per questo, difficile da eludere. Se la voce viene usata come segnale biologico per identificare malattie neurologiche, cognitive, respiratorie o psichiatriche, non si può far finta che il sistema uditivo non esista. Voce e udito sono legati da un circuito fisiologico strettissimo: la produzione vocale dipende anche dal feedback uditivo in tempo reale, e una riduzione di questo controllo può modificare intensità, altezza, ritmo e articolazione. Ignorare questo aspetto significa introdurre un confondente potenzialmente enorme nei modelli di machine learning.
Algoritmi raffinati, ma clinicamente miopi
L’aspetto più interessante del testo di Rahman e colleghi è che non si limita a segnalare una dimenticanza tecnica. Mette in discussione un intero modo di costruire innovazione in sanità. Negli ultimi anni i biomarcatori vocali sono stati presentati come strumenti non invasivi, economici, scalabili, acquisibili tramite smartphone, tablet o smartwatch, con la promessa di intercettare alterazioni precoci associate a diverse condizioni cliniche. Ma questa promessa, spiegano gli autori, rischia di poggiare su fondamenta fragili se i dataset non includono una caratterizzazione fenotipica completa dei soggetti.
L’esempio proposto nell’editoriale è molto efficace. Un algoritmo potrebbe rilevare tremore vocale o rallentamento dell’eloquio e attribuirli a una malattia neurologica, come il Parkinson, quando in realtà una parte di quelle alterazioni dipende da una presbiacusia non misurata. In questo caso il modello non starebbe semplicemente “sbagliando”: starebbe producendo una classificazione plausibile ma clinicamente fuorviante. Ed è proprio questo il pericolo maggiore dell’IA in medicina, quando la sofisticazione matematica maschera una povertà del dato clinico in ingresso.
Un tema che ci riguarda da vicino
Per un pubblico di otorinolaringoiatri e audiologi, il valore di questo intervento è evidente. Gli autori ricordano che la maggior parte degli studi e dei dataset sui biomarcatori vocali non include valutazioni oggettive dell’udito; nei casi in cui la questione venga affrontata, spesso ci si affida solo all’autoriportato, che tende a sottostimare il deficit uditivo, soprattutto negli anziani. In altre parole, una quota rilevante della ricerca sta cercando segnali sottili di malattia dentro la voce senza misurare adeguatamente una variabile che quella voce la modella in modo diretto.
Questo punto dovrebbe suonare familiare agli specialisti italiani. Da anni si discute della necessità di rendere la salute uditiva più visibile, più precoce, più integrata nei percorsi di prevenzione e nelle valutazioni multidisciplinari dell’anziano fragile. Il Viewpoint pubblicato su JAMA Otolaryngology aggiunge un tassello nuovo: l’udito non è solo un dominio clinico da proteggere, ma anche una variabile strutturale per la qualità dei sistemi digitali che pretendono di leggere la salute attraverso la voce.
Perché la questione dovrebbe entrare nel dibattito italiano
Portare questa riflessione in Italia significa aprire almeno tre livelli di discussione.
Il primo è scientifico. Se anche nel nostro Paese cresceranno progetti di ricerca, startup o applicazioni cliniche basate sull’analisi vocale, sarà necessario chiedere fin dall’inizio quali dati vengono raccolti, con quali criteri, e se l’udito viene trattato come semplice nota anamnestica o come parametro da misurare in modo validato. Non si tratta di un dettaglio accessorio, ma di una condizione per produrre algoritmi credibili.
Il secondo livello è culturale. C’è spesso la tentazione, nei discorsi sull’IA, di celebrare la capacità predittiva dei modelli senza interrogarsi abbastanza sulla qualità biologica e clinica delle variabili che mancano. L’editoriale di Rahman e colleghi invita invece a una postura più sobria: prima di chiedere agli algoritmi di riconoscere una malattia dalla voce, bisogna essere certi di aver descritto bene il soggetto che quella voce la produce.
Il terzo livello è organizzativo. Gli autori non si limitano alla critica, ma propongono un approccio pragmatico e graduale: uno screening uditivo breve e validato per tutti i partecipanti, una valutazione audiometrica mobile per i gruppi a rischio o per chi fallisce il primo filtro, e test audiometrici completi o audiogrammi recenti nei casi in cui serva una caratterizzazione più dettagliata. Sottolineano inoltre che oggi esistono strumenti scalabili, accessibili e utilizzabili anche fuori dalla cabina silente tradizionale.
Dalla tecnologia alla responsabilità clinica
Il punto, in fondo, non è frenare l’innovazione. È migliorarla. I biomarcatori vocali potrebbero davvero ampliare l’accesso allo screening e al monitoraggio, soprattutto in popolazioni fragili o lontane dai centri specialistici. Ma proprio perché queste tecnologie aspirano a entrare nella pratica clinica e nella vita quotidiana, devono essere progettate con maggiore responsabilità. Un sistema che non considera la perdita uditiva rischia di funzionare peggio proprio nelle popolazioni che più potrebbero beneficiarne, come gli anziani.
Per questo il Viewpoint ha il merito di spostare il discorso dall’innovazione come fascinazione all’innovazione come qualità del disegno di ricerca. È una lezione che riguarda direttamente ORL e audiologi, ma anche chiunque in Italia si occupi di salute digitale, medicina di precisione e regolazione dell’IA in sanità. Se vogliamo che la voce diventi davvero un biomarcatore affidabile, l’udito deve smettere di essere l’assente ingiustificato di questa storia.