Psichiatria, l'IA ancora lontana dalla pratica clinica
Sip: "Algoritmi promettenti, ma non ancora affidabili"
C'è ancora molta strada da fare prima che l'Intelligenza artificiale possa dare il proprio contributo nella pratica clinica psichiatrica, anche perché dipendente dalla quantità e dalla qualità dei dati utilizzati per "addestrarli". Se ne è parlato a Verona, in occasione del congresso della Società Italiana di Psichiatria (Sip), che celebra i suoi 150 anni. Per gli esperti, gli algoritmi hanno ancora troppi difetti che li rendono poco affidabili. Possibili problemi anche con la protezione dei dati sensibili e sull'attribuzione delle responsabilità in caso di errore. "C'è in particolare un crescente interesse nel settore della salute mentale, nell'ambito del quale sono stati sviluppati e studiati numerosi algoritmi - spiega la presidente Sip, Liliana Dell'Osso -. È dunque facile lasciarsi trascinare dall'entusiasmo, ma c'è ancora molta strada da fare prima che queste tecnologie possano dare il loro contributo nella pratica clinica". Al centro della discussione, una ricerca pubblicata su Italian Journal of Psychiatry e condotta da Antonio Vita, vicepresidente SIP che ha esaminato tre tipologie di algoritmi: il Natural Language Processing (NLP) che aiuta i computer a interpretare e manipolare il linguaggio umano, il machine learning alimentato da dati e da algoritmi affinché le macchine imparino e il deep learning che impiega le reti neurali, algoritmi progettati per imitare il cervello umano. "Per funzionare in modo ottimale, l'intelligenza artificiale richiede una grande quantità di dati - spiega Vita - da parametri neurobiologici a registrazioni audio-video fino a database nazionali. Le banche dati utilizzate non sono state create appositamente per questo scopo, dunque potrebbero esserci carenze che riducono l'affidabilità dell'Intelligenza artificiale". Inoltre, l'uso dell'IA in campo clinico presenta anche problemi circa la responsabilità. "Attualmente manca una legislazione adeguata e in caso di errore dell'IA, non è chiaro chi dovrebbe essere ritenuto responsabile - continua-. Raccogliendo dati sensibili e monitorando le attività quotidiane, gli studi affrontano il rischio di mettere a repentaglio la privacy dei soggetti". Nonostante i progressi, "ad oggi nessun metodo di intelligenza artificiale può dirsi pienamente promosso e adatto per essere utilizzato nella diagnosi, assistenza e cura dei pazienti", conclude.
(S.G.Stein--BBZ)