L’Oms pubblica il primo rapporto globale sull’intelligenza artificiale per la salute

L’intelligenza artificiale (AI) è molto promettente per migliorare l’assistenza sanitaria e la medicina in tutto il mondo, ma solo se l’etica e i diritti umani vengono messi al centro della sua progettazione, implementazione e utilizzo. Questo il principio cardine delle nuove linee guida dell’OMS pubblicate recentemente.

Il rapporto, Etica e governance dell’intelligenza artificiale per la salute, è il risultato di 2 anni di consultazioni tenute da un panel di esperti internazionali nominati dall’OMS .

“Come tutte le nuove tecnologie, l’intelligenza artificiale ha un enorme potenziale per migliorare la salute di milioni di persone in tutto il mondo, ma come tutte le tecnologie può anche essere utilizzata in modo improprio e causare danni”, ha affermato Tedros Adhanom Ghebreyesus, direttore generale dell’OMS. “Questo nuovo importante rapporto fornisce una guida preziosa per i paesi su come massimizzare i benefici dell’IA, riducendo al minimo i suoi rischi ed evitando le sue insidie”.

Sei principi per garantire che l’AI sia applicata nell’interesse pubblico in tutti i paesi

Per limitare i rischi e massimizzare le opportunità intrinseche all’uso dell’IA per la salute, l’OMS fornisce i seguenti principi come base per la regolamentazione e la governance dell’IA:

Proteggere l’autonomia dell’uomo: nel contesto dell’assistenza sanitaria, ciò significa che gli esseri umani dovrebbero mantenere il controllo dei sistemi sanitari e delle decisioni mediche; la privacy e la riservatezza dovrebbero essere protette e i pazienti devono fornire un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati.

Promuovere il benessere e la sicurezza delle persone e l’interesse pubblico. I progettisti di tecnologie di intelligenza artificiale dovrebbero soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi o indicazioni ben definiti. Devono essere disponibili misure di controllo della qualità e di miglioramento di quest’ultima in relazione all’impiego dell’AI.

Garantire trasparenza e intelligibilità. La trasparenza richiede che siano pubblicate o documentate informazioni sufficienti prima della progettazione o dell’implementazione di una tecnologia di intelligenza artificiale. Tali informazioni devono essere facilmente accessibili e facilitare una consultazione pubblica e un dibattito su come è stata progettata la tecnologia e su come dovrebbe o non dovrebbe essere utilizzata.

Promuovere responsabilità e appropriatezza. Sebbene le tecnologie di intelligenza artificiale svolgano compiti specifici, è responsabilità delle parti interessate garantire che vengano utilizzate in condizioni appropriate e da persone adeguatamente formate.

Garantire l’inclusione e l’equità. L’inclusività richiede che l’IA per la salute sia progettata per incoraggiare l’uso e l’accesso più equo possibile, indipendentemente da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche protette dai codici dei diritti umani.

Promuovere un’IA reattiva e sostenibile. I progettisti, gli sviluppatori e gli utenti dovrebbero valutare in modo continuo e trasparente le applicazioni AI durante l’uso effettivo per determinare se l’AI risponde in modo adeguato e appropriato alle aspettative e ai requisiti. I sistemi di IA dovrebbero anche essere progettati per ridurre al minimo le loro conseguenze ambientali e aumentare l’efficienza energetica. I governi e le aziende dovrebbero essere in grado di affrontare eventuali interruzioni sul posto di lavoro, comprese quelle per la formazione degli operatori sanitari per adattarsi all’uso dei sistemi di intelligenza artificiale e le potenziali perdite di posti di lavoro dovute all’uso di sistemi automatizzati.

LEGGI IL DOCUMENTO

Related posts

Leave a Comment