UFFICIO NAZIONALE PER LA PASTORALE DELLA SALUTE
DELLA CONFERENZA EPISCOPALE ITALIANA

Seguici su SOUNDCLOUD

L’algoritmo che discrimina gli anziani

Avvenire - è Vita, la persona e la cura
21 Dicembre 2023

di PAOLO BENANTI

Un'azione legale collettiva presentata presso la corte federale del Kentucky (Stati Uniti) accusa l'assicurazione sanitaria statunitense Humana di aver utilizzato un algoritmo di intelligenza artificiale (IA) che ha negato sistematicamente agli anziani le cure riabilitative raccomandate dai loro medici. Non è il primo episodio di questo tipo: il mese scorso, un'analoga azione collettiva è stata intentata contro UnitedHealth Group per l'uso dello stesso algoritmo, creato da NaviHealth, società controllata da UnitedHealth.

Queste ultime cause fanno parte di un crescente controllo sul modo in cui gli assicuratori utilizzano i nuovi strumenti di intelligenza artificiale per prendere decisioni sulla copertura, mentre le autorità di regolamentazione fanno a gara per mettersi al passo. Lo scorso giugno, una causa ha accusato Cigna di illeciti legati all'uso del proprio algoritmo per rifiutare le richieste di rimborso. Secondo il gruppo di giornalisti investigativi di ProPublica, un medico dipendente di Cigna ha utilizzato gli strumenti dell'IA per rifiutare più di 60mila richieste di rimborso in un solo mese.

La nuova causa contro Humana alza il livello della problematica perché sostiene che l’azienda ha utilizzato un algoritmo al posto del giudizio dei medici «per negare erroneamente ai pazienti anziani le cure dovute nell’ambito dei piani Medicare Advantage». L’algoritmo prevede la quantità di cure di cui un paziente anziano dovrebbe avere bisogno e i dipendenti rischiano di essere disciplinati o licenziati se si discostano dai rigidi obiettivi di performance dettati dalla compagnia.

Il documento sostiene che Humana ha utilizzato l'algoritmo pur sapendo che è «altamente impreciso».

Un portavoce di Humana ha affermato che la compagnia utilizza un’intelligenza «aumentata » che mantiene gli esseri umani nel processo decisionale quando viene utilizzata l’IA. «Le decisioni sulla copertura vengono prese in base alle esigenze di assistenza sanitaria dei pazienti, al giudizio dei medici e degli operatori sanitari e alle linee guida stabilite dai Centers for Medicare and Medicaid Services ». Invece UnitedHealth ha dichiarato di non utilizzare l’algoritmo per determinare la copertura e che l’azione collettiva intentata contro di essa «non ha alcun fondamento». Politico, testata di informazione politica Usa, ha raccontato che un gruppo bipartisan di legislatori Usa sta indagando sulla frequenza con cui agli anziani che aderiscono ai piani Medicare Advantage viene negata l’assistenza rispetto a quelli del programma Medicare tradizionale.

Due le riflessioni. La prima è la grande necessità di trasparenza: non si possono applicare sistemi che possono portare a così gravi e grandi discriminazioni senza trasparenza di fondo che dica quali sono i criteri di scelta del sistema. La seconda è l’assoluta impossibilità di lasciare decisioni sulle cure delle persone a sistemi senza controllo umano. L’algoretica richiede che l’uomo sia al centro dei processi decisionali e che chi propone sistemi medici sia pronto a rendere trasparente i propri sistemi.

Scarica l'articolo di Avvenire