L’Intelligenza Artificiale e il volontariato socio-sanitario  

L’Intelligenza Artificiale e il volontariato socio-sanitario  

L’Intelligenza Artificiale e il volontariato socio-sanitario  

Gentile Direttore,
è noto che i principali sistemi di Intelligenza Artificiale (IA) “generativi“ sono ormai diventati di uso comune (es.: l’ultima versione di ChatGpT nato alla fine del 2022, perfezionato nel 2023 si è diffusa enormemente nel 2024 diventando una icona che nel comune sentire coincide con il concetto di IA).

Il Centro Studi della nostra piccola organizzazione di volontariato (di quartiere) si è interrogata sulle funzioni e sulle opportunità dell’IA nel campo del terzo settore particolarmente orientato a svolgere un ruolo di supporto alla medicina generale e ai servizi territoriali considerati come bene comune per una collettività circoscritta.

L’ottimo intervento di Lucio Romano (QS 11/11/2024) ha chiarito quali possono essere i temi e le problematiche inerenti l’IA riportando considerazioni specifiche sulla medicina e la bioetica. Condividiamo in pieno queste riflessioni (e l’apprezzata citazione di P. Benanti).

Il nostro Centro Studi ha messo in atto, recentemente, alcune prove di utilizzo di ChatGpT orientate all’analisi di numerosi articoli di interesse per le attività dell’ODV. Sono state valutate anche pubblicazioni come il DM77, il Metaprogetto, l’ACN, articoli di QS e altro al fine di poter analizzare i concetti fondamentali e la presenza di eventuali contraddizioni. I risultati ottenuti sono stati sorprendenti anche se le conclusioni presentate da ChatGpT non devono e non possono essere considerate veritiere ma solo attendibili statisticamente. Vi sono comunque “fragilità” palesi se non vere “allucinazioni” che richiedono modifiche e rettifiche. Ogni giorno tuttavia internet viene “alimentato” da una quantità di dati inverosimile che intervengono sui sistemi/modelli generativi affinando sempre più la loro “sensibilità“ all’apprendimento.

Infatti l’IA è un campo di studio e ricerca che produce sistemi/modelli in grado di apprendere dai dati che vengono forniti. Possono evolvere e migliorare costantemente entro alcuni limiti come ricorda Lucio Romano. Algoritmi avanzatissimi che sottendono le macchine di IA hanno la caratteristica di modificare in parte se stessi quando ricevono nuove informazioni. Imitano il comportamento umano sfruttando il concetto delle aree semantiche cerebrali (2016). Non creano una conoscenza “sua sponte” ma imparano. Se ricevono una informativa sbagliata riporteranno, al momento opportuno, una risposta errata. Di conseguenza se non c’è il controllo umano nel fornire un adeguato “nutrimento” l’IA decade (cachessia) perché non impara più.

In ambito sanitario vi sono strepitose applicazioni. Ha fatto molto scalpore il recentissimo (2024) impianto di un chip direttamente nel cervello che ha permesso ad un disabile grave di interagire direttamente con il computer senza doversi interfacciare con la tastiera. Un altro sistema di IA, AlphaFold 3 (2024), è entrato prepotentemente nell’ambito della ricerca predittiva medica-biologica. Altri modelli estremamente evoluti vengono applicati in ambito militare e di intelligence. Sono coinvolti evidentemente problemi etici, politici nonché economici/finanziari.

A fronte di tutto ciò e della sempre più necessaria prudenza, culturalmente solida, nell’utilizzo di queste “macchine” per il momento non riporteremo i risultati conclusivi della nostra ricerca su documenti ed articoli.

Proponiamo comunque ai colleghi che inevitabilmente e sempre di più utilizzeranno sistemi di IA di rendere noto, con una dichiarazione in calce o in testa agli articoli, l’eventuale utilizzo di IA quando questa modalità ha un esito preponderante sull’elaborato.

Come esempio dimostrativo di ciò che l’IA può produrre ci permettiamo di allegare una composizione redatta completamente con ChatGpT (previo alcuni prompt cioè richieste specifiche). Si tratta di una ingenua e breve favola (La favola della Valle della Cura, in allegato) inerente questioni socio-sanitarie. Degno di nota il fatto che l’IA abbia ricercato, nell’immensità dei dati disponibili in internet, elementi peculiari e che sia riuscita anche a rappresentare un “mainstream” popolare in merito alle attuali criticità dell’assistenza di base.

Bruno Agnetti
Centro Studi Programmazione Sanitaria (CSPS) di Comunità Solidale Parma ODV

Bruno Agnetti

25 Novembre 2024

© Riproduzione riservata

La responsabilità professionale del medico imprigionata nel sistema della colpa
La responsabilità professionale del medico imprigionata nel sistema della colpa

Gentile Direttore, la responsabilità professionale del medico rappresenta uno dei temi più delicati del diritto sanitario. Nasce dall’incontro tra due dimensioni che dovrebbero dialogare armoniosamente: da un lato il principio...

Il farmacista clinico esce dall’ombra, ma ora deve trovare spazio nel Ssn
Il farmacista clinico esce dall’ombra, ma ora deve trovare spazio nel Ssn

Gentile Direttore,in questi tempi la figura del Farmacista Clinico sta uscendo dalla “zona protetta” della professione del farmacista ospedaliero per diventare una figura conosciuta, considerata e richiesta anche nel nostro...

Se il Ssn non basta più: quando la salute dipende dal reddito (e dalla famiglia)
Se il Ssn non basta più: quando la salute dipende dal reddito (e dalla famiglia)

Gentile Direttore, c’è un paradosso che riguarda oggi il Ssn: mentre continuiamo a definirlo universalistico, l’accesso reale alle cure sta diventando sempre più diseguale. Non si tratta di una rottura...

Sicurezza sul lavoro e disabilità: un’opportunità normativa per le Aziende Sanitarie
Sicurezza sul lavoro e disabilità: un’opportunità normativa per le Aziende Sanitarie

Gentile Direttore,con l’introduzione della norma UNI EN ISO 45001:23 nell’art. 30 del d.lgs. 81/08, come indicato dall’ultima legge in materia di Salute e Sicurezza sul Lavoro dello scorso anno, si...