Gentile Direttore,
per il medico di medicina generale, la relazione non è un accessorio, ma il cuore stesso della cura. Interpretare segnali deboli, legare i sintomi alla biografia, accompagnare nelle decisioni incerte: tutto ciò richiede tempo, ascolto e presenza. Eppure, questo tempo è oggi eroso da urgenze, burocrazia, documentazione e una mole crescente di compiti amministrativi.
L’intelligenza artificiale generativa (GenAI) può diventare un alleato per restituire al medico proprio ciò che più gli manca: il tempo. Se utilizzata con competenza e consapevolezza, può alleggerire il carico cognitivo, migliorare l’accuratezza, sintetizzare dati, proporre ipotesi nuove. Non sostituisce il medico, ma lo aiuta a rientrare nella relazione con maggiore lucidità e disponibilità all’ascolto.
Ecco un esempio: un giorno nello studio del Dottor Bianchi.
Alle 8:15 il telefono ha già venti chiamate perse. Ma una chatbot ha già raccolto i dati essenziali, lasciando al medico solo le urgenze.
Alle 9:00 visita Maria, 47 anni, stanchezza e febbricola: in un minuto l’AI suggerisce tre ipotesi “fuori dal radar” e i relativi esami.
Alle 10:30, una lettera per lo specialista è pronta in bozza; il medico la rilegge e firma, risparmiando minuti preziosi.
Nel pomeriggio, durante una visita domiciliare, l’AI sintetizza vocalmente l’ultimo ecodoppler.
Alle 17:30 il dottore chiede un aggiornamento sulle linee guida per lo scompenso cardiaco negli over 80: in pochi secondi ha un abstract aggiornato.
In una sola giornata, l’AI ha fatto risparmiare al dottor Bianchi circa un’ora, senza mai sostituirlo. Ma c’è di più: quando riceve l’ennesima telefonata da Antonio, paziente iper-ansioso, si prepara al colloquio consultando una chatbot addestrato al mentoring relazionale. In questo caso il tempo non si risparmia, ma si investe: la relazione migliorerà, e le chiamate inappropriate caleranno.
L’AI non è un “Dottor Google” 2.0. Per diventare una vera alleata servono tre accorgimenti:
• Prompt mirati e contestualizzati, che guidino l’AI senza generare rumore;
• Contesto clinico ricco, con età, comorbilità, farmaci, fonti desiderate;
• Verifica critica, confrontando sempre l’output con le linee guida certificate e il buon senso clinico.
L’AI può diventare uno “specchio del pensiero clinico”, stimolando riflessione e apprendimento. Non cancella il dubbio, ma gli restituisce il suo spazio, valorizzando il ruolo decisionale e relazionale del medico.
Ma come sempre ogni beneficio porta con sé un rischio da mitigare:
• Il triage automatico può sottostimare le urgenze: serve una supervisione umana.
• Le ipotesi diagnostiche proposte dall’AI devono affiancare, non sostituire, il ragionamento clinico.
• Le lettere e le sintesi automatiche vanno sempre riviste dal medico.
• I chatbot relazionali possono aiutare nella preparazione di colloqui difficili, migliorando la consapevolezza emotiva, ma rischiano anche di ridurre l’autenticità e l’empatia.
• Esiste un pericolo di “ethical deskilling”, ossia perdita progressiva della capacità di affrontare dilemmi morali complessi.
L’AI non comprende i significati simbolici, i vissuti profondi, le sfumature affettive della relazione umana. Proprio per questo non va temuta, ma va conosciuta, addestrata e integrata in modo intenzionale e responsabile.
L’arrivo dell’AI generativa è un passaggio epocale. Come ogni tecnologia trasformativa, richiede non solo addestramento tecnico, ma anche riflessione critica sul suo impatto umano e professionale.
Nella medicina di famiglia, dove la fiducia è il perno della cura, l’affidabilità dell’AI sarà tanto più alta quanto più sarà integrata con discernimento. Insegnare a usarla bene significa anche insegnare a riconoscerne i limiti, valorizzando il ruolo insostituibile del medico come persona che cura, e non solo come risolutore di problemi.
Stefano Ivis
C.S. della S.R.F.S. Fondazione Scuola Sanità Pubblica, Regione Veneto
Sandro Bolzonella
Mentore della S.R.F.S. Fondazione Scuola Sanità Pubblica, Regione Veneto
Mario Casini
Pediatra e psicoterapeuta sistemico
Massimo Conte
Coordinatore Editoriale del Complexity Education Project