Negli ultimi mesi, chiunque usi sistemi di intelligenza artificiale si sarà imbattuto in una frase simile:

“Mi dispiace, non posso fornire consigli medici.”

Una risposta automatica, ma che nasconde una dinamica seria ed articolata. Dietro quella frase, infatti, si nasconde una delle questioni più delicate di attualità: fino a che punto possiamo, o dovremmo, lasciare che l’intelligenza artificiale parli di salute?

La decisione di bloccare i consigli medici non nasce da un capriccio tecnico, ma da necessità etiche e legali.
Gli utenti hanno spesso richiesto consulti medici all’intelligenza artificiale, spesso affidandosi unicamente alle sue riposte, senza consultare uno specialista, tralasciando però che un sistema di IA, per quanto avanzato, non è un medico e non può assolutamente sostituirne uno. Non può valutare lo stato di salute complessivo di una persona, né cogliere le sfumature umane che rendono ogni caso unico, tantomeno dare responsi su interpretazioni di analisi o risultati di esami in genere. Un errore di interpretazione o una risposta incompleta, in questo contesto, potrebbe avere conseguenze molto serie.

A questo si aggiunge il tema della responsabilità. Se un algoritmo suggerisce un rimedio errato e l’utente ne subisce un danno, chi ne risponderebbe? L’azienda che lo gestisce? Il modello stesso? L’utente che ha scelto di seguirlo?
Finché non esiste un quadro normativo chiaro, la risposta più sicura e più semplice, da parte di OpenAI, resta una sola: il silenzio.

Di contro, però, bloccare ogni discussione sulla salute è una misura di protezione, ma è anche un limite alla conoscenza. Parlando di utenti generici e non di modelli specifici sviluppati per target settorializzati come l’ambito medico, per esempio, l’AI nasce proprio per supportarci, per dare anche dei chiarimenti, comprendere un referto, sapere cosa significa un termine medico, o semplicemente orientarsi in un mare di informazioni spesso contraddittorie.
Negare completamente questo tipo di dialogo, secondo noi, rischia di spingere gli utenti verso fonti non controllate, come forum o social network, dove l’imprecisione, superficialità e disinformazione sono la norma.

Crediamo che il futuro non sia nel limitare uno strumento, ma nella trasparenza, nella collaborazione e, soprattutto, nell’educazione e nella consapevolezza del digitale.
L’IA potrebbe agire come un assistente informativo, non come un sostituto del medico, ma gli utenti devono comprendere ed assimilare perfettamente questo concetto per non subire frustranti risposte.
Per poterlo fare, un sistema ben progettato dovrebbe poter fornire spiegazioni basate su fonti scientifiche verificate ed indicarle con estrema trasparenza, sottolineando i propri limiti evidenziando che la sua risposta non è da intendersi come un consulto ma come un chiarimento.

In questo modo, l’intelligenza artificiale diventerebbe un ponte tra le persone e la conoscenza medica, invece di una barriera, per metter i pazienti in condizione di porre domande più precise e specifiche al del proprio medico curante, comprendendo meglio quadri clinici e situazioni di diversa natura.