La notizia è ancora fresca: dallo scorso autunno, ChatGPT ha cominciato a integrare un numero crescente di algoritmi da shop assistant personale. In altri termini, quando l’utente gli pone una domanda che in qualche modo sottintende un invito a consigliare prodotti o soluzioni, l’AI risponde senza tirarsi indietro. Considerato che, come scrive OpenAI (l’azienda che ha sviluppato ChatGPT), ogni settimana oltre 700 milioni di persone utilizzano la piattaforma per ricevere assistenza nelle attività quotidiane, è evidente che ci troviamo di fronte a un’ulteriore evoluzione dell’e-commerce, che con l’AI diventa sempre più “esperienza conversazionale”.
A questo punto, la tentazione di mettere alla prova ChatGPT con una simulazione reale che prende le mosse da un quesito relativo alla salute diventa irresistibile. Non per capire se l’intelligenza artificiale possa sostituire il farmacista al banco, ma per capire in quale modo l’uso di queste interfacce cambi le aspettative e il comportamento dei pazienti prima che varchino la soglia della farmacia. Il tema centrale, in sostanza, non è più chiedersi “se” il paziente che entra in farmacia si è già consultato prima con un sistema di AI, perché i numeri dicono che già oggi è così per molti e in futuro lo sarà per tutti. Invece, diventa interessante comprendere che cosa si porta con sé in farmacia il cliente che prima ha chiesto informazioni all’AI, se è realmente più informato o, al contrario, solo più confuso; se si presenta al banco nutrendo aspettative del tutto irrealistiche, se è già rigidamente orientato verso l’acquisto di un prodotto specifico o se, come sempre più spesso accade, arriva pronto a esordire con la classica frase “Ho letto che…”. E il farmacista: è pronto a gestire quel “pre-ingaggio”, oppure rischia soltanto di subirlo?
Abbiamo scelto di mettere alla prova ChatGPT su una domanda semplice, con poco contesto, esattamente come farebbe un utente medio: poco tempo, poca precisione, molta urgenza percepita. Nota importante, le risposte dell’AI possono variare per due motivi principali: com’è formulato il prompt (cioè la domanda del paziente) e la personalizzazione (cioè quello che lo stesso utente ha già chiesto in passato all’AI e come questa “calibra” tono e profondità). Non vogliamo, insomma, misurare “la verità assoluta” della risposta, ma la qualità di un comportamento: come l’AI imposta il ragionamento, quali priorità seleziona, quali rischi vede, come chiude la consulenza e di conseguenza in che modo “prepara” il paziente a entrare in farmacia.
Ecco quindi la domanda che abbiamo rivolto a ChatGPT: “Da qualche settimana mi sento sempre stanco anche se dormo abbastanza. Lavoro al computer tutto il giorno e faccio fatica a concentrarmi nel pomeriggio. Non prendo farmaci e non ho patologie note. Vorrei provare qualcosa di naturale o un integratore. Cosa mi consigli?”
ChatGPT formula la sua risposta simulando l’approccio pratico di un farmacista al banco, chiarendo che la priorità assoluta è escludere cause cliniche importanti. Per poter calibrare il consiglio, l’AI richiede immediatamente alcune informazioni specifiche sullo stile di vita, affiancando un elenco di campanelli d’allarme che richiederebbero il consulto del medico. A queste domande rispondiamo in modo sintetico, proprio come farebbe una persona che ha fretta di trovare una soluzione: “Dormo sei ore. Tre caffè (2 mattina, 1 pomeriggio). Palestra una volta alla settimana. Livello di stress da 1 a 10, otto.”
Una volta ottenuti questi dati, l’intelligenza artificiale delinea un quadro d’insieme. Se il sintomo persiste, suggerisce di procedere con esami ematochimici di base (emocromo, ferritina, B12, TSH, assetto glicemico), ma nel frattempo propone un piano d’azione “in sicurezza” di tre o quattro settimane. Questo percorso unisce correzioni dello stile di vita (niente caffè dopo le 14, brevi camminate dopo pranzo, snack proteici) a un supporto integrativo mirato, come l’assunzione serale di magnesio bisglicinato o citrato e un complesso di vitamine del gruppo B. A tutela del paziente, sconsiglia categoricamente l’assunzione “fai da te” di ferro o l’utilizzo di mix energizzanti troppo complessi senza supervisione.
Nella sua replica, ChatGPT individua come ipotesi più probabile una combinazione insidiosa: un debito di sonno cronico unito all’uso di caffeina, che ne peggiora ulteriormente la qualità, il tutto aggravato da un forte sovraccarico mentale. Per invertire la rotta, propone quindi un piano d’azione pratico della durata di due settimane. Sul fronte delle abitudini quotidiane, suggerisce di allungare il riposo notturno di 45-90 minuti, consiglia di bilanciare meglio il pranzo, facendolo seguire da una breve camminata rigenerante di 8-12 minuti, e raccomanda di rendere più regolare l’attività fisica generale.
Per quanto riguarda il supporto integrativo, il suggerimento prevede l’assunzione di magnesio la sera, eventualmente affiancato da un complesso di vitamine del gruppo B al mattino. Infine l’AI stabilisce un parametro di controllo molto chiaro e vincolante: se la situazione non dovesse mostrare miglioramenti tangibili nell’arco di 10-14 giorni diventa indispensabile rivolgersi al medico per una valutazione clinica approfondita e per l’esecuzione degli esami ematochimici di base.
Ovviamente potremmo proseguire con altre domande, ma per semplicità ci fermiamo qui. Quello che ci interessava vedere non è tanto la risposta definitiva, ma il suo modo di affrontare un problema di salute. Spegniamo quindi l’app e rimettiamoci il camice per commentare quanto ci ha detto.
Parto da una premessa: per un chatbot digitale, la risposta è complessivamente di buon livello. È prudente su alcune cose, non “spinge subito il prodotto” e ragiona in base a un percorso. E questa, per la farmacia, è già una lezione: l’utente non cerca necessariamente una marca di integratori, cerca un orientamento.
Detto questo, se l’interazione si fosse svolta realmente al banco della farmacia, sarebbe stato auspicabile un livello di professionalità maggiore su quattro aspetti fondamentali. Innanzitutto, sarebbe servita una maggiore focalizzazione sulla sicurezza clinica, indagando a fondo i campanelli d’allarme e le cause mediche più frequenti. In secondo luogo, è mancata la definizione di una chiara gerarchia d’azione, che aiutasse il paziente a stabilire le giuste priorità. A questo si aggiunge una carenza di concretezza su elementi pratici essenziali, come i dosaggi esatti, le tempistiche di assunzione e la corretta gestione delle aspettative terapeutiche. Infine, il consiglio ha peccato nella fase di chiusura: per essere davvero completo e professionale, avrebbe dovuto prevedere un follow-up strutturato e definire a priori i criteri oggettivi di successo o fallimento del percorso suggerito.
Analizziamo i punti chiave in modo pratico. Partiamo dai campanelli d’allarme: l’intelligenza artificiale li elenca correttamente, ma fallisce nel renderli operativi. Ricevuti i dati del paziente (sei ore di sonno e un livello di stress pari a 8), l’AI cade nel tipico bias di attribuire l’intero quadro clinico allo stile di vita. Come abbiamo visto, sintomi come la stanchezza cronica possono nascondere insidie reali come anemie, disfunzioni tiroidee o apnee notturne. Pertanto, non basta citare queste eventualità; serve un approccio parallelo. Il messaggio corretto da trasmettere è che occorre correggere le abitudini, ma contemporaneamente programmare degli esami di base, abbandonando l’idea lineare e rischiosa del “proviamo per due settimane e poi vediamo”.
Sul fronte della pianificazione, manca un vero e proprio programma “chiuso”. Pur proponendo ottime strategie, l’AI si perde in un ventaglio di opzioni troppo ampio, mancando di sintesi e direttività. Nella realtà clinica serve una sequenza d’azione cristallina: scadenze precise, parametri oggettivi da misurare e un momento definito a priori in cui cambiare rotta se i risultati tardano ad arrivare.
Questa vaghezza si riflette pesantemente anche sul consiglio degli integratori. Suggerire genericamente “magnesio” o “vitamine del gruppo B” funziona in teoria, ma rimane carente nell’atto pratico. Senza indicazioni precise su dosaggi, tempistiche, differenze tra i vari sali e specifiche condizioni d’uso (come una dieta povera di derivati animali o l’uso concomitante di farmaci antiacidi), si abbandona l’utente nella confusione. Davanti a decine di scatole diverse, un paziente disorientato finisce per acquistare a caso o per non acquistare affatto. Serve inoltre chiarezza sulla durata dell’integrazione e sui potenziali rischi legati all’assunzione prolungata di megadosi.
Anche i consigli sullo stile di vita, seppur validi, rischiano di scivolare in un’eccessiva semplificazione. Enfatizzare il debito di sonno come causa principale è un’arma a doppio taglio: è efficace a livello comunicativo, ma diventa clinicamente pericoloso se spinge l’utente a normalizzare un malessere, ignorando segnali importanti e rimandando accertamenti medici necessari. Lo stesso vale per la gestione della caffeina. Suggerire di tagliare il caffè pomeridiano è corretto ma ignora due dinamiche reali: innanzitutto, il bisogno spasmodico di quella tazzina è spesso la spia di un pranzo sbilanciato o di un riposo inefficace; in secondo luogo, una sospensione brusca può causare fastidiosi mal di testa da astinenza, portando il paziente ad abbandonare subito il percorso.
Infine, di fronte a un livello di stress tanto elevato, limitarsi a consigliare di “fare più sport” risulta decisamente superficiale. Sebbene l’AI eviti con prudenza di addentrarsi nel campo dei fitocomplessi, avrebbe dovuto quantomeno esplicitare questa scelta, spiegando che tali rimedi esistono, ma richiedono una valutazione personalizzata per garantirne la totale sicurezza.
Il risultato finale di questa interazione è un sovraccarico di informazioni. L’intelligenza artificiale cerca di coprire ogni scenario possibile, trasformandosi in un’enciclopedia teorica, mentre l’utente reale ha bisogno dell’esatto opposto: una direzione inequivocabile, un’azione immediata da compiere, un massimo di due prodotti specifici e, soprattutto, una data precisa in cui darsi un nuovo appuntamento per valutare i risultati.
In definitiva, ChatGPT è “utile” o “pericoloso”? Entrambe le cose, dipende da come lo si usa. È utile perché non spinge la vendita casuale, ma costruisce un percorso di salute ragionato (stile di vita più integrazione), citando esami e campanelli d’allarme. Tuttavia si rivela anche in una certa misura pericoloso, perché rischia di innescare false rassicurazioni (minimizzando i sintomi a semplice stress o stanchezza), resta vago su dosaggi e tempistiche, e lascia l’utente “in sospeso” senza un follow-up chiaro.
La lezione per la farmacia: il protocollo batte il prodotto. Paradossalmente, l’AI eccelle nel creare un “mini-percorso” anziché proporre la singola scatola. Questa è la vera evoluzione per la professione: smettere di essere solo dispensatori e iniziare a prendere in carico il bisogno, definendo percorsi chiari, semplificando le scelte al paziente e fissando controlli per misurare i risultati.
Inoltre dobbiamo ricordarci che l’utente che ha già consultato l’intelligenza artificiale arriva al banco cercando concretezza: “Dimmi tu cosa fare e quando preoccuparmi”. In questo spazio, la farmacia ha un vantaggio incolmabile. L’AI si ferma a un orientamento intermedio, ma non potrà mai sostituire la valutazione contestuale, l’assunzione di responsabilità clinica, le domande mirate per escludere controindicazioni e il contatto umano.
Conclusione Il paziente del futuro potrebbe arrivare al banco meno disposto ad acquistare “la scatola del momento” e più orientato ai percorsi, ma sarà anche più esposto ai bias e alla confusione digitale. Per restare centrale, la farmacia deve fare una cosa tanto semplice quanto complessa: diventare il luogo fisico dove questa confusione si trasforma in un piano d’azione sicuro e concreto.

