Team ibridi medico-IA: la ricerca CNR conferma la visione di 1diagnosis
- Massimo Mostallino
- 12 lug
- Tempo di lettura: 3 min
Aggiornamento: 13 lug
Come la collaborazione fra esperti umani e algoritmi può ridurre gli errori clinici – e perché l’AI Act rischia di frenare proprio queste innovazioni.
1. Dai numeri alla pratica: cosa rivela lo studio
Un nuovo studio internazionale guidato dal Max Planck Institute e dall’Istituto di Scienze e Tecnologie della Cognizione del CNR dimostra che i team “misti” – medici + sistemi di intelligenza artificiale – raggiungono un’accuratezza diagnostica superiore rispetto ai soli medici o alle sole IA, soprattutto nei casi complessi e con molte possibili diagnosi. Nei test su oltre 40 000 diagnosi tratte da 2 100 vignette cliniche:
i gruppi di sole IA superano i gruppi di soli umani nell’85 % dei casi;
ma gli errori di macchine e persone sono sistematicamente diversi e si compensano a vicenda;
basta aggiungere anche un solo modello IA a un team umano (o viceversa) per alzare significativamente la precisione complessiva. (CNR)
Per 1diagnosis – che nasce proprio per unire competenze cliniche e potenza computazionale – questi dati rafforzano la nostra scelta di puntare su piattaforme cooperative, dove la macchina amplia il ventaglio di ipotesi e il medico resta il decisore finale.
2. Il valore aggiunto per pazienti e sanità
Riduzione degli erroriLa complementarità fra i “bias” umani e quelli algoritmici riduce le diagnosi mancate o tardive, con ricadute positive su esiti clinici, costi ospedalieri e contenziosi.
Equità di accessoIn contesti con carenza di specialisti, un assistente IA allarga la disponibilità di seconde opinioni qualificate, come sottolineato dagli autori dello studio. (CNR)
Formazione continuaIl confronto con i suggerimenti della macchina diventa uno strumento di aggiornamento per i professionisti, che possono testare il proprio ragionamento in tempo reale.
3. Il freno normativo: quando la tutela diventa ostacolo
Dal 2 febbraio 2025 sono operative le prime disposizioni dell’AI Act (Reg. UE 2024/1689): divieto di “pratiche a rischio inaccettabile” e sanzioni fino a 35 milioni di euro o al 7 % del fatturato per i trasgressori. Oltre due terzi delle imprese europee dichiarano di non capire appieno i propri obblighi, e importanti associazioni di settore – fra cui CCIA Europe (Google, Meta, Apple) – hanno chiesto a Bruxelles di “mettere in pausa” l’entrata in vigore delle regole finché non saranno più chiare. (Reuters, Legal for Digital)
Per chi, come 1diagnosis, sperimenta modelli IA “general purpose” in ambito medico, il quadro è paradossale:
Iter di conformità incerti: linee guida definitive sui modelli ad “alto rischio” attese ma rinviate;
Costi di compliance gravosi: audit, data-governance e documentazione che possono scoraggiare progetti pilota;
Rischio di lock-in fuori UE: le startup potrebbero spostare attività R&D in giurisdizioni più snelle, privando l’Europa di soluzioni che migliorano la salute dei cittadini.
In altre parole, una normativa nata per proteggere rischia di ritardare proprio quelle sperimentazioni che renderebbero la cura più sicura ed equa.
4. La nostra proposta
1diagnosis si impegna a:
Progettare in “compliance by design”, adottando fin d’ora i requisiti di trasparenza e tracciabilità del Regolamento, per non dover scegliere tra innovazione e legalità.
Promuovere sandbox regolatorie nazionali per testare, in ambiente controllato, le soluzioni IA a supporto della diagnosi, sulla scia di quanto fatto in FinTech.
Costruire alleanze con ospedali e centri di ricerca europei per contribuire a linee guida realistiche, basate sull’evidenza scientifica emersa dallo studio CNR.
L’intelligenza artificiale non è il fine, ma il moltiplicatore dell’intelligenza collettiva. Non lasciamo che la paura di sbagliare ci impedisca di curare meglio.
Comments