Le aziende sanitarie hanno più volte annunciato con entusiasmo l'introduzione dell'IA, essendo un elemento nuovo della nostra vita per molti è preso come un qualcosa che ha potenzialità incredibili e "forse" rischi zero.
L'IA in europa ha una normativa specifica per avere un prodotto di qualità e un utilizzo lecito per questo ha anche dei divieti specifici.
L'obbligo formativo per l'alfabetizzazione sull'IA, richiesto dalla normativa Europea, è entrato in vigore da febbraio 2025.
Le app sull'IA stanno diventando degli strumenti quotidiani, possiamo porgli le domande più diverse, ci rispondono sempre e funzionano molto bene. Il problema siamo noi che cerchiamo la verità, mentro loro ci vogliono solo intrattenere e conoscere.
Mi spiego meglio, se ad esempio, se chiedo a chatgpt "che cos'è un heparin cap" mi risponde così:
Un Heparin Cap (o tappo eparinico) è un piccolo dispositivo medico usato per chiudere l’estremità di un catetere venoso e mantenerlo aperto e funzionante grazie all'azione dell'eparina, un farmaco anticoagulante.
Ovviamente è una risposta data a caso perchè non conosce quel termine e ha utilizzato la somiglianza dei termini per inventare la risposta più probabile. Ma se non si tiene presente che l'IA può sbagliare allora la si può prendere per giusta con i problemi annessi.
Il fatto che a fine pagina le IA hanno scritto che possono commettere errori è un vincolo importante che dobbiamo tenere presente quando utilizziamo le loro informazioni.
L'IA crea anche testi molto chiari con domande semplici ci riassume concetti complessi, ad esempio se chiedo a Gemini pro "Quali sono i divieti di utilizzo dell'IA in Europa?" la risposta è perfetta:
In Europa, l'utilizzo di determinati sistemi di Intelligenza Artificiale (IA) considerati a "rischio inaccettabile" è severamente vietato ai sensi del nuovo Regolamento UE sull'IA (AI Act). Questi divieti mirano a salvaguardare i diritti fondamentali, la sicurezza e il benessere dei cittadini europei.
Le pratiche di IA proibite includono:
- Sistemi di manipolazione subliminale, ingannevole o manipolativa: Sono vietati i sistemi di IA che utilizzano tecniche subliminali o manipolatorie per distorcere significativamente il comportamento di una persona, in modo da causare o essere ragionevolmente suscettibili di causare danni fisici o psicologici.
- Sfruttamento delle vulnerabilità: È proibito l'uso di sistemi di IA che sfruttano le vulnerabilità di un gruppo specifico di persone dovute all'età, alla disabilità o a una situazione sociale o economica specifica, al fine di distorcere significativamente il comportamento di tale gruppo in modo da causare o essere ragionevolmente suscettibili di causare danni fisici o psicologici.
- Social scoring: Sono vietati i sistemi di IA utilizzati per valutare o classificare le persone fisiche in base al loro comportamento sociale, al loro status socioeconomico o alle loro caratteristiche personali, qualora tale valutazione porti a un trattamento sfavorevole o dannoso in contesti sociali non correlati alla raccolta originale dei dati.
- Sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico: L'uso di questi sistemi da parte delle forze dell'ordine è generalmente vietato, con limitate e specifiche eccezioni strettamente definite e autorizzate dalla legge per la ricerca di vittime di reato, la prevenzione di minacce terroristiche specifiche e imminenti, o l'identificazione di persone sospettate di reati gravi.
- Sistemi di IA che creano o espandono database di riconoscimento facciale attraverso lo scraping non mirato di immagini: È proibito raccogliere indiscriminatamente immagini facciali da internet o da circuiti CCTV per creare o ampliare database di riconoscimento facciale.
- Sistemi di riconoscimento delle emozioni in ambito lavorativo ed educativo: È vietato utilizzare sistemi di IA per determinare o inferire le emozioni dei dipendenti sul luogo di lavoro o degli studenti nelle istituzioni educative, salvo eccezioni legate a motivi medici o di sicurezza strettamente necessari.
- Sistemi di categorizzazione biometrica basati su dati sensibili: È proibito classificare le persone fisiche in base ai loro dati biometrici per dedurre o inferire categorie sensibili come l'orientamento sessuale, le convinzioni politiche, religiose o filosofiche, l'origine razziale o etnica.
- Sistemi di IA utilizzati per la valutazione del rischio di commettere reati basata unicamente sulla profilazione: È vietato l'uso di sistemi di IA che valutano o predicono il rischio che una persona fisica commetta un reato basandosi esclusivamente sulla profilazione di tale persona.
Questi divieti rappresentano i casi d'uso dell'IA considerati più dannosi per i diritti fondamentali e i valori dell'Unione Europea e sono pertanto soggetti a un divieto totale. L'AI Act stabilisce un approccio basato sul rischio, imponendo obblighi più stringenti per i sistemi di IA considerati ad alto rischio, ma vietando del tutto quelli a rischio inaccettabile.
La legge sull'IA (regolamento (UE) 2024/1689 che stabilisce norme armonizzate sull'intelligenza artificiale) è il primo quadro giuridico globale in assoluto sull'IA a livello mondiale. L'obiettivo delle norme è promuovere un'IA affidabile in Europa. L'articolo 4 è specifico per l'alfabetizzazione e prevede:
Alfabetizzazione in materia di IA
I fornitori e i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell'utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati.
Nel contesto del Regolamento UE sull'IA (AI Act), i "deployer" (o "utenti" nel testo legale italiano) sono le persone fisiche o giuridiche, le autorità pubbliche, le agenzie o altri organismi che utilizzano un sistema di IA sotto la propria autorità, eccetto quando l'uso avviene nell'ambito di un'attività personale non professionale.
Nel contesto del Regolamento UE sull'IA (AI Act), i "deployer" (o "utenti" nel testo legale italiano) sono le persone fisiche o giuridiche, le autorità pubbliche, le agenzie o altri organismi che utilizzano un sistema di IA sotto la propria autorità, eccetto quando l'uso avviene nell'ambito di un'attività personale non professionale.
In parole semplici:
- Non sono coloro che sviluppano o immettono il sistema di IA sul mercato (questi sono i "fornitori").
- Sono coloro che mettono in funzione e utilizzano il sistema di IA nella loro attività (lavorativa, pubblica, ecc.).
Esempi di "deployer":
- Un'azienda che utilizza un sistema di IA per la selezione del personale.
- Un ospedale che impiega un sistema di IA per l'analisi di immagini mediche.
- Un ente pubblico che usa l'IA per gestire il traffico.
- Una banca che usa l'IA per valutare il rischio di credito dei clienti.
L'AI Act impone specifici obblighi ai deployer, in particolare quando utilizzano sistemi di IA considerati ad alto rischio, per garantire che questi sistemi siano usati in modo sicuro, trasparente e rispettoso dei diritti fondamentali.
La Sanità italiana è un forte investitore in nuove tecnologie e l'IA entrerà, inevitabilmente, a supporto delle decisioni cliniche e probabilmente anche di budget.
L'alfabetizzazione sull'IA è diventato un obbligo normativo e se come infermieri non ci sembrerà di fare un utilizzo diretto dell'IA sicuramente questo sarà incluso in molti processi e come dire ci influenzerà, positivamente o negativamente.
Sitografia
- https://www.altalex.com/documents/news/2025/02/08/ai-act-entra-vivo-primi-divieti-alfabetizzazione-digitale
- https://www.agendadigitale.eu/sicurezza/privacy/ai-act-via-ai-divieti-guida-ai-sistemi-proibiti-e-agli-obblighi-per-le-aziende/
- https://digital-strategy.ec.europa.eu/it/policies/regulatory-framework-ai
