Archivio notizie
OSCARS: Second Open Call for Open Science Projects
New European Bauhaus Alliance: Open Call for Cascade Grants
Horizon Europe Cluster 5 Info Day: Aperte le registrazioni
Opportunità di registrazione come esperto per CEF Energy
Clean Industrial Deal- 26 febbraio 2025
Entrata in vigore dell’Artificial Intelligence Act: una guida per l’implementazione dell’intelligenza artificiale
Il primo agosto 2024 è entrato in vigore il Regolamento Europeo sull’Intelligenza Artificiale (AI Act), al fine di garantire affidabilità e sicurezza dell’intelligenza artificiale sviluppata in Europa. Inoltre, la normativa aspira a creare un mercato armonizzato e l’adozione della tecnologia in ambito di innovazione.
Iter AI Act:
L’AI Act è frutto di un iter iniziato il 9 Dicembre 2023, quando la Commissione ha accolto l’accordo politico sul tema, introducendo, il 24 gennaio 2024, un pacchetto di misure per supportare le startup e le PMI europee nello sviluppo di IA affidabile. Il 29 maggio 2024 la Commissione ha presentato l’AI Office e successivamente, il 9 luglio 2024, è entrato in vigore il Regolamento modificato del JU EuroHPC, consentendo così la creazione di fabbriche di IA, permettendo l’uso di supercomputer dedicati all’IA per l’addestramento di modelli di IA Generale (GPAI). In questo processo, è stata fondamentale la ricerca condotta dal Joint Research Centre (JRC) per plasmare le politiche sull’IA dell’UE e garantirne l’efficace attuazione.
La definizione dell’IA include i seguenti criteri:
- Il rischio minimo include i sistemi di raccomandazione abilitati all’IA e i filtri antispam, i quali non sono soggetti ad obblighi ai sensi dell’AI Act a causa del loro rischio minimo per i diritti e la sicurezza dei cittadini. Le aziende possono adottare volontariamente codici di condotta aggiuntivi.
- Il rischio di trasparenza specifico fa riferimento a sistemi di IA come le chatbot, che devono informare gli utenti che stanno interagendo con una macchina. Infatti, contenuti come i “deep fake”, generati dall’IA, devono essere etichettati e gli utenti devono essere informati in merito all’utilizzo di sistemi di categorizzazione biometrica o di riconoscimento delle emozioni.
- Il rischio elevato si applica a sistemi di IA, utilizzati per il reclutamento o la ricerca di requisiti specifici, che dovranno rispettare requisiti rigorosi, inclusi sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare per gli utenti, supervisione umana e un alto livello di accuratezza e sicurezza informatica. Le sandbox regolamentari faciliteranno l’innovazione responsabile e lo sviluppo di sistemi di IA conformi.
- Il rischio inaccettabile riguarda i sistemi di IA considerati una minaccia per i diritti delle persone, che saranno vietati. Ad esempio, applicazioni che manipolano il comportamento umano per aggirare la volontà degli utenti, sistemi che consentono il ‘social scoring’ da parte di governi o aziende e alcune applicazioni di polizia predittiva. Inoltre, alcuni usi dei sistemi biometrici saranno proibiti, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l’identificazione biometrica remota in tempo reale per scopi di applicazione della legge in spazi pubblicamente accessibili (con eccezioni limitate).
- Inoltre, l’AI Act introduce regole per i modelli di IA a scopo generale, il cui utilizzo è aumentato esponenzialmente, al fine di garantire la trasparenza lungo la catena del valore e l’abbattimento di rischi sistemici.
Scadenza per gli stati membri:
Gli Stati membri hanno tempo fino al 2 agosto 2025 per designare le autorità nazionali competenti, che supervisioneranno l’applicazione delle regole per i sistemi di IA e svolgeranno attività di sorveglianza del mercato.
Per le aziende inosservanti, sono previste multe pari al 7% del fatturato annuo globale per violazioni delle applicazioni di IA vietate, fino al 3% per violazioni di altri obblighi e fino all’1,5% per la fornitura di informazioni errate.
L’entrata in vigore dei divieti per i sistemi di IA considerati a rischio inaccettabile si applicheranno dopo sei mesi, mentre le regole per i cosiddetti modelli di IA a scopo generale si applicheranno dopo 12 mesi; dunque, la Commissione ha lanciato l’AI Pact per colmare il vuoto legislativo prima dell’attuazione, invitando gli sviluppatori di IA ad adottare volontariamente i principali obblighi dell’AI Act prima delle scadenze legali. Inoltre, la Commissione sta definendo linee guida per l’attuazione dell’AI Act, aprendo una call per manifestazioni di interesse per partecipare alla redazione del primo Codice di Condotta per l’IA a scopo generale.
Chi supervisiona l’allineamento con l’AI Act?
L’AI Office della Commissione sarà l’organo chiave per l’attuazione dell’AI Act a livello dell’UE e responsabile dell’applicazione delle regole per i modelli di IA a scopo generale. Inoltre, il Comitato Europeo per l’Intelligenza Artificiale garantirà un’applicazione uniforme dell’AI Act negli Stati membri dell’UE, interagendo con Commissione e Stati membri. Un panel di esperti indipendenti darà supporto all’applicazione delle regole in collaborazione con l’AI Office.