Una legge sull’intelligenza artificiale che guardi ai diritti fondamentali

Oggi, 30 novembre 2021, insieme all’European Digital Rights (EDRi) e altre 113 organizzazioni della società civile abbiamo lanciato una dichiarazione collettiva per chiedere una legge sull’intelligenza artificiale (AI) che metta in primo piano i diritti fondamentali.

La dichiarazione, redatta da European Digital Rights (EDRi), Access Now, Fondazione Panoptykon, epicenter.works, AlgorithmWatch, European Disability Forum (EDF), Bits of Freedom, Fair Trials, PICUM e ANEC, delinea raccomandazioni centrali per guidare il Parlamento e il Consiglio dell’Unione europea nel modificare la proposta AI della Commissione europea.

Il firmatari chiedono:

  • Un approccio coesivo, flessibile e a prova di futuro al “rischio” dei sistemi di AI.
    Compreso  un meccanismo robusto e coerente per aggiornare i sistemi di AI che rientrano sotto le categorie di rischio “inaccettabile” (articolo 5) e limitato (articolo 52), e assicurando che le rubriche dell’area “ad alto rischio” (allegato III) possano essere aggiornate.
  • Divieti su tutti i sistemi di AI che presentano un rischio inaccettabile per i diritti fondamentali.
    Incluso un divieto totale di: sistemi di punteggio sociale; identificazione biometrica a distanza in spazi accessibili al pubblico (da parte di tutti gli attori); sistemi di riconoscimento delle emozioni; categorizzazione biometrica discriminatoria; AI fisiognomica; sistemi utilizzati per prevedere future attività criminali; sistemi per profilare e valutare il rischio in un contesto di migrazione.
  • Obblighi per gli utenti di (cioè quelli che impiegano) sistemi di AI ad alto rischio per facilitare la responsabilità per coloro che sono colpiti dai sistemi di AI.
    Includendo un obbligo per gli utenti di sistemi di AI ad alto rischio di condurre e pubblicare una valutazione d’impatto sui diritti fondamentali, compreso l’impatto sulle persone, i diritti fondamentali, l’ambiente e il più ampio interesse pubblico.
  • Coerente e significativa trasparenza pubblica.
    Incluso un obbligo per gli utenti di registrare l’uso di sistemi ad alto rischio sulla banca dati pubblica prevista dall’Articolo 60.
  • Significativi diritti e risarcimenti per le persone colpite dai sistemi di AI.
    Tali come il diritto a non essere sottoposti a sistemi di AI in violazione del regolamento e delle pratiche proibite, il diritto a una spiegazione per decisioni prese con l’assistenza dei sistemi di AI, e il diritto a un rimedio giudiziario.
  • Accessibilità durante tutto il ciclo di vita dell’AI.
    Inclusi requisiti di accessibilità per tutti i sistemi di AI.
  • Sostenibilità e protezioni ambientali nello sviluppo e nell’uso dei sistemi di AI.
    Includendo requisiti di trasparenza pubblica sul consumo di risorse e impatto delle emissioni di gas serra dei sistemi di AI.
  • Miglioramenti a prova di futuro degli standard per i sistemi di AI.
    Limitando il processo di standardizzazione armonizzato solo agli aspetti genuinamente tecnici, e assicurando la partecipazione della società civile al processo.
  • Una AI veramente completa che funzioni per tutti.
    Garantire la privacy per le persone con disabilità; rimuovendo l’ampia esenzione per i sistemi AI parte di banche dati informatiche dell’UE su larga scala; e garantire un processo di applicazione robusto e dotato di risorse che centri i diritti fondamentali.

I sistemi di intelligenza artificiale (AI) sono sempre più utilizzati in tutti i settori della vita pubblica. Tuttavia, la mancanza di una regolamentazione adeguata sullo sviluppo e la diffusione della tecnologia alimentata dall’AI rappresenta una minaccia per i nostri diritti digitali e umani. In Europa, abbiamo già assistito all’impatto negativo dell’AI quando è governata in modo scorretto. Per esempio, l’uso discriminatorio dell’AI al confine ha facilitato la deportazione di persone in movimento e negato loro l’accesso a servizi vitali come l’assistenza sanitaria e la sicurezza sociale. Abbiamo anche visto come l’uso di sistemi di polizia predittiva abbiano portato ad un aumento dell’over-policing di comunità razziali, e come le aree povere, della classe operaia e degli immigrati
siano state ingiustamente prese di mira dai sistemi di rilevamento delle frodi. L’uso del riconoscimento facciale e sistemi simili sono stati utilizzati in tutta Europa in modi che portano alla sorveglianza biometrica di massa.

Favorendo la sorveglianza di massa e amplificando alcune delle più profonde disuguaglianze sociali e squilibri di potere, i sistemi di AI stanno mettendo i nostri diritti fondamentali e i processi e i valori democratici a grande rischio. Ecco perché la proposta delle istituzioni dell’Unione europea (UE) su questo tema è un passo globalmente significativo. Ma questa deve affrontare gli impatti strutturali, sociali, politici ed economici dell’uso dell’AI. Questo assicurerà che la legge sia a prova di futuro e dia priorità alla protezione dei diritti fondamentali.

Per questo, insieme alle organizzazioni sottoscrittrici di questo documento abbiamo sollecitiamo il Consiglio dell’Unione europea, il Parlamento europeo e tutti i governi degli stati membri dell’UE
a garantire che la prossima legge sull’intelligenza artificiale raggiunga gli obiettivi fissati nella nostra dichiarazione e metta i nostri diritti fondamentali al primo posto.

The post Una legge sull’intelligenza artificiale che guardi ai diritti fondamentali appeared first on cild.eu.

Fonte: Cild.eu – https://cild.eu/blog/2021/11/30/una-legge-sullintelligenza-artificiale-che-guardi-ai-diritti-fondamentali/

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *