Publicat el Reglament europeu d’intel·ligència artificial: les claus de la seva aplicació

 

El Diari Oficial de la Unió Europea (DOUE) ha publicat el Reglament (UE) 2024/1689 del Parlament Europeu i del Consell, de 13 de juny de 2024, pel qual s’estableixen normes harmonitzades en matèria d’intel·ligència artificial (Reglament d’intel·ligència artificial). El reglament no serà aplicable amb caràcter general fins al 2 d’agost de 2026, però algunes previsions són aplicables en terminis diferents.

La intel·ligència artificial ha arribat per quedar-se, i suposadament per millorar la nostra vida. Per això, és obligatori que la Unió Europea la reguli, a causa de les implicacions que puguin arribar a tenir.

La normativa ha estat publicada com el Reglament 2024/1689, pel qual s’estableixen normes harmonitzades en matèria d’intel·ligència artificial. La normativa és extensa, i emfatitza el control d’obligacions i a fomentar tecnologies sostenibles.

Entrada en vigor

És cert que la normativa no s’aplicarà fins al 2 d’agost de 2026, però determinades pràctiques de la IA ja estaran prohibides des de febrer de 2025, a més que hi haurà sistema de governança de la IA a Europa, arsenal sancionador per incompliment, i organismes reguladors de la IA.

  • Les prohibicions de determinades pràctiques relacionades amb la IA ja seran aplicables a partir del 2 de febrer de 2025.
  • Les previsions relatives als organismes notificats, als sistemes d’IA generals, però que impliquen riscos sistèmics, al sistema de governança de la IA a Europa i bona part de l’arsenal sancionador seran aplicables a partir del 2 d’agost de 2025 (amb el que la base organitzativa ja estarà enllestida per a quan sigui exigible el conjunt més substancial d’obligacions).
  • Serà aplicable a partir del 2 d’agost de 2027 la regulació d’uns certs sistemes d’IA d’alt risc (els que siguin components de seguretat d’uns certs productes o constitueixin en si mateixos aquests productes caracteritzats per requerir-se una avaluació de seguretat per a la seva comercialització o posada en servei -per exemple, màquines, joguines, ascensors o productes sanitaris-).

Protecció de dades

No hem d’oblidar que la IA és un risc brutal en l’àmbit de protecció de dades. Al cap i a la fi, les IA “aprenen”, però la gran pregunta és si aprenen respectant la protecció de dades o no. No és el mateix que una IA utilitzi les dades de tots els usuaris per a “saber coses”, que no les utilitzi.

Si no els usa, la IA serà menys efectiva, però serà més respectuosa amb la normativa europea. La seva aplicació objectiva és la definició del que hem d’entendre com a intel·ligència artificial, i deixa fora poques coses.

Àmbit d’aplicació objectiu

Quant a l’àmbit d’aplicació objectiu, el Reglament parteix d’una àmplia definició del que s’ha d’entendre per IA i deixa fora del seu àmbit d’aplicació només algunes manifestacions concretes d’aquests sistemes.

Queda fora l’aplicació de la IA per a fins militars, també els sistemes que tingui com a finalitat el desenvolupament científic. Per consegüent, es tracta de regular els sistemes d’IA, per a fins comercials i de serveis, però queda fora la recerca científica, militar, seguretat nacional, etc.

Mecanismes de control

Com a mecanismes de control, hi ha tres nivells de risc definits pel Reglament. Tenim el risc inadmissible, que és el que quedarà prohibit i que va contra la UE i la seva normativa. Per exemple, seria la puntuació social, les tècniques subliminals, aprofitar la vulnerabilitat de les persones, categoritzar-les biomètricament o reconèixer emocions, sobretot si no és en l’àmbit privat.

Després tenim l’alt risc, que inclouria tots els sistemes amb IA que impliquen joguines, ascensors, vehicles de motor, etc. i també els sistemes d’assegurances de vida i salut, classificació creditícia de les persones, promoció, acomiadament de personal, etc.

Quant a l’alt risc hi ha molta classificació i és molt extens, a causa de la matèria que és molt abstracta. Finalment, tenim el risc baix, que són els límits on la IA es pot desenvolupar tranquil·lament, però per descomptat conformement a la normativa vigent, i sotmès a règim d’obligacions d’informació. Es podran adherir a codis de conducta de la UE.

Convé tenir en compte que els sistemes generals d’IA, com el CHAT GPT o GEMINI, comporten riscos sistèmics, poden causar accidents greus, ser utilitzats indegudament, ser utilitzats per a ciberatacs, etc.

Estructura administrativa de control i règim sancionador

Es dissenya una estructura administrativa de control i règim sancionador, de fet, a Espanya ja tenim l’AGÈNCIA ESPANYOLA DE SUPERVISIÓ D’INTEL·LIGÈNCIA ARTIFICIAL (Reial decret 729/2023, de 22 d’agost), que ha d’inspeccionar, comprovar i sancionar en cas de mal ús.

En l’àmbit europeu, l’OFICINA EUROPEA D’INTEL·LIGÈNCIA ARTIFICIAL serà l’organisme de control al qual corresponen importants funcions.

Atenció. Les multes per infraccions del Reglament d’intel·ligència artificial s’han fixat com un percentatge del volum de negocis anual global de l’empresa infractora en l’exercici financer anterior o un import predeterminat, si aquest fos superior, i poden arribar fins als 35 milions d’euros o el 7% del volum de negocis anual total a escala mundial de l’infractor durant l’exercici financer anterior, si aquest import fos superior.

 

Consulteu els nostres serveis fiscals, laborals i legals aquí.

JDA/SFA

print


Dejar un comentario "El nombre que nos facilite aparecerá publicado junto a su comentario"