Las nuevas normas y medidas de la Comisión Europea quieren “convertir a Europa en el centro mundial” de la inteligencia artificial (IA). Esta nueva normativa que propone tiene como objetivo generar mayor confianza hacia esta tecnología y ofrecer un primer marco jurídico, garantizando la seguridad y los derechos de la ciudadanía. 

La Comisión Europea da un paso más en su tarea para regular la IA en Europa. El primer gran paso fue en 2020 cuando presentaron un Libro Blanco a consulta pública para regular esta tecnología, aunque previamente habían hecho en años anteriores otra consulta. Según informan en esta nueva propuesta de regulación, en la consulta pública recibieron un total de 1.215 contribuciones (352 procedentes de empresas; 406, de particulares; 152, de instituciones académicas y de investigación y 73, de autoridades públicas). Coinciden en la necesidad de hacer una nueva legislación, pero advierten que “se debe evitar la duplicación, las obligaciones conflictivas y un exceso de regulación”. 

Medidas para generar confianza en la IA

La propuesta del nuevo reglamento de la Comisión Europea establece normas de transparencia, normas para la comercialización y utilización de sistemas de IA, normas de control del mercado, prohibiciones de determinadas prácticas y requisitos específicos para sistemas de alto riesgo de IA. Así mismo, apuntan que “no se aplicará a los sistemas de IA desarrollados o utilizados exclusivamente con fines militares”.

La Comisión Europea establece cuatro niveles de riesgo para regular los sistemas de IA: riesgo inadmisible, algo riesgo, riesgo limitado y riesgo mínimo o nulo. Esta clasificación permitirá analizar de una forma adecuada cada sistema de IA. El nivel más extremo, el de riesgo inadmisible, la CE ha anunciado que serán sistemas de IA prohibidos por considerarse una “clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas”. Por ejemplo: juguetes que puedan incitar comportamientos peligrosos en menores a través de la asistencia vocal.

La Comisión Europea establece cuatro niveles de riesgo para regular los sistemas de IA: riesgo inadmisible, algo riesgo, riesgo limitado y riesgo mínimo o nulo. Esta clasificación permitirá analizar de una forma adecuada cada sistema de IA. El nivel más extremo, el de riesgo inadmisible, la CE ha anunciado que serán sistemas de IA prohibidos por considerarse una “clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas”. Por ejemplo: juguetes que puedan incitar comportamientos peligrosos en menores a través de la asistencia vocal.

Los niveles de alto riesgo son los que conllevan una mayor especificación en el reglamento, debido a que pueden afectar en diferentes aspectos: infraestructuras, formación educativa o profesional, componentes de seguridad de los productos, entre otros. Estos sistemas estarán sujetos a obligaciones antes de su comercialización. Por ejemplo: los sistemas de identificación biométrica remota. Estos sistemas estarán “sujetos a la autorización de un órgano judicial u otro organismo independiente”. 

Los sistemas de riesgo limitado tienen obligaciones específicas de transparencia, según informa la CE. Esto significa que, por ejemplo, si se utilizan robots conversacionales, los usuarios deberán saber que están interactuando con una máquina para decidir si continuar o no. Por último, el riesgo más bajo de la clasificación engloba la inmensa mayoría de los sistemas de IA. Estos sistemas suponen un riesgo mínimo o nulo para la ciudadanía

Nuevo paso adelante

La Comisión Europea también ha anunciado la nueva regulación para maquinaria. Este marco normativo pretende regular máquinas y productos tales como robots, impresoras 3D, cortadoras de césped, líneas de producción industrial, entre otras. Con esta normativa se pretende garantizar la seguridad de usuarios y consumidores, así como el fomento de la innovación en Europa. 

El Parlamento Europeo y los diferentes Estados Miembros tendrán que adoptar las propuestas de la CE en procedimiento legislativo ordinario. Tras su adopción, serán directamente aplicables en toda la Unión Europea. 

About the Author

Posts relacionados

La Cátedra RTVE-UAB, en el marco del proyecto IVERES, ha llevado a cabo el desarrollo de siete...

El proyecto IVERES, liderado por la Cátedra RTVE-UAB, ha desarrollado siete estudios de caso,...

La creciente problemática de la desinformación está generando, cada vez más, una sociedad...