La UE aprueba la Ley de IA, un enfoque integral basado en riesgos para la regulación de la IA

La UE finalmente ha aprobado la Ley de IA en la que ha estado trabajando durante los últimos años. La Ley de IA de la UE es una ley integral que adopta un enfoque basado en el riesgo para la regulación de la IA.

«La adopción de la Ley de IA marca el comienzo de una nueva era de IA y no se puede subestimar su importancia», dijo Enza Iannopollo, analista principal de Forrester. «La Ley de IA de la UE es el primer y único conjunto de requisitos vinculantes del mundo para mitigar los riesgos de la IA».

La nueva ley clasificará la IA en función de los riesgos potenciales y utilizará ese nivel de riesgo para determinar cuánta regulación se necesita.

En un próximo episodio del Podcast del SD Times, Duane Pozza, ex subdirector de la FTC y ahora abogado de IA en Wiley Rein LLP, dice que: “Lo interesante aquí es que se centra en gran parte en lo que llama IA de alto riesgo. Por lo tanto, hay muchos requisitos, particularmente en torno a inversiones y controles en torno a la seguridad, que se aplicarán cuando la IA se utilice para toda una categoría de casos de uso de mayor riesgo… realmente poner barreras de seguridad en esas áreas y luego tener un toque más ligero… con IA que podría usarse para otros fines que se encuentran en el espectro de menor riesgo”.

La UE considera de alto riesgo los siguientes usos: infraestructuras críticas, educación y formación profesional, empleos, servicios esenciales, determinados sistemas de aplicación de la ley, gestión de la migración y las fronteras, y procesos de justicia y democráticos. El uso de IA en esos sistemas requerirá que se tomen medidas para reducir el riesgo, como mantener registros de uso, brindar transparencia a los sistemas y contar con supervisión humana.

Según la UE, los ciudadanos también pueden presentar quejas formales sobre los sistemas de inteligencia artificial si creen que están afectando sus derechos.

Los modelos de IA de uso general también estarán sujetos a requisitos de transparencia y cumplirán con la ley de derechos de autor de la UE. Los creadores de esos modelos tendrán que publicar resúmenes detallados de los datos que utilizaron para entrenar esos modelos. Las imágenes, el audio y el vídeo deepfake también deberán etiquetarse claramente para que las personas sepan que han sido alterados por la IA.

«El objetivo es permitir que las instituciones aprovechen la IA plenamente, de una manera más segura, confiable e inclusiva», dijo Iannopollo. “Nos guste o no, con este reglamento la UE establece el estándar ‘de facto’ para una IA confiable, una mitigación de riesgos y una IA responsable. Todas las demás regiones sólo pueden ponerse al día”.

Iannopollo recomienda que las empresas comiencen a organizar equipos de cumplimiento de IA ahora para que estén preparados para cumplir con los requisitos. Dijo que cumplir con la regulación «requerirá una fuerte colaboración entre los equipos, desde TI y ciencia de datos hasta gestión legal y de riesgos, y un apoyo cercano de la alta dirección».

“La UE ha cumplido”, dijo Dragos Tudorache, miembro del Parlamento Europeo y coponente del Comité de Libertades Civiles. “Hemos vinculado el concepto de inteligencia artificial a los valores fundamentales que forman la base de nuestras sociedades. Sin embargo, queda mucho trabajo por delante que va más allá de la propia Ley de IA. La IA nos empujará a repensar el contrato social en el corazón de nuestras democracias, nuestros modelos educativos, los mercados laborales y la forma en que llevamos a cabo la guerra. La Ley de IA es un punto de partida para un nuevo modelo de gobernanza basado en la tecnología. Ahora debemos centrarnos en poner esta ley en práctica”.


Source link

About David Lopez

Check Also

Shopware AI Chatbot usando ChatGPT y Llama 3

Shopware AI Chatbot que utiliza ChatGPT y Llama 3 permite al cliente hacer preguntas al …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *