Navegando por el panorama de la legislación sobre IA
La Inteligencia Artificial (IA) está transformando rápidamente las industrias y las sociedades, provocando avances y retos sin precedentes. A medida que los sistemas de IA se integran cada vez más en nuestra forma de hacer negocios y de vivir la vida cotidiana, la necesidad de una legislación sólida que regule su desarrollo y uso se ha vuelto cada vez más crítica.
La mayoría de los marcos normativos pretenden equilibrar la necesidad de innovación con la protección de los derechos fundamentales y la seguridad pública. Este artículo explora el estado actual de la legislación sobre IA, sus implicaciones y el camino a seguir.
El auge de la legislación sobre IA
La Unión Europea (UE) ha introducido recientemente la Ley de IA de la UE. Este amplio marco pretende garantizar que los sistemas de IA sean seguros, transparentes y respeten los derechos fundamentales. Al estar más a la vanguardia de la tecnología de la IA, países como Estados Unidos y China, por ejemplo, se han adelantado con marcos legislativos para abordar los retos únicos que plantea la IA. Independientemente de la velocidad, es necesario regular el panorama de la tecnología de la IA tanto para promover la innovación como para generar confianza.
Un camino de confianza
La implementación de la legislación sobre IA presenta varios retos. El rápido ritmo de desarrollo de la IA puede superar la capacidad de los marcos reguladores para seguirle el ritmo. Además, equilibrar la innovación con la regulación requiere una cuidadosa consideración para evitar ahogar el progreso tecnológico. Sin embargo, la legislación sobre IA también ofrece importantes oportunidades. Al establecer directrices y normas claras, la legislación puede fomentar la innovación, aumentar la confianza pública y garantizar que los sistemas de IA se desarrollen y utilicen de forma responsable. Además, al dar prioridad a la seguridad, la transparencia y las consideraciones éticas, podemos aprovechar todo el potencial de la IA al tiempo que salvaguardamos los intereses de las personas y la sociedad.
Complementada por normas internacionales
Los esfuerzos legislativos se complementan con normas internacionales como la ISO/IEC 42001. Esta norma certificable establece los requisitos para la implementación de un sistema de gestión de la IA y trasciende las fronteras geográficas. Aunque no es una legislación propiamente dicha, se espera que la ISO/IEC 42001 desempeñe un papel importante en la promoción de una IA digna de confianza mediante el establecimiento de las mejores prácticas para la gobernanza de la IA. Diseñada para garantizar el desarrollo, la implementación y el uso seguros, fiables y éticos de la IA, se menciona en las legislaciones como un medio valioso para garantizar que se ponen en marcha los procesos de gobernanza adecuados.
Componentes clave de la legislación sobre IA
La legislación sobre IA suele abarcar varios componentes clave:
- Seguridad y fiabilidad: Garantizar que los sistemas de IA funcionan de forma segura y fiable es primordial. La legislación suele incluir requisitos de gestión de riesgos, pruebas y validación para evitar daños a las personas y a la sociedad.
- Transparencia y responsabilidad: La transparencia en los procesos de toma de decisiones en materia de IA es crucial para generar confianza. La legislación obliga a los desarrolladores de IA a dar explicaciones claras sobre el funcionamiento de sus sistemas y a establecer mecanismos de responsabilidad.
- Consideraciones éticas: Los principios éticos, como la equidad, la no discriminación y el respeto a la privacidad, forman parte integral de la legislación sobre IA. Estos principios guían el desarrollo y el despliegue de los sistemas de IA para garantizar que se ajustan a los valores de la sociedad.
- Cumplimiento y aplicación: Los mecanismos de aplicación eficaces son esenciales para garantizar el cumplimiento de la legislación sobre IA. Los organismos reguladores se encargan de supervisar los sistemas de IA, realizar auditorías e imponer sanciones en caso de incumplimiento.
Europa: La Ley de IA de la UE
La Unión Europea (UE) ha dado un paso importante en la regulación de la inteligencia artificial (IA). La Ley de IA de la UE pretende garantizar que los sistemas sean seguros, transparentes y respeten los derechos fundamentales, además de fomentar la innovación. Publicada el 12 de julio, entró en vigor el 1 de agosto de 2024. Sus disposiciones se implementarán gradualmente, aplicándose las obligaciones sobre prácticas prohibidas a partir del 2 de febrero de 2025 y los requisitos sobre sistemas de IA de alto riesgo a partir del 2 de agosto de 2026.
La Ley de IA de la UE clasifica los sistemas de IA en función de sus niveles de riesgo:
- Inaceptable, por ejemplo, la puntuación social, está prohibida..
- De alto riesgo, por ejemplo, la contratación o los dispositivos médicos, está permitido sujeto a requisitos y evaluaciones de conformidad.
- “Riesgo de «transparencia», por ejemplo, chatbots o falsificaciones profundas, se permite sujeto a obligaciones de información/transparencia.
- El riesgo mínimo o nulo se permite sin restricciones.
Los sistemas de IA de riesgo inaceptable, como los que manipulan el comportamiento humano o explotan vulnerabilidades, están prohibidos. Los sistemas de IA de alto riesgo, que incluyen aplicaciones en infraestructuras críticas, educación y empleo, deben someterse a rigurosas evaluaciones de conformidad antes de su despliegue.
La Ley de IA de la UE también establece requisitos de transparencia y responsabilidad. Los desarrolladores de IA deben proporcionar información clara sobre el funcionamiento de sus sistemas y garantizar que puedan ser auditados. Esto incluye el mantenimiento de documentación y registros detallados para facilitar la supervisión y el cumplimiento. También se aplica a las empresas que operan o venden productos de IA en la UE. Las empresas exportadoras deben asegurarse de que sus sistemas de IA cumplen las normas especificadas y se someten a las evaluaciones necesarias.
Legislación sobre IA en Estados Unidos
Aunque adopta un enfoque ligeramente diferente al de la UE, Estados Unidos reconoció pronto la necesidad de una legislación exhaustiva que regule su desarrollo y uso. Esto ha dado lugar a varios actos legislativos a nivel federal y estatal; en 2023 se presentaron más de 40 proyectos de ley estatales. El panorama legislativo en Estados Unidos es bastante complejo, pero refleja en gran medida la creciente necesidad de equilibrar la innovación con la garantía de proteger a las personas y a la sociedad de los riesgos de la IA.
Existen algunas piezas clave en la legislación y acciones reguladoras que configuran el panorama de la IA en Estados Unidos. El Blueprint for an AI Bill of Rights, publicado en octubre de 2022, esboza los principios para proteger a los individuos de los daños potenciales de la IA. Se centra en derechos como la privacidad, la protección frente a la discriminación algorítmica y la garantía de transparencia. La amplia Orden Ejecutiva sobre IA firmada por el presidente Joe Biden en 2023 hace hincapié en la necesidad de una IA segura y fiable. También obliga a las agencias federales a adoptar medidas que garanticen que los sistemas de IA se desarrollan y utilizan de forma responsable. Existen algunas leyes que pretenden promover la innovación de forma segura, fiable, ética y transparente, como la Ley de la Iniciativa Nacional de IA de 2020 y la Ley del Futuro de la Innovación en IA. En mayo de 2024 se firmó la innovadora Colorado AI ACT, la primera de este tipo en EE.UU., que comprende una ley de gobernanza de la IA intersectorial que abarca el sector público. En el Congreso se están elaborando varios proyectos de ley, como el recientemente propuesto SB 1047 de seguridad de la IA de California, cuyo objetivo es regular aún más el modelo de IA más potente.
Legislación de China sobre IA
China no ha publicado hasta ahora una ley exhaustiva sobre la IA, pero sí reglamentos sobre sus aplicaciones. Sin embargo, a diferencia de la Unión Europea, donde la Ley de IA de la UE actúa como marco regulador general de todos los sistemas de IA, China está adoptando un enfoque vertical para regular determinados servicios de IA.
Con el ambicioso objetivo de convertirse en el líder mundial en el desarrollo y las aplicaciones de la IA, el gobierno de Pekín publicó en 2017 el «Plan de desarrollo de la IA de nueva generación», que es el primer plan sistemático y estratégico en el ámbito de la IA. Impulsó una gran actividad de la industria y el apoyo político al desarrollo de la IA.
Cinco categorías principales componen el panorama chino de gobernanza de la IA:
- Políticas y estrategias de gestión. Pekín ha publicado una serie de principios de gestión, planes, orientaciones u opiniones a nivel nacional sobre las tecnologías de la IA. Éstos proporcionan una base para la legislación de la IA. Por ejemplo, el Consejo de Estado publicó «Opiniones sobre el fortalecimiento de la gestión ética en la ciencia y las tecnologías», que expresa las ideas de Pekín sobre los principios éticos de las tecnologías de IA.
- Leyes. Algunas de las leyes existentes abordan ciertos aspectos del desarrollo, el suministro, el despliegue y el uso de los sistemas de IA, que tienen un impacto significativo en la legislación sobre IA. Entre ellas, destacan tres leyes: la «Ley de protección de la información personal», la «Ley de seguridad de los datos» y la «Ley de ciberseguridad».
- Reglamentos administrativos. Algunas normativas administrativas crean requisitos concretos para los algoritmos de IA cuando se utilizan en los servicios de información de Internet, como los «contenidos de síntesis profunda», el «sistema de recomendación» y el «sistema de IA generativa».
- Normativas municipales. Algunas ciudades de China (Shanghái y Shenzhen) también han publicado normativas municipales sobre la IA agnóstica de contenidos, cuyo objetivo es promover el desarrollo de la industria de la IA. Ambas normativas exigen que los riesgos introducidos por la IA se controlen de forma eficaz, con un escrutinio más exhaustivo de los productos y servicios de IA de alto riesgo que de los que presentan menos riesgo.
- Normas nacionales. Para apoyar la regulación del sistema de IA, el Instituto de Normalización Electrónica de China está dirigiendo el desarrollo de una serie de normas recomendadas que cubren múltiples aspectos de las tecnologías de IA.
Impacto en las empresas
El panorama legislativo en todo el mundo es bastante amplio, lo que añade un grado de complejidad que deben gestionar las empresas, tanto si operan en una geografía específica como si lo hacen a nivel interno. Lo común de la gran mayoría es que los organismos gubernamentales quieren abordar tanto las oportunidades como los retos que plantean las tecnologías de la IA.
En su núcleo está la intención de promover la innovación y el desarrollo y uso responsables de la IA, garantizando que beneficie a la sociedad al tiempo que se protege contra los riesgos potenciales. A medida que la tecnología de la IA siga evolucionando a gran velocidad, los reguladores tratarán de mantenerse al día y lo mismo deberán hacer las empresas para cumplirla.
Para gestionar y garantizar una gestión sólida, las empresas se beneficiarían de la implementación de un sistema de gestión de la inteligencia artificial (AIMS) que cumpla la norma ISO/IEC 42001, junto con sistemas de gestión orientados a la seguridad de la información (ISO/IEC 27001) o la privacidad (ISO/IEC 27701). Proporciona un enfoque estructurado para la gestión de riesgos, incluido el cumplimiento de la normativa, y establece prácticas para la mejora continua. También permite la certificación por una tercera parte independiente como DNV, que puede ayudar a garantizar sistemas de IA seguros, fiables y éticos, apoyar el cumplimiento normativo y salvar las brechas de confianza.