La preocupación por los abusos contra los derechos humanos ha llevado a la Unión Europea a imponer multas de hasta 51.700 millones de dólares por violaciones a la prohibición de servicios, Estados Unidos y China han aprobado una medida regulatoria tras otra, y la Ley Básica de Corea ha sido bloqueada en la Asamblea Nacional y no puede ser aprobada. implementado.
La Unión Europea (UE) ha aprobado finalmente la ‘Ley de IA’, la primera regulación integral de la tecnología de Inteligencia Artificial (IA) del mundo. Como resultado, todos los servicios de inteligencia artificial que contengan elementos de abusos contra los derechos humanos, como el reconocimiento facial en tiempo real y la elaboración de perfiles, serán prohibidos en 27 estados miembros de la UE a partir de noviembre. El año que viene también se implementarán regulaciones sobre inteligencia artificial general (AGI) capaz de pensar a nivel humano.
Los principales países de todo el mundo también están preparando diversas medidas regulatorias en consonancia con la era de la IA que se acerca. El presidente estadounidense, Joe Biden, emitió una orden ejecutiva para el «desarrollo y uso de una IA segura y confiable» en octubre del año pasado, y en agosto del año pasado China impuso sanciones penales a quienes utilicen la IA para derrocar al gobierno o crear contenido que promueva el terrorismo. Se han tomado medidas para que esto sea posible.
Corea ni siquiera ha dado los primeros pasos en la regulación de la IA. El Comité de Ciencia, Tecnología, Información, Radiodifusión y Comunicaciones de la Asamblea Nacional ha estado trabajando en el ‘Crecimiento de la industria de la inteligencia artificial y construcción de una base para la confianza’ (Proyecto de ley básico de IA), que ha estado pendiente durante más de un año. El mandato de la XXI Asamblea Nacional se disolvió el día 29.
● La UE regulará las violaciones de derechos humanos por parte de los servicios de inteligencia artificial en noviembre
El Consejo de Transportes, Comunicaciones y Energía de la UE anunció el día 21 (hora local) que había «finalmente aprobado la legislación sobre IA». Tres años después de que se propusiera el borrador de 2021, la ley de IA fue aprobada por una abrumadora mayoría en el Parlamento de la UE en marzo de este año y se finalizó hoy después de procedimientos como enmiendas al proyecto de ley.
La Ley regula la tecnología de IA dividiéndola en cuatro niveles según el nivel de riesgo. El nivel más alto es «riesgo inaceptable», «alto riesgo», «riesgo limitado» y «bajo riesgo».
Las restricciones a los servicios de IA que violan los derechos humanos comenzarán seis meses después, en noviembre. Un ejemplo representativo es un servicio que toma fotografías del rostro de una persona y descubre información confidencial como la orientación sexual, las creencias políticas o religiosas y el origen étnico del usuario, como el reconocimiento facial de un teléfono inteligente. Se espera que las regulaciones AGI entren en vigencia en mayo del próximo año, y se espera que todas las regulaciones relacionadas entren en vigencia a mediados de 2026.
La violación de la ley puede dar lugar a multas de hasta el 7% de las ventas globales de la empresa. La multa máxima es de 35 millones de euros (alrededor de 51,7 mil millones de wones). Para implementar la legislación sobre IA, la UE planea establecer una ‘Secretaría de IA’ en los estados miembros y un grupo de expertos científicos para apoyar la implementación.
● Corea, el ‘Proyecto de Ley Básico de IA’ no logra superar el umbral de la 21ª Asamblea Nacional
En Estados Unidos, la orden ejecutiva del presidente Biden crea la primera regulación sobre IA. Según la orden, las empresas deben identificar las vulnerabilidades desde la etapa de desarrollo de la IA e informar los resultados de las pruebas de seguridad al gobierno. El informe también cubre las amenazas que la IA podría representar para la seguridad.
El 26 del mes pasado, EE. UU. también lanzó la ‘Junta de seguridad de IA’, que incluía al director ejecutivo de OpenAI, Sam Altman, al director ejecutivo de Microsoft, Satya Nadella, y al director ejecutivo de Nvidia, Jensen Huang. Las grandes empresas tecnológicas que apoyan el desarrollo de la IA también son responsables de los riesgos de la IA. Según Bloomberg News, hasta el año pasado, 15 estados de EE. UU. habían aprobado proyectos de ley de regulación de la IA.
El Reino Unido, que fue sede de la primera Cumbre de IA en noviembre del año pasado, está trabajando para regular la IA alcanzando un acuerdo voluntario entre el gobierno y las empresas. En respuesta, el Financial Times (FT) británico expresó su preocupación de que «las empresas de IA probablemente actúen en su propio interés».
En Corea, incluso el trabajo básico sobre la regulación de la IA fue bloqueado en la Asamblea Nacional. El proyecto de ley básico sobre IA incluye el establecimiento de una agencia gubernamental dedicada, apoyo a la investigación y el desarrollo (I+D) y la respuesta regulatoria necesaria para fomentar una industria de IA. Sólo si se aprueba esta legislación se podrá implementar sin problemas la regulación y el apoyo a las empresas de IA.
En febrero pasado, un plan alternativo que combinaba siete proyectos de ley propuestos por legisladores gobernantes y de oposición fue aprobado por el subcomité de revisión de proyectos de ley de la defensa superior, pero quedó sin debate durante un año y tres meses. Estaba prevista una sesión plenaria de la XXI Asamblea Nacional para el día 21, pero finalmente fue cancelada debido a desacuerdos entre los partidos gobernante y de oposición sobre la agenda.
París = Corresponsal Jo Eun-ah [email protected]
Corresponsal Lee Ki-wook [email protected]
Reportero Nam Hye-jeong [email protected]