Si bien sus intentos de mantenerse al día con los avances de la IA han fracasado en su mayoría, los reguladores de todo el mundo están adoptando enfoques muy diferentes para controlar la tecnología. El resultado es un panorama regulatorio global altamente fragmentado y confuso para una tecnología sin fronteras que promete transformar los mercados laborales, contribuir a la difusión de información errónea o incluso representar un riesgo para la humanidad.
Los marcos regulatorios clave de la IA incluyen:
Ley europea basada en riesgos: La ley de inteligencia artificial de la Unión Europea, que se negocia el miércoles, asigna reglas proporcionadas al nivel de riesgo que plantea una herramienta de inteligencia artificial. La idea es crear una escala móvil de regulaciones destinadas a imponer las restricciones más estrictas a los sistemas de inteligencia artificial más riesgosos. La ley clasificaría las herramientas de IA en cuatro designaciones: inaceptable, alto, limitado y mínimo riesgo.
Los riesgos inaceptables incluyen sistemas de inteligencia artificial que realizan puntuaciones sociales de personas o reconocimiento facial en tiempo real en lugares públicos. Estarían prohibidos. Otras herramientas que conllevan menos riesgos, como el software que genera vídeos manipulados e imágenes «deepfake», deben revelar que las personas están viendo contenido generado por IA. Los infractores podrían recibir una multa del 6% de sus ventas globales. Los sistemas de riesgo mínimo incluyen filtros de spam y videojuegos generados por IA.
Códigos de conducta voluntarios de los Estados Unidos: La administración Biden ha dado a las empresas margen de maniobra para controlar voluntariamente los riesgos de seguridad. En julio, la Casa Blanca anunció que varios proveedores de inteligencia artificial, incluidos Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, habían acordado autorregular sus sistemas.
Los compromisos voluntarios incluyeron pruebas de seguridad de herramientas por parte de terceros, conocidas como equipo rojo, investigación sobre prejuicios y preocupaciones sobre la privacidad, compartir información sobre riesgos con gobiernos y otras organizaciones, y desarrollar herramientas para combatir desafíos sociales como el clima, al tiempo que se incluyen medidas de transparencia para identificar Material generado por IA. Las empresas ya estaban cumpliendo muchos de estos compromisos.
Ley estadounidense basada en la tecnología: Cualquier regulación sustancial de la IA tendrá que provenir del Congreso. El líder de la mayoría en el Senado, Chuck Schumer, demócrata de Nueva York, ha prometido un proyecto de ley integral sobre IA, posiblemente dentro del próximo año.
Pero hasta ahora, los legisladores han presentado proyectos de ley centrados en la producción y despliegue de sistemas de inteligencia artificial. Las propuestas incluyen la creación de una agencia como la Administración de Alimentos y Medicamentos que podría crear regulaciones para los proveedores de IA, aprobar licencias para nuevos sistemas y establecer estándares. Sam Altman, director ejecutivo de OpenAI, apoyó la idea. Google, sin embargo, propuso que el Instituto Nacional de Estándares y Tecnología, fundado hace más de un siglo sin poderes regulatorios, sirviera como centro de supervisión gubernamental.
Otros proyectos de ley se centran en las infracciones de derechos de autor por parte de sistemas de inteligencia artificial que devoran propiedad intelectual para crear sus sistemas. También se han presentado propuestas sobre la seguridad electoral y la limitación del uso de “deep fakes”.
China avanza rápidamente en materia de regulación del discurso: Desde 2021, China ha avanzado rápidamente en la introducción de regulaciones sobre algoritmos de recomendación, contenido sintético como deepfakes e inteligencia artificial generativa. Las normas prohíben, por ejemplo, la discriminación de precios mediante algoritmos de recomendación en las redes sociales. Los productores de IA deben etiquetar el contenido sintético generado por IA. Y los proyectos de reglas para la inteligencia artificial generativa, como el chatbot de OpenAI, requerirían que los datos de entrenamiento y el contenido creado por la tecnología sean «verdaderos y precisos», lo que muchos ven como un intento de censurar lo que dice la gente.
Cooperación global: Muchos expertos han dicho que una regulación eficaz de la IA requerirá una colaboración global. Hasta ahora, esos esfuerzos diplomáticos han producido pocos resultados concretos. Una idea que se ha planteado es la creación de una agencia internacional, similar a la Agencia Internacional de Energía Atómica creada para limitar la propagación de armas nucleares. Un desafío será superar la desconfianza geopolítica, la competencia económica y los impulsos nacionalistas que se han entrelazado tanto con el desarrollo de la inteligencia artificial.