En mayo se votó en los comités técnicos que llevan meses debatiendo este texto para cerrar los acuerdos parlamentarios, de los que saldrá la propuesta para el Parlamento Europeo.
La rápida evolución de las tecnologías de IA generativas, como ChatGPT o Midjourney, ha encontrado a la Unión Europea con esta gran normativa de inteligencia artificial en ciernes. La percepción de los riesgos de la IA ha levantado voces a favor de regular este tipo de tecnologías en todo el mundo, y el Reglamento Europeo de la IA (IA Act) que prepara Europa traerá definiciones para una nueva realidad con robots conversacionales y herramientas generadoras de imágenes usadas a nivel masivo. Pero ¿cómo hacer leyes de cara al futuro cuando todo cambia tan rápido?
Parece que existe una preocupación creciente sobre el riesgo de una inteligencia artificial (IA) fuera del control humano. Atendiendo a numerosos estudios internacionales y expertos, existe una posibilidad real de que surja este tipo de superinteligencia hacia 2040-2050. Si las condiciones iniciales de la Inteligencia Artificial General (AGI) no son «adecuadas», entonces podría convertirse en una Súper Inteligencia Artificial (ASI) que Stephen Hawking, Elon Musk y Bill Gates han advertido que podría llegar a amenazar el futuro de la humanidad.
La percepción de los riesgos de la IA ha levantado voces a favor de regular este tipo de tecnologías en todo el mundo, y el Reglamento Europeo de la IA (IA Act) será una herramienta para ello.
Por otra parte, y aun siendo esto un escenario teórico, es cierto que la evolución de la actual Inteligencia Artificial Estrecha (ANI) y otras tecnologías futuras (biología sintética, la nanotecnología, la computación cuántica, impresión 3D 4D, Internet de las cosas, robótica y otras tecnologías que desconocemos, así como las sinergias entre las mismas) tendrán repercusiones fundamentales en la naturaleza del trabajo, la economía y la sociedad en 2050.
Hay muchos centros de investigación que estudian los valores y las cuestiones éticas de la IA, pero no modelos de gobernanza global potenciales para la transición de la actual ANI a la futura AGI. Las distinciones entre ANI, AGI y ASI generalmente faltan en estos estudios; incluso el Informe más completo y detallado de la Comisión de Seguridad Nacional de EE. UU. sobre Inteligencia Artificial tiene escasas menciones a esta distinción.
Se suele argumentar que la creación demasiado temprana de reglas para la gobernanza de AGI, podrá limitar su desarrollo. Las opiniones de las personas expertas en IA varían sobre cuándo se alcanzará la AGI; sin embargo, algunas personas que trabajan en su desarrollo creen que es posible alcanzarla en diez años.
Teniendo en cuenta que es probable que lleve diez años desarrollar los acuerdos internacionales o globales sobre la transición de la ANI a la AGI, diseñar el sistema de gobernanza y comenzar la implementación, se considera que sería prudente comenzar ya mismo a explorar enfoques de gobernanza y su efectividad potencial. El análisis se plantea en dos temas principales: ¿qué hay que regular respecto a la IA? y ¿cuáles son los enfoques internacionales para su regulación?
Desde la red mundial de prospectiva del Proyecto Millennium se ha iniciado un estudio global sobre el futuro de la Gobernanza en la transición de la actual Inteligencia Artificial Estrecha (IAE) a la futura Inteligencia Artificial General (IAG), en colaboración con otras Instituciones.
Es necesario avanzar en el estudio y definición de modelos de gobernanza global potenciales para la transición de la actual ANI a la futura AGI.
Esto se está realizando a través del análisis del estado del arte de los principales temas, una encuesta Delphi internacional, escenarios alternativos sobre gobernanza, un análisis crítico de los diferentes modelos en cada escenario a través de un nuevo panel Delphi y un informe con las recomendaciones para la gobernanza internacional. Este proceso y sus resultados serán una pieza fundamental para avanzar en la gobernanza global de la Inteligencia Artificial.