Article de Proyecto 451 (newsletter).

La Unión Europea dio un gran paso esta semana hacia el establecimiento de normas, las primeras del mundo, sobre cómo pueden utilizar las empresas la inteligencia artificial (IA). Se trata de la norma “Ley de Inteligencia Artificial” que lleva ya 2 años de largo e intenso debate. La ley pretende “promover la adopción de una inteligencia artificial fiable y centrada en el ser humano y garantizar un elevado nivel de protección de la salud, la seguridad, los derechos fundamentales, la democracia y el Estado de derecho, así como del medio ambiente, frente a sus efectos nocivos”. La votación de la Ley de IA fue aprobada con una abrumadora mayoría y ha sido anunciada como uno de los desarrollos más importantes del mundo en la regulación de la IA. A continuación, los miembros del Parlamento Europeo tendrán que discutir los detalles con el Consejo de la Unión Europea y el brazo ejecutivo de la UE, la Comisión Europea, antes de que el proyecto de normas se convierta en legislación. Con una estructura similar a la Ley de Servicios Digitales de la UE, un marco legal para las plataformas en línea, la Ley de IA adopta un “enfoque basado en el riesgo” al introducir restricciones basadas en cuán peligrosas predicen los legisladores que podría ser una aplicación de IA.

Algunas aplicaciones de IA se prohibirán por completo si los legisladores consideran que el riesgo es “inaceptable”, mientras que las tecnologías consideradas de “alto riesgo” tendrán nuevas limitaciones en su uso y requisitos en torno a la transparencia (Technology Review, 5 minutos). Estas son algunas de las principales implicaciones:

  • Prohibición de puntuación social. Se prohibiría la calificación social por parte de las agencias públicas, o la práctica de utilizar datos sobre el comportamiento social de las personas para hacer generalizaciones y perfiles. La práctica de utilizar datos de comportamiento social para evaluar a las personas es común en la concesión de hipotecas y la fijación de tarifas de seguros, así como en la contratación y la publicidad.
  • Nuevas restricciones para gen AI. Este borrador es el primero en proponer formas de regular la IA generativa y prohibir el uso de cualquier material con derechos de autor en el conjunto de entrenamiento de grandes modelos de lenguaje como GPT-4 de OpenAI. OpenAI ya ha estado bajo el escrutinio de los legisladores europeos por preocupaciones sobre la privacidad de los datos y los derechos de autor. El proyecto de ley también requiere que el contenido generado por IA sea etiquetado como tal.
  • Nuevas restricciones a los algoritmos de recomendación en redes sociales. El nuevo borrador asigna los sistemas de recomendación a una categoría de “alto riesgo”, que es una escalada de los otros proyectos de ley propuestos. Esto significa que, si se aprueba, los sistemas de recomendación en las plataformas de redes sociales estarán sujetos a un escrutinio mucho mayor sobre cómo funcionan, y las empresas de tecnología podrían ser más responsables por el impacto del contenido generado por los usuarios.

Las empresas estadounidenses, incluidas Microsoft, OpenAI y Google, están presionando a los gobiernos de todo el mundo diciendo que están a favor de nuevas regulaciones de IA. Desde principios de año, han realizado un bombardeo pidiendo una mayor transparencia en torno a la IA y el uso responsable de dicha tecnología. Los mejores tecnólogos y académicos, incluido Elon Musk, firmaron en marzo una carta abierta advirtiendo sobre “riesgos profundos para la sociedad y la humanidad” y pidiendo una pausa de seis meses en el desarrollo de modelos de lenguaje de IA. Pero a pesar de las propuestas de las empresas que apoyan la acción regulatoria, se han opuesto a aspectos del enfoque de la UE. Google, Microsoft y OpenAI no se pronunciaron aún sobre la votación de esta semana (Washington Post, 5 minutos).

El mundo cambió el 30 de noviembre de 2022. Esa fue la fecha en que OpenAI lanzó ChatGPT, el día en que la IA emergió de los laboratorios de investigación a un mundo desprevenido. En dos meses, ChatGPT tenía más de cien millones de usuarios, una adopción más rápida que cualquier tecnología en la historia. Sin dudas existe un consenso general de que las regulaciones deben abordar cuestiones como la privacidad y la propiedad de los datos, el sesgo y la equidad, la transparencia, la responsabilidad y los estándares. Las propias pautas de seguridad y responsabilidad de IA de OpenAI citan esos mismos objetivos, pero además mencionan lo que muchas personas consideran la pregunta central y más general: ¿cómo alineamos las decisiones basadas en IA con los valores humanos? Escriben: “Los sistemas de IA se están convirtiendo en parte de la vida cotidiana. La clave es garantizar que estas máquinas estén alineadas con las intenciones y los valores humanos” ¿Pero los valores humanos de quién?

Los reguladores deben comenzar por formalizar y exigir una divulgación detallada sobre los métodos de medición y control que ya utilizan quienes desarrollan y operan sistemas avanzados de IA. En ausencia de detalles operativos de aquellos que realmente crean y administran sistemas avanzados de inteligencia artificial, corremos el riesgo de que los reguladores y los grupos de defensa “alucinen” como lo hacen los modelos de lenguaje grande, y llenen los vacíos en su conocimiento con ideas aparentemente plausibles pero poco prácticas. Las empresas que crean IA avanzada deben trabajar juntas para formular un conjunto integral de métricas operativas que se puedan informar de manera regular y consistente a los reguladores y al público, así como un proceso para actualizar esas métricas a medida que surgen nuevas mejores prácticas.

Lo que necesitamos es un proceso continuo mediante el cual los creadores de modelos de IA divulguen completa, regular y consistentemente las métricas que ellos mismos usan para administrar y mejorar sus servicios y para prohibir el uso indebido. Luego, a medida que se desarrollan las mejores prácticas, necesitamos que los reguladores las formalicen y las exijan, al igual que las normas contables han formalizado las herramientas que las empresas ya usaban para administrar, controlar y mejorar sus finanzas. No siempre es cómodo divulgar sus números, pero las divulgaciones obligatorias han demostrado ser una herramienta poderosa para asegurarse de que las empresas realmente sigan las mejores prácticas.

Dada la incertidumbre radical sobre el progreso y el impacto de la IA, nos conviene más exigir transparencia y crear instituciones para hacer cumplir la rendición de cuentas que tratar de evitar todos los daños particulares imaginados. No deberíamos esperar para regular estos sistemas hasta que se hayan vuelto locos. Pero los reguladores tampoco deberían reaccionar de forma exagerada ante el alarmismo de la IA en la prensa. Las regulaciones deben centrarse primero en la divulgación del monitoreo actual y las mejores prácticas. De esa manera, las empresas, los reguladores y los guardianes del interés público pueden aprender juntos cómo funcionan estos sistemas, cuál es la mejor manera de administrarlos y cuáles podrían ser realmente los riesgos sistémicos (O´Reilly, 5 minutos).

Para cerrar el tema, y centrándonos puramente en las implicancias de la IA en la industria editorial, les dejamos por un lado el posicionamiento de la Federación de Editores Europeos (FEP) sobre la IA. El documento destaca las oportunidades que puede brindar a la cadena de valor del libro para optimizar los procesos de producción y distribución y brindar nuevos conocimientos para beneficiar a todos. Al mismo tiempo, enfatiza que la IA debe cumplir con las reglas de derechos de autor y propiedad intelectual.

Por otro lado, Japón ya llegó a una conclusión sobre los derechos de autor de IA: no se aplican a la capacitación en IA. La política otorga a IA acceso sin restricciones a todos los datos, independientemente de su propósito (sin fines de lucro o comercial), la naturaleza del acto (que no sea la reproducción) o la fuente (incluidos los sitios ilegales). Keiko Nagaoka, la ministra japonesa de Educación, Cultura, Deportes, Ciencia y Tecnología, afirmó que las leyes de Japón no ofrecen protección a los materiales protegidos por derechos de autor incorporados en conjuntos de datos de IA. El movimiento del gobierno japonés hacia los derechos de autor y la regulación de la IA puede ser arriesgado, pero al mismo tiempo puede ser ético para los desarrolladores de IA. Si se otorga al gobierno la autoridad para regular el desarrollo de la IA con el pretexto de “proteger” a los propietarios de los derechos de autor, detendría efectivamente los rápidos avances en los modelos de IA (Analytics India Mag, 3 minutos).

Més informació: