Article de Proyecto 451 (newsletter).

Millones de personas ya probaron las capacidades de las herramientas de IA generativa y pueden comprender por sí mismas las implicancias y percibir que estamos frente a un fenómeno que marcará el comienzo de una nueva era global. Como siempre pasa con estas cuestiones, al principio puede ser un tanto abrumador, por eso desde este espacio intentamos acercarles artículos e información que abordan el asunto con rigurosidad y sobre todo con muchos datos e información.

Para empezar, hay que diferenciar lo que son las herramientas de IA como ChatGPT y la Inteligencia Artificial General (AGI). Como dice en este artículo Bill Gates, “el término inteligencia artificial se refiere a un modelo creado para resolver un problema específico o brindar un servicio en particular. Lo que impulsa cosas como ChatGPT es la inteligencia artificial. Está aprendiendo a chatear mejor, pero no puede aprender otras tareas. Por el contrario, el término inteligencia general artificial se refiere al software que es capaz de aprender cualquier tarea o tema. AGI aún no existe: hay un debate sólido en la industria de la computación sobre cómo crearlo y si se puede crear”.

Gates argumenta que las herramientas de IA conducirán a una mejora de la productividad al ofrecer a cada persona una experiencia maravillosamente personalizada con el mejor asistente personal que haya tenido en su vida. Aún así, el desarrollo podría tener efectos perniciosos, que Gates se toma en serio. Específicamente: “Las fuerzas del mercado no producirán naturalmente productos y servicios de IA que ayuden a los más pobres. Lo contrario es más probable. Con una financiación fiable y las políticas adecuadas, el gobierno y la filantropía pueden garantizar que las IA se utilicen para reducir la inequidad”.

Pero Yuval Harari, Tristan Harris y Aza Raskin, escribiendo en el New York Times, dicen que la IA de hoy podría “comerse toda la cultura humana” y “arrojar una avalancha de nuevos artefactos culturales”, en detrimento nuestro. Argumentan que el lenguaje es “el sistema operativo de la cultura humana”, por lo que los modelos de lenguaje de IA actuales son suficientes para apoderarse de la “llave maestra de la civilización”. Sugieren que comenzaremos a vivir en las alucinaciones de un ChatGPT muy inteligente. Otros argumentan que los humanos evolucionarán y se adaptarán como siempre lo hemos hecho frente al progreso tecnológico.

Con la emergencia de las IA, aparece un temor que afecta a nuestra industria: demasiada escritura o contenido generado devaluará el mercado de la “buena” escritura. Este “problema” se ha expresado desde los días de Gutenberg, cuando a los intelectuales de la época les preocupaba que el creciente número de nuevos autores publicados significara que nadie volvería a leer los clásicos griegos. Lincoln Michel argumenta efectivamente por qué la IA no reemplazará a los narradores humanos, sobre todo porque no hay un beneficio económico claro al hacerlo.

El profesor e intelectual Tyler Cowen argumentó recientemente que muchos estadounidenses han estado viviendo con relativa seguridad y en un paisaje sin un “cambio tecnológico verdaderamente radical“. Él piensa que esa era está terminando y ahora estamos entrando en una histórica “mudanza” que causará agitación y desorientación. Y también menciona la analogía de Gutenberg, escribiendo: “Por supuesto que la prensa trajo una inmensa cantidad de bien, permitiendo las revoluciones científica e industrial, entre muchos otros beneficios. Pero también creó escritos de Lenin, Hitler y el Libro Rojo de Mao”. En última instancia, dice, nadie en ese momento podía predecir el impacto de la imprenta, y dice que ninguno de nosotros puede predecir con confianza lo que sucederá con la IA. (Para una respuesta a Cowen, lean a Leopold Aschenbrenner, quien en parte está de acuerdo con Cowen y en parte no).

En pocas palabras: si las historias generadas por IA pueden igualar la experiencia que buscamos de las historias escritas por humanos, difícilmente el editor promedio de hoy esté tan interesado en ellas, excepto como una herramienta útil o punto de partida. Las personas que trabajan en las editoriales son humanos que quieren producir trabajos significativos de otros humanos. Generar, editar y publicar trabajos de IA probablemente no parezca atractivo para aquellos que eligen publicar por pasión por la literatura, al menos por ahora. ¿Pero tal vez producir trabajo de IA se convierta en un pie en la puerta? Ya hay autores y editores que analizan el mercado y crean historias que se ajustan a un cierto modelo preconcebido y la IA podría servir bien para ese propósito. Pensemos en los autoeditores prolíficos que saben exactamente el tipo de libro que quieren escribir; pueden delinearlo y luego instruir a la IA para que escriba un borrador basado en un corpus de material similar. ¿O qué tal un editor que quiere continuar lanzando nuevos trabajos de un autor muerto rentable a través de IA generativa? Si bien algunos lectores boicotearían activamente ese tipo de trabajo, a otros no les importaría, siempre y cuando se entregue una buena lectura (Fuente: The Hot Sheet).

Les dejamos otros artículos sobre IA que nos resultaron interesantes y aportan mucho al tema:

Un autor de no ficción intenta generar un buen título de libro usando ChatGPT. Es una excelente descripción general de sus posibles usos.

GPT-3 escribió un artículo científico completo sobre sí mismo. ¿Deberían preocuparse los editores?

– La oportunidad de ser humanos: reflexiones sobre la Inteligencia Artificial en la edición académica.

Para cerrar el tema, les compartimos una petición que se difundió bastante en los últimos días. Se trata de una carta abierta publicada en Future of Life titulada “Hay que pausar los experimentos gigantes con inteligencia artificial“. La misma ya lleva reunida más de 24 mil firmas y básicamente lo que expresa es la preocupación por las implicaciones de la IA para el futuro de la humanidad y advierte que estos sistemas –como el popular GPT de OpenAI– pueden ser peligrosos si se desarrollan sin un control adecuado. Los firmantes de la carta proponen que se pongan en pausa temporalmente los experimentos de IA a gran escala hasta que se implementen medidas de seguridad y control adecuadas.

Més informació: