Por Lalo Zanoni Periodista especializado en comunicación digital y nuevos negocios.
Otro aniversario y tiempos de balance tech. Cuesta encontrar un tema tecnológico de gran
interés fuera de la inteligencia artificial. Tal vez Elon Musk, como personaje del año. Pero de
él nos ocuparemos en la próxima.
La IA copó todas las agendas de los medios tech pero también medios políticos, de negocios,
deportes y hasta espectáculos por la huelga de guionistas. Fue la protagonista de las tapas
de los diarios y las revistas más importantes del mundo, la Time y la Wired pasando por The
Economist, Fast Company y hasta la New Yorker. Se publicaron y seguirán saliendo miles de
artículos sobre el tema.
Hubo muchas noticias pero voy a intentar hacer un resumen de lo más importante que pasó
en el sector desde que la empresa OpenAI saltó a la fama en noviembre de 2022 al presentar
su ChatGPT, sin lugar a dudas, la aplicación estrella del año.
La anterior versión del modelo de lenguaje natural (LLN), ChatGPT3, era una beta que se
había presentado en mayo de 2020 pero estaba cerrada para el público general. La clave del
éxito de esta nueva versión fue su simpleza de uso. Cualquier persona sin conocimientos
previos ni técnicos puede usarla. De repente, nos dimos cuenta de que la IA ya estaba entre
nosotros, gratis, fácil y para todos. En solo dos meses, la aplicación llegó a 100 millones de
usuarios (el 0 a 100 informático más rápido de la historia, superando a TikTok, que ostentaba
el récord de 9 meses en llegar a esa cifra).
Desde ese momento se desencadenaron inagotables discusiones y debates sobre el impacto
de la IA y de ChatGPT en la sociedad, desde el futuro del trabajo hasta su regulación, la ética
y los aspectos filosóficos de esta nueva inteligencia. Debates que continúan hasta hoy.
En marzo se largó la versión 4 del Chat, que mejora mucho la performance de la 3.5: es
multimodal, es decir que además de texto permite imágenes e instalar plugins desarrollados
por terceros. Es una versión cerrada solo para suscriptores que para usarlo deben pagar 20
dólares mensuales.
La aplicación es furor. Es cool, está de moda entre grandes y chicos. Sale en la tapa de la
revista Time y en el ámbito de la educación, en colegios y universidades, se discute si hay que
permitirla en las aulas o prohibirla.
Los especialistas educativos más pesimistas vaticinan una especie de apocalipsis en las
escuelas y universidades. Una de las preguntas centrales que se formulan es: si los alumnos
pueden obtener de ChatGPT casi cualquier insumo de texto solo tipeando el prompt correcto,
¿cuál será el rol y el lugar de los profesores? ¿Qué y cómo deberán enseñar? ¿Cómo será el
aprendizaje y el pensamiento crítico dentro de un aula en una era dominara por el copy/
paste?
Todavía se discute si conviene usar ChatGPT en los exámenes y en las evaluaciones. Como
en su momento se discutió la calculadora (sí, créanme). Pero la pregunta de siempre ahora
cobra otro peso: ¿sirve seguir estudiando de memoria fechas y nombres para aprender a
pensar en esta época donde el dato es un commodity? El debate está abierto.
* * *
Y en marzo, aunque un poco tarde, reaccionó Google con su propia IA, llamada Bard. Tiene
cosas interesantes y tendrá aún más a futuro cuando logre la integración total de la IA con la
gran cantidad de aplicaciones de Google que usamos a diario, como Gmail, YouTube, Android,
Docs, Photos, Maps, etc. Pero a nivel predictivo y lenguaje, todavía le cuesta un poco y no llega
a opacar a ChatGPT.
* * *
La ya célebre foto fake del papa Francisco con un camperón inflable blanco será una de las
fotos del año. Es el símbolo de la nueva IA generativa. Circuló en enero a la velocidad de la
luz y, más allá de la foto, lo que demostró es que con las nuevas herramientas de generación
de imágenes, cualquiera casi sin conocimientos de diseño ni retoque digital puede crear casi
cualquier imagen en pocos minutos.
El boom de MidJourney, Dall-e, Bing Create, Leonardo y varias más pone a los medios y a las
audiencias en un brete. ¿Deben ser tomadas como creaciones artísticas o por imágenes falsas
que contribuyen a las fake news y a erosionar las democracias? ¿Y qué pasa con los derechos
de autor de esas imágenes?
* * *
Hablemos un poco de derechos de autor. El debate lo abrió la imagen "Théâtre d'Opéra
Spatial" generada en MidJourney por el artista Jason M. Allen. La obra ganó un concurso
de arte en octubre de 2022 y por supuesto hubo quejas. La polémica puso sobre la mesa
no solo el tema de los derechos de autor sino la creación de arte a partir de herramientas
tecnológicas y digitales. Es decir, la IA también pone en cuestión la definición de arte y la
manera que teníamos (hasta ahora) de crear y juzgar una obra como tal. Nadie duda ya de
que si un artista genera una imagen con Photoshop o Illustrator eso puede ser una obra
de arte y tiene derechos de autor sobre la misma. Pero ¿qué ocurre si lo hace a partir de
prompts y algoritmos en base a millones de imágenes que la IA toma como fuente? (práctica
legal llamada "web scraping") ¿Y si esa imagen generada con IA después la interviene con
otro soft de edición? ¿Es o no del autor?
Por el momento, mientras siguen los debates, la Oficina del Copyright de los Estados Unidos le
negó a Allen el registro de su obra (ver foto), aunque el autor dijo que la creó con MidJourney
y después, como hace un fotógrafo o un artista digital, la trabajó bastante con Photoshop. En
resumen, la justicia dijo que no se le puede adjudicar un derecho de autor a una máquina
porque no es un auto humano y solo los humanos son plausibles de tener derechos.
Claramente la ley de derechos de autor inspirada en algo de hace más de 250 años como el
copyright ya no sirve para regular una obra artística creada en el mundo actual, digital y en
constante cambio. No solo no sirve ni protege a la obra, sino peor: entorpece y hasta frena
peligrosamente la creatividad y la innovación en general.
* * *
Entonces tenemos que hablar de regulación. Aunque las reglamentaciones corren siempre
desde atrás, ya existe un consenso general, político y empresario, de que mal usadas, estas
tecnologías de IA pueden ser muy peligrosas. Entonces deben ser controladas mediante leyes.
Aunque algunos quieren más y otros menos, todos parecen estar de acuerdo en regular la IA.
En marzo más de cien expertos (entre ellos Elon Musk y Bill Gates) firmaron una exagerada
y bastante tribunera carta para "frenar la IA" (?) pero obviamente todo quedó en la nada.
Pero el problema es que casi nadie sabe cómo regular la IA en lo concreto y formal. Hay ideas,
aproximaciones, discusiones, hay borradores. Europa es quien más avanzó en este tema. El
viejo continente siempre intenta ponerle un coto a las grandes tecnológicas y por eso cada
tanto le aplica multas millonarias por prácticas abusivas a Facebook, Apple y Google. En
marzo, Italia prohibió el uso de ChatGPT.
¿Qué ocurre si alguien usa mal la IA? ¿Quién paga por eso? ¿Las plataformas que lo permiten
o los usuarios que las usaron para dañar, estafar, mentir, etc.? ¿Qué tipo de responsabilidades
y sanciones le cabrían a las empresas que no cumplen? Ni Europa ni los Estados Unidos
quieren repetir el error cometido hace dos décadas, de mirar inertes el avance de las redes
sociales como Facebook y Twitter. Ya sabemos lo mal que nos fue con el mal uso y abuso de
ambas plataformas sin control.
Microsoft, OpenAI y otras grandes empresas se comprometieron a un uso responsable,
transparente y ético de la IA. Sin embargo, la autorregulación no es suficiente.
Los objetivos principales que sobresalen del borrador de la ley de IA son tres: de seguridad
(proteger a los ciudadanos, evitar las fake news, garantizar la privacidad de la información,
etc.), económicos (regular el negocio para evitar monopolios) y geopolíticos (qué país se
adueña de la innovación mundial a futuro, básicamente si lo hace China o lo hace Estados
Unidos).
No es un tema sencillo, claro. En 2017, poco tiempo antes de morir, el famoso cosmólogo
británico Stephen Hawking, advirtió: "El genio está fuera de la botella". Se refería a la
inteligencia artificial.
* * *
Párrafo aparte para destacar lo de Adobe. Con la explosión de aplicaciones de IA generativas
que permiten a cualquier persona crear imágenes con solo escribir una línea de texto, muchos
pensaron que sería el fin del Photoshop. Pero Adobe tenía un as bajo la manga llamado Firefly,
una potente herramienta de IA generativa. Con una simple instrucción de texto, cualquiera
puede ahora realizar tareas en el soft como cambiar colores, eliminar fondos, personas y
elementos, rellenar imágenes y generar gráficos. Y siempre respetando la estética original.
La beta de Firefly se lanzó en marzo y fue un éxito rotundo. Cada vez funciona mejor. En julio
llegaron a generar la imagen número mil millones. Y esta herramienta no solo está destinada
a Photoshop, sino que también se integra con Illustrator y los otros soft de edición de video,
audio y animación de Adobe.
Una de las ventajas de Firefly es el acceso a millones de imágenes de Adobe Stock, lo que le
ahorra problemas de derechos de autor. No es casual que las acciones de la empresa treparan
un 36% desde marzo, demostrando la resiliencia y capacidad de adaptación en un mundo
tecnológico en constante cambio.
* * *
Las aplicaciones de IA para generar audios y videos son tan simples que cualquiera puede
usarlas. Entonces surge Messi hablando en perfecto inglés con acento rosarino. La pulga
también da clases de meditación, de economía y de semiótica de Saussure. Gustavo Cerati
vuelve a cantar para la cortina del programa de Migue Granados en OLGA.
Preparémonos para cualquier cosa.
* * *
Y mientras tipeo este texto, OpenAI anunció que en pocos días será posible hablar con
ChatGPT. El soft permite escuchar nuestra voz y dar sus respuestas con IA. Es decir, se podrá
mantener una conversación mediante la voz con el chatbot. Por ahora estará disponible solo
en la versión paga.
Y Amazon ya prepara su IA para que funcione con los parlantes de Alexa.
¿Se acuerdan de la película HER?