El arte de la inteligencia artificial
Por CADE METZ 17 de agosto de 2017
MOUNTAIN VIEW, California — A mitad de la década de 1990, Douglas Eck trabajaba como programador de bases de datos en Albuquerque y también probaba suerte como músico. Después de pasar todo el día programando dentro de un laboratorio del Departamento de Energía, se subía al escenario en un pequeño bar local, donde interpretaba lo que él define como “bluegrass con influencia de punk” o “Johnny Rotten mezclado con Johnny Cash”.
Pero lo que realmente quería hacer era unir sus días con sus noches y construir máquinas que pudieran escribir sus propias canciones. “Mi único objetivo en la vida era mezclar inteligencia artificial con música”, dijo Eck.
Se trataba de una ambición ingenua. Se inscribió como estudiante de posgrado en la Universidad de Indiana, en Bloomington, no muy lejos de donde creció, y le contó su idea a Douglas Hofstadter, científico cognitivista que escribió el libro ganador del Premio Pulitzer sobre las mentes y las máquinas Gödel, Escher, Bach: An Eternal Golden Braid. Hofstadter lo rechazó, e insistió sobre el hecho de que incluso las técnicas de inteligencia artificial más recientes eran demasiado primitivas. Sin embargo, al paso de dos décadas, Eck aún tenía esa idea en mente, y la inteligencia artificial terminó por ponerse al día con sus ambiciones.
La primavera pasada, después de algunos años de haber entrado como investigador a Google, Eck presentó la misma idea que le había ofrecido a Hofstadter hace tantos años. El resultado fue el Proyecto Magenta, un equipo de investigadores en Google que le enseñan a las máquinas a crear su propia música y también otras formas de arte, como bosquejos, videos y chistes. Con su imperio de teléfonos inteligentes, aplicaciones y servicios de internet, Google está dentro del negocio de la comunicación, y Eck considera que Magenta es una extensión natural de su trabajo.
“Se trata de crear nuevos canales para que la gente se comunique”, dijo durante una entrevista reciente dentro del pequeño edificio de dos plantas que funciona como la sede principal de investigación de inteligencia artificial de Google.
El proyecto es parte de los crecientes esfuerzos para generar arte a través de un conjunto de técnicas de inteligencia artificial que han madurado recientemente. Se llaman redes neurales profundas, estos sistemas matemáticos complejos permiten que las máquinas aprendan comportamientos específicos al analizar grandes cantidades de datos. Al observar patrones comunes en millones de fotografías de bicicletas, por ejemplo, una red neural puede aprender a reconocer una bicicleta. Así es como Facebook reconoce rostros en fotografías en línea, cómo los teléfonos con sistema Android reconocen órdenes en voz alta y cómo Microsoft Skype traduce de una lengua a otra. Sin embargo, estos sistemas complejos también pueden crear arte. Al analizar un conjunto de canciones, por ejemplo, pueden aprender a crear sonidos similares.
Eck dice que estos sistemas por lo menos ya se están acercando al punto —aún muy, muy lejano— en que una máquina pueda crear al instante una nueva canción, o quizá billones, de los Beatles, cada una con un sonido muy similar al de la música que los Beatles grabaron, pero también un poco distinto. No obstante, esa finalidad —que puede ser tanto una manera de crear arte como de minarlo— no es su objetivo. Hay muchos otros caminos que explorar más allá de la simple imitación. La idea final no es remplazar artistas, sino darles herramientas que les permitan crear de maneras totalmente nuevas.
En la década de 1990, en aquel bar en Nuevo México, Eck combinaba Johnny Rotten con Johnny Cash. Ahora, está construyendo software que hace lo mismo. Al usar redes neurales, él y su equipo están creando sonidos híbridos con instrumentos muy distintos —por ejemplo, un fagot y un clavicordio— y producen instrumentos capaces de producir sonidos que nunca nadie ha escuchado.
Durante siglos, los directores de orquesta han puesto capas de instrumentos una sobre otra. Pero esto es distinto. En lugar de sobreponer sonidos, Eck y su equipo los combinan para formar algo que no existía antes, y crean nuevas maneras en que un artista puede trabajar. “Estamos haciendo la siguiente cámara de cine”, dijo Eck. “Estamos haciendo la próxima guitarra eléctrica”.
En 2015, otro equipo de investigadores dentro de Google creó DeepDream, una herramienta que utiliza redes neurales para generar imágenes de paisajes impactantes y alucinógenas a partir de fotografías ya existentes, lo que ha dado luz a un nuevo arte dentro y fuera de Google. Si la herramienta analiza una fotografía de un perro y encuentra un pedacito de pelaje que vagamente parezca un ojo, lo aumentará un poco y repetirá el proceso. El resultado es un perro cubierto con un remolino de ojos.
Al mismo tiempo, varios artistas —como el famoso artista multimedia y de performance Trevor Paglen o el menos conocido Adam Ferris— están explorando redes neurales de otras maneras. En enero, Paglen se presentó en una antigua bodega en San Francisco; exploró la ética de la visión computarizada a través de redes neurales que pueden monitorear cómo lucimos y nos movemos. Mientras los miembros del Kronos Quartet, de estilo vanguardista, tocaban sobre el escenario, las redes neurales analizaban sus expresiones en tiempo real y adivinaban sus emociones.
Las herramientas son nuevas, pero no lo es la actitud. Allison Parrish, una profesora de la Universidad de Nueva York que construye programas que generan poesía, señala que los artistas han usado computadoras para generar arte desde la década de 1950. “De la misma manera en que Jackson Pollock inventó una nueva manera de pintar al abrir una lata de pintura y salpicarla sobre el lienzo a sus pies”, dijo, “estas técnicas computacionales ofrecen a los artistas un rango de posibilidades más grande”. https://www.nytimes.com/es/2017/08/17/inteligencia-artificial-arte-musica-google-magenta-nsynth/?action=click&mccr=inicio&mcid=nyt-es&ref=nyt-es&subid=masinformacion&pgtype=Homepage
No hay comentarios.:
Publicar un comentario