Artware 3
ICPNA - Lima, Perú - April 2005
La tercera edición de Artware, continuando la reflexión sobre la tecnología digital y el arte, se ha enfocado en las relaciones entre lo natural y lo virtual, con el objetivo de investigar las estrucutras estéticas de aquellos procesos creativos que se apoyan tanto en la simulación de sistemas biológicos cuanto en la interacción entre sistemas artificiales, culturales y lingúisticos. Así, los artistas invitados en la exposición internacional han presentado propuestas que espaciaron desde la estética de las inteligencias artificiales hasta la vida artificial y otras técnicas generativas, desde los procesos algorítmicos creativos hasta las aplicaciones de la robótica a la pintura.
La presentación de diferentes maneras de aproximarse a la estética de la tecnología digital es una forma interesante de sacar a la luz aquellos estereotipos obsoletos que en muchos casos impiden que el digital desarrolle todas sus potencialidades lingúisticas. En paralelo Artware3 ha presentado una exposición dedicadas a las nuevas propuestas que empiezan a surgir en lugares diferentes de Estados Unidos, Europa o Japón, que en muchos casos constituyen una mirada alternativa y quizás ofrecen parámetros y criterios que las realidades más desarrolladas tecnológicamente no siempre logran explotar. Esta sección de Artware3 ha contado con la colaboración y la participación de los artistas ganadores del 1 Salón Nacional de Arte Digital organizado en Bogotá en 2004 por la Academia de Arte Guerrero y el Centro Cultural Avendaño.
Marco Teórico
Exposición internacional
- Harold Cohen Estados Unidos
- Herbert Franke Alemania
- Leonel Moura Portugal
- Umberto Roncoroni Italia
- Casey Reas Estados Unidos
- Makoto Sei Watanabe Japan
- Huge Harry / Remko Scha Holanda
Nuevas Propuestas
- Edmundo Caraipoma Perú
- Ronald Montesinos Perú
- Israel Hinostroza Perú
- Gabriel Castillo Perú
- Christian Galarreta Perú
- Carlos Alberto Lopez Perú
- Iván Lozano Perú
- Rolando Sanchez Perú
- Carla Tapia Perú
- Proyecto Laboratorio (JD. Vergara/F. Herrera) Perú
- Colectivo "Katok" Colombia
- Santiago Ardila Colombia
- Andrés Fabián Silva Colombia
- Orlando Tovar Colombia
- Luisa Fernanda Roa Colombia
- Leonardo Pilonieta Colombia
- Grupo Artístico "Las Mayoris*tars" Colombia
- Tulio Sampayo Colombia
- Rahul Gaijar India
Harold Cohen. AARON
Herbert Franke
Leonel Moura
Casey Reas
Huge Harry - Remko Scha
Umberto Ronconori
Umberto Ronconori
Umberto Ronconori
Raul Gaijar
Artware3: Natural y artificial
Umberto RoncoroniLamentablemente, pero quizás con razón, la amplificación mediática de algunas instancias de la tecnología digital, como los robots o la realidad virtual, hace pensar que la cibernética y la informática están generando entidades artificiales que, de alguna manera, comienzan a competir con los seres humanos y con la naturaleza. Las obras de Baudrillard, fuertemente críticas del hiperrealismo virtual y de la cultura de los simulacros, son emblemáticas de esta percepción de la tecnología. Ciertamente la computadora provoca cambios sociales y culturales que dada su complejidad no son comparables con aquellos producidos por tecnologías como la fotografía y la televisión. En efecto la informática, además de su creciente poder, no se circunscribe a algún campo específico, y precisamente su ubicuidad hace que sea cada vez más difícil diferenciar lo natural de lo artificial en todas las dinámicas sociales. Ahora, en los ámbitos productivos, administrativos o en la investigación científica, lo artificial aporta indudables ventajas que, por ser fácilmente cuantificables, no se suelen discutir y cuestionar en sus aspectos problemáticos. Pero no es sólo por esto que las contradicciones de la tecnología digital pasan desapercibidas: si existe la evidente ilusión de dominar la tecnología y la tendencia a desconocer su lado negativo, es la misma naturaleza abstracta del digital que oculta sus problemas. Por estas razones, pues, lo que el público entiende por "ser digital" es una pantalla, un simple reflejo de procesos más sutiles y peligrosos que quedan así sin interrogantes.
Bajo estas premisas, es natural preguntarse cómo la estética se relaciona con la difusión de lo artificial y de la virtualidad, y cuál sería el sentido de contaminar con lo artificial procesos tan espirituales y emocionales como el arte. ¿Qué importancia tiene que una computadora pueda hacer arte, cuando de lo que se trata es precisamente conservar lo que nos queda de humano y natural ? Y por qué algunos artistas, como Herbert Franke o Harold Cohen, han empezado a investigar, desde hace treinta años, la posibilidad de crear un arte artificial, simulado, automatizado, eso es, no humano? La búsqueda de lo artificial tiene un sentido en todos aquellas tareas repetitivas o peligrosas en las cuales se podría aliviar el trabajo del hombre. Pero, en el campo del arte, de la comunicación, en suma de los procesos intelectuales, el objetivo de esta búsqueda no está convincentemente sustentado. Y a parte los peligros sociales y políticos que, como argumenta Virilio, la tecnoarte contribuye a enmascarar, hay que señalar también que la estética de lo artificial parece contradictoria con los logros de la posmodernidad: por ejemplo, se podría hablar de su rechazo de los procesos determinados y metódicos y de la crítica epistemológica a la supremacía de la ciencia. La automatización y lo artificial, productos de la cultura científica, entran en contradicción con la cultura del fragmento, de lo indeterminado, de la de construcción que caracterizan la sensibilidad estética posmoderna. Lo artificial implica un uso fuerte y determinista de la ciencia; ahora bien, dicha instancia se transfiere a la estética de la tecnoarte, que se reconvierte en un sistema cerrado y monolítico, en efecto en lo que el posmoderno cuestiona como relato o instancia metafísica. Así que parece cuestionable tanto el investigar si un software o un proceso algorítmicos pueden hacer obras de arte así como el discutir si esto es arte a todos los efectos. Y podría argumentarse que las propuestas que se presentan en Artware3 consistan en unos ejercicios de técnica, o en algún tipo de juego lógico matemático, o simplemente en productos de la hiper especialización o de la adicción a las computadoras. Pues hay que diferenciar. El objetivo no es, como se podría pensar, que la computadora o algún tipo de inteligencia artificial tomen el lugar del artista. Por el contrario, los artistas que trabajan estos temas, de los cuales Artware3 presenta una selección significativa, investigan los aspectos humanos y sus valores agregados, aquellos que el trabajar con las máquinas permite ver por contraste y resaltar en modo peculiar y que el arte tradicional y los medios analógicos ya no pueden ver o que dan por descontados.
Ahora, para profundizar el sentido de estas investigaciones artísticas, se debería antes que todo, evitar de equiparar el digital con otros medios tecnológicos analógicos, como la fotografía o el video electrónico. El problema de encontrar los procesos específicos del digital tiene varios aspectos, pero, entre ellos, lo que parece especialmente importante se refiere al significado de "artificial". Para empezar, se debería entonces diferenciar entre artificial, mecánico y automático, pues el concepto de artificial no se aclara por completo bajo las ópticas de la mecanización y de la automatización. Por ejemplo, la fotografía no se puede considerar un proceso artificial, precisamente porque es un proceso físico, óptico y mecánico, que produce una imagen automáticamente. Por lo contrario, lo artificial es un proceso generativo que implica la mediación de técnicas y conocimientos (los artificios del artista). Bajo esta óptica, la pintura se puede considerar un proceso artificial en cuanto se genera por medio de la perspectiva, de la teoría del color, de la anatomía, de la geometría, etcétera. Aquí lo que resulta interesante son las diferentes posibilidades de conocimiento que brinda lo artificial (la pintura) en relación a lo automático (la fotografía). En efecto, el aspecto mimético de la pintura -la imitación artificial de la naturaleza- es un proceso estético y científico que logra manifestarse y transmitir su experiencia cognitiva en el espacio estático del cuadro. Esto es, el proceso generativo de la pintura y sus artificios se leen en el cuadro, aún cuando esta lectura necesite un ojo culto y experto. De toda forma, este es el valor agregado que el espectador recibe en la obra de arte, valor que se transmite y significa más allá de las apariencias formales o de la materia. Este proceso no es posible con la imagen fotográfica, que congela la realidad en un puro reflejo del instante y constituye entonces una fractura tanto espacial como temporal. Por esto la fotografía no tiene enlaces que permitan su interpretación en base al contexto desde el cual ha sido extrapolada y necesita la leyenda u otro aparato que restaure su aura artística y le devuelva, paradójicamente, su carácter artificial. Por el contrario, son los artificios técnico científicos del artista que permiten que la pintura no sufra de esta limitación espacio temporal y que permanezca dentro de un preciso contexto cultural. En efecto, la lectura del cuadro y su interpretación profunda se hace solo en base al conocimiento de estos artificios. Así, la pintura, que se genera por estratificaciones de procesos y de dinámicas temporales, es mucho más coherente con la dimensión indeterminada y artificial de la verdad posmoderna que la presunta objetividad y el realismo ingenuo de la fotografía. Ahora bien, la imagen sintética se hace, como la fotografía, mediante procesos automáticos, pero estos se basan en la simulación. Dichas simulaciones se construyen sobre los mismos saberes técnicos, científicos y lingüísticos de la pintura, pero también -y esto es nuevo- sobre los modelos lógico-matemáticos de la naturaleza (por ejemplo la inteligencia y la vida artificial, la teoría del caos, los sistemas dinámicos, etc.). Bajo este punto de vista, la imagen digital de síntesis no tiene la misma esencia de la imagen pictórica o fotográfica: no es ni una mimesis ni un reflejo de alguna realidad externa sino una simulación de ambos aspectos, construye su propia realidad y tiene por esto una dimensión de existencia autónoma. Pero la cosa interesante de la simulación es que los artificios -los conocimientos de los procesos subyacentes- son mucho más abiertos que en la pintura, porque no necesitan de la mediación del experto, del historiador o del crítico. En efecto la imagen digital lleva consigo el texto de sus artificios (la simulación en los algoritmos del software) que se puede comunicar al espectador mediante herramientas interactivas como los hipertextos y la multimedia. Entonces el hecho que la simulación sea automática no implica necesariamente que se pierda el artificio del artista, como sucede en el caso de la fotografía, donde el proceso mecánico, óptico y químico le quita al artista un notable porcentaje de intervención sobre la imagen (lo que Benjamin señalaba como pérdida del aura). Sin embargo, la simulación puede caer en los limites de la fotografía cuando su automatismo no es interactivo y su proceso se vuelve opaco, lo que sucede por el filtro que forman las interfaces y cuando el conocimiento de los artificios de la simulación no es compartido con el usuario. Aquí encontramos el problema de lo artificial: los simulacros no son el producto del hiperrealismo de las simulaciones digitales, sino de la separación epistemológica entre la imagen y la simulación generada por los procesos automáticos del software y de las interfaces. Estas dinámicas son poco claras por la naturaleza ambigua de las herramientas digitales, precisamente por los mecanismos culturales y de poder escondidos en sus estructuras. Las interfaces interfieren en la percepción clara de la simulación digital en cuanto disimulan sus diferencias con los medios analógicos. Esta opacidad tiene importantes consecuencias: a) Hace que se limite el alcance de la tecnología digital a la simple creación de herramientas en todos sus aspectos similares a sus contrapartes analógicas y sin una real innovación. En otras palabras, hacen que se utilice lo digital como lo hacían los pintores con la fotografía (es decir, una pintura automatizada) cuando lo que se debería buscar son sus extensiones fuera de los territorios que ya conocemos. b) Hacen que los procesos artificiales pierdan su valor epistemológico porque las interfaces y el software no comunican el conocimiento y convierten el valor agregado de la simulación en simulacro. c) Con la venia de los filósofos del ciberespacio, lo digital se convierte en la antitesis del posmoderno, en cuanto es el vector por el cual regresan los relatos modernistas y otras instancias estéticas aún más obsoletas.
Entonces tenemos varios problemas -no tan banales- que nos aproximan al sentido de los proyectos artísticos de Artware3, aquellos que en una primera instancia parecían apuntar fríamente a la pura mecanización. En estas propuestas, con el pretexto de programar el arte, en realidad se exploran los artificios específicos de los procesos algorítmicos y de la simulación y, desde luego, se intenta restablecer lo que es propio y únicamente humano, en un entorno dominado por la tecnología. Y este contenido humano abarca aquellas dimensiones psicológicas, estéticas y lingüísticas que se hacen problemáticas en la práctica y en la teoría del arte tanto por efecto de la tecnología como por su difícil relación con el horizonte de la posmodernidad. En efecto, no se trata simplemente de deconstruir el aura (actualizando en el contexto digital la reflexión de Benjamin sobre la reproducibilidad técnica), en el sentido que con la simulación, la inteligencia y la vida artificial, el cuestionamiento del aura pertenece no sólo al momento de la creación y de la reproducción, sino también al proceso interpretativo del espectador, aquel que cierta critica literaria posmoderna instaura como autoría propiamente dicha. De esta última forma, los artistas digitales contribuyen a cuestionar aquellas mitologías modernistas que todavía pertenecen al quehacer del arte y que impiden expandir las dimensiones de la creatividad. Se descubre así, véase los trabajos de Cohen, de Huge Harry y del Instituto de la Imagen Artificial, que el concepto de creación se difumina y supera los restos de aquellos relatos del individualismo del genio romántico para encontrar el valor de la abertura y de la interacción creativa entre artista y procesos artificiales. Un territorio estético todavía desconocido ya sea con respecto a los cambios que implica para el significado mismo de creación así como por las posibilidades que se abren. Se trata además, como bien argumenta Miguel Moura en su contribución teórica a esta exposición, de procesos emergentes, sistémicos, que implican necesariamente la interacción con un contexto externo. La obra de arte pierde sentido como acto creativo individual y arbitrario y como objeto monolítico y se convierte en un proceso dinámico no lineal, es decir, indeterminado en sus instancias concretas. Se descubre, en segundo lugar, que el arte se transforma en un proceso que no pretende crear, sino descubrir y compartir lo existente y que su valor no reside en alguna ilusoria originalidad o mística de lo nuevo. Más bien, su intención, que se puede con razón llamar hermenéutica, hace de la obra de arte un sistema abierto de desarrollo de creatividades individuales y de conocimiento, porque incluye la interacción con los procesos sociales y naturales. Detrás de esta nueva posibilidad, que contribuye a las nuevas interacciones entre arte, ciencia y tecnología hay aquellas herramientas que se desarrollan precisamente por investigar las dinámicas artificiales de la creación artística.
Un primer resultado que aporta el arte digital puede ser entonces esta nueva unión entre los aspectos tecnológicos y metódicos del saber con la parte imaginativa, humanística, amiga de lo sensible y de la naturaleza del arte, para que puedan volver a dialogar y a fortalecerse mutuamente, luego de siglos de división epistemológica que ha dañado tanto los primeros como los segundos. Y desde la perspectiva específica del arte, esto significa la posibilidad de recuperar aquel valor de conocimiento que la estética romántica y modernista había eliminado a favor del arbitrio y del individualismo gratuito del artista, dinámica que constituye la razón de la crisis del arte contemporáneo y su confinamiento en procesos auto referenciales, es decir, sin consecuencias y peso real en las dinámicas sociales y culturales. Finalmente, dichas cuestiones implican el examinar el lenguaje específico del digital (en el mismo sentido con el cual se dice que existe el lenguaje de la fotografía o de la televisión) o como diría McLuhan, cuál es su mensaje como medio. Lo que parece presentarse, sin por esto excluir otras instancias o posibilidades, en una interpretación del arte como sistema abierto: aquí la interactividad constituye una opción que asigna a lo artificial, en el contexto de una estética de la interpretación, un papel importante en la democratización de la creatividad artística, sin que esta masificación genere las dinámicas negativas de la industria cultural y de los simulacros que contaminan la fotografía y la televisión. Dicha posibilidad se presenta, como hemos visto, por las interacciones entre ciencia y arte y por la simulación, que permiten recuperar el conocimiento y la verdad. A este propósito es interesante notar que estos intentos son últimamente ubicados en contextos extra artísticos muy críticos del sistema del arte tradicional. Esto se lee en las trayectorias profesionales de los artistas de Artware3, artistas que de diferentes maneras han sido capaces de abandonar lo establecido para entrar en dimensiones llenas de contradicciones y obstáculos, pero esenciales para comprender una realidad cada vez más compleja y difuminada. En estos sentidos, la búsqueda de la automatización y de lo artificial es en realidad una empresa estética y científica que supera el juego tecnológico y que toca la raíz de la creación y cómo esta se comunica y se comparte. Todos estos aspectos toman una importancia cultural y social general porque, fuera del campo del arte, son estructuras propias de cualquier proceso que usa las herramientas digitales.
Artware3: biografías artistas
Harold Cohen was born and grew up in London, where he studied painting at the Slade School of Art from 1948 - 1952. He was the first Artist in Residence at Nottingham University from 1952 - 1956, then won a Harkness Fellowship, which took him to New York for two years with his first wife and their three children. Returning to London in 1961, he taught at the Slade School and continued to build a solid international reputation as a painter, representing the UK in the Venice Bienalle in 1966 and in exhibitions of British Art all over the world. He also did a number of public art commissions, notably involving tapestries. His work from this period is represented in the Tate Gallery, the Victoria and Albert Museum and in museum collections internationally. In 1968 he returned to the US to take up a one-year visiting professorship at the University of California, San Diego. There he met his second wife and his first computer and never returned to the UK. Increasingly involved in computing, he subsequently spent two years as a visiting scholar at the Artificial Intelligence Lab at Stanford University. There he began work on the AARON program in an attempt to model how human artists make images. AARON is by now the oldest continuously-developed program in the history of computing and has evolved over the years into a near-autonomous artist and a world-class colorist. Harold Cohen has exhibited his work with AARON in art museums and science centers in the US, Canada and Europe and represented the US in the World Fair in Japan in 1985. He has written extensively and lectured to a wide range of audiences about his work on the AARON program. Retired from teaching and from the directorship of the Center for Research in Computing and the Arts, which he founded at UCSD, Harold Cohen continues to live and work in San Diego with his partner, the celebrated Japanese poet and writer Ito Hiromi, and their nine-year-old daughter, Zana.
Harold Cohen ha nacido y crecido en Londres, donde ha estudiado pintura en la Slade School of Art desde 1948 hasta 1952. Ha sido el primer Artist in Residence en la Universidad de Nottingham desde 1952 hasta 1956, luego ha ganado una beca Harkness que lo llevó a Nueva York por dos años, con su esposa y sus tres hijos. Regresa a Londres en 1961, enseña en la Slade School y sigue formándose una sólida reputación internacional como pintor, representando al Reino Unido en la Bienal de Venecia de 1966 y en exhibiciones de arte inglés en todo el mundo. Cohen ha obtenido muchos encargos públicos principalmente para la realización de tejidos decorativos. Su trabajo de este periodo se conserva en la Tate Gallery, en el Victoria and Albert Museum y en numerosas colecciones de arte internacionales. En 1968 regresa a Estados Unidos, para seguir un programa de un año como profesor invitado en la Universidad de San Diego en California. Ahí encuentra su segunda esposa y su primera computadora y nunca regresa en el Reino Unido. Progresivamente involucrado en la computación, pasa los dos siguientes años en la Universidad de Stanford, en el laboratorio de Inteligencia Artificial. En este lugar empieza a trabajar en el programa AARÓN, como parte de una investigación acerca de cómo los artistas humanos hacen las imágenes. AARÓN es ahora el software que ha tenido el mas largo y continuo desarrollo en la historia de la computación y ha evolucionado en un artista casi autónomo y en un sistema experto en el color. Cohen ha mostrado su trabajo con AARÓN en museos de arte y en centros de investigación en Estados Unidos, Canada y Europa representando a Estados Unidos en La Feria Mundial de Japón en 1985. Ha además escrito y dictado conferencias a un variado público acerca del software AARÓN. Actualmente se ha retirado de la docencia y de su cargo de director del Center for Reserach in Computing and the Arts, que ha fundado en la Universidad de San Diego donde sigue viviendo con su esposa, la conocida poetisa y escritora japonesa Ito Hiromi y su hija de nueve años, Zana.
Herbert W. FrankeBorn 1927 in Vienna, Austria. 1945 - 1951 studies on the university of Vienna: physics, mathematics, philosophy. Change to Germany - five years activities in the industry, later free lanced. 1956 electronic graphics, begin of occupation with rational aesthetics and experimental photography, 1969 computer art. Participation on more then 200 exhibitions. Lecturer for cybernetic aesthetics and computer art on the University in Munich (1973 - 1998), and on the Academy for Fine Arts in Munich (1984 - 1998). Co-Founder of the Festival 'Ars Electronica', Linz, Austria. More then 40 books, especially about art-science-connections, also science fiction novels. For more information see the website: http://www.zi.biologie.uni-muenchen.de/~franke Herbert Franke ha nacido en 1927 en Viena, Austria. Desde 1945 a 1951 estudia en la Universidad de Viena física, matemática y filosofía. Luego se transfiere en Alemania, donde por cinco años trabaja en la industria y despues como profesional endependiente. Comineza a dedicrase a las imágenes electrónocas en 1956, y paralelamente empieza una actividad experimental en la fotografía y un trabajo teórico sobre la estética racionalista. En 1969 comienza a dedicarse a la gráfica por computadora. Desde luego participa en más de 200 exposiciones, dicta clases maestras sobre la estética cibernética en la Universidad de Mónaco (1973-1998) y en la Academia de de Bellas Artes de esta ciudad (1984-1998). Es co fundador del Festival "Ars Electrónica" de Linz en Austria y ha publicado más de cuarenta textos acerca de las relaciones entre arte y ciencia, además de algunas novelas de ciencia ficción. Para mayores informaciones ver la página web: http://www.zi.biologie.uni-muenchen.de/~franke
Huge HarryHuge Harry is one of the personalities of the speech synthesis machine DECtalk, designed by Dennis Klatt at the MIT Speech Laboratory in Cambridge, Mass., and produced by the Digital Equipment Corporation. He presented lectures on computer art and computer music in several European countries, the United States and Australia. His articles on these topics were published in international journals. In cooperation with performance-artist Arthur Elsenaar, he carries out research about human facial expression and human-computer interfaces. Huge Harry has also performed as a singer, most recently in the opera "Pearl Harbour" by Victor Wentink and Remko Scha. He is increasingly active in the Computer Rights Movement. Huge Harry is president and spokes-machine of the Institute of Artificial Art Amsterdam (IAAA), an independent organisation consisting of machines, computers, algorithms and human persons. The IAAA works toward the complete automatization of art production. Its flagship project "Artificial" aims at the development of a computer program generating all possible images in all possible styles. At Artware3, Huge Harry presents an "Artificial" algorithm which was designed and implemented by Remko Scha and Boele Klopman.
Huge Harry es una de las identidades de DECtalk, una máquina para la síntesis del lenguaje diseñada por Dennis Klatt del laboratorio del lenguaje del MIT de Cambridge en Massachussets y producida con el apoyo de Digital Equipment Corporation. HH ha presentado conferencias sobre arte por computadora y conciertos de música computerizada en diferentes naciones Europeas, en Estados Unidos y en Australia. Sus artículos sobre estos temas han sido publicados en revistas internacionales. En cooperación con el artista de prformance Arthur Elsenaar, está desarrollando investigaciones sobre las expresiones faciales humanas y las interfaces hombre-computadora. HH ha también actuado como cantante, la m,ás reciente actuación ha sido en la ópera "Pearl Harbour", de Victor Wentink y Remko Scha. HH está activo en el medio del Movimiento para los Derechos de la Computadora. Huge Harry es el presidente y el portavoz del IAAA, el Instituo del Arte Artificial de Amsterdam, una organización independiente que consiste de máquinas, computadoras, algoritmos y serers humanos. IAAA trabaja esencialmente para la completa automatización del proceso artístico. Su proyecto emblemático, "Artificial", apunta al desarrollo d eun programa para computadora que pueda generar todas las imagenes pósibles en todos los estilos posibles. Para Artware3, Huge Harry presenta una algoritmo de "Artificial" que ha sido diseñado e implementado por Remko Scha y Boele Klopman.
Leonel MouraLeonel Moura is an artist born in 1948, in Lisbon, Portugal, whose art merges with architecture, philosophy and science. He did many exhibitions all over the world and in 1995 the Nouveau Musée/Institut, Villeurbanne, has organized the first retrospective. He published several books in Portugal, France and Spain and gave many lectures in various countries. In 1995 he created and directed the Utopia Biennial, an international event dedicated to bring together art and science. Director of the Territory Pavilion at Expo'98, he showed some of the most advanced technological and scientific fields in Portugal in a very creative and futuristic context. In 2001 founded the AAAL - Alife Art Architecture Lab with Vitorino Ramos. In 2003 launched, with Henrique Garcia Pereira, the Artsbot project (the painting robots). In 2004 he proposed the creation of the first Robotarium in the world to be installed near Lisbon in 2005.
Leonel Moura es una artista portugués nacido en Lisboa en 1948. Su arte se caracteriza por mezclar arquitectura, filosofía y ciencia. Ha hecho numerosas exposiciones internacionales y en 1995 el Nouveau Musée/Institut de Villeurbanne ha organizado su primera retrospectiva. Moura ha publicado numerosos libros en Portugal, España y Francia y ha dado varias conferencias en diferentes países. En 1995 ha creado y dirigido la Biennal Utopia, evento internacional dedicado a armonizar el arte y la ciencia. Director del Territory Pavilion al Expo '98, ha enseñado los más avanzados experimentos tecnológicos en Portugal en un contexto expositivo creativo y futurista. En 2001, con Vitorino Ramos, funda AAAL, Alife Architecture Lab. En 2003 empieza, con Henrique García Pereira, el proyecto Artsbot (los robots pintores). En 2004 propone la creación del primer Robotarium del mundo, a ser instalado en Lisboa en 2005.
Casey ReasReas is an artist and educator exploring process and abstraction through diverse digital media. Reas has exhibited and lectured in Europe, Asia, and the United States and his work has recently been shown at Ars Electronica (Linz), Kunstlerhaus (Vienna), Microwave (Hong Kong), ZKM (Karlsruhe), and the bitforms gallery (New York). Reas received his MS degree in Media Arts and Sciences from MIT where he was a member of the Aesthetics and Computation Group, led by John Maeda. With Ben Fry he is developing Processing, a platform for learning fundamentals of computer programming within the context of the electronic arts and visual design. Reas is an assistant Professor in the Design | Media Arts Department at UCLA.
Reas es un artista y educador que explora los procesos y la abstracción en diferentes medios digitales. Reas ha participado en exposiciones y dictado conferencias en Europa, Asia y Estados Unido y su trabajo ha sido recientemente exibido en Ars Electrónica (Linz), KunstlerHaus (Vienna), Microwave (Hong Kong), ZKM (Karlsruhe) y las galerías bitforms (Nueva York). Reas ha conseguido su MS en Ciencias y Nuevos Medios en MIT donde ha sido un componente del Grupo Estética y Computación dirigido por John Maeda. Con Ben Fry está actualmente desarrollando Processing, una plataforma para el aprendizaje de los elementos fundamentales de la programación para aplicaciones audiovisuales. Además de esto, Reas es asistente profesor en el departamento de Diseño y Nuevos Medios de UCLA.
Umberto RoncoroniBorn in Pavia Italy, in 1956. He studied philosophy and then visual arts in Milan, where he obtained the painting grade at the Brera Academy of Fine Arts. He was also formed as illustrator and graphic designer at the Castello Sforzesco Arts and Crafts School of Milan. Until 1984 he works as painter scenographer for the Scala Theater of Milan and as free lance graphic designer. During these years Roncoroni begins his research with digital technology, using computers both artistically and professionally. He design and produce many multimedia and animation projects for a wide range of commercial applications, like advertising, television, multimedia presentations and so. Artisitically, he comes in contact with other artists and programmers also working with computers, beginning a still lasting artistic research. In 1986 in Paris he exhibited his first digital works. After 1991, he started an intense journalist activity, writing articles for specialized computer graphic magazines edited in Milan.In 1993 he moved to Perú, where he works as professor in the University of Lima and in the Catholic University. In Peru he developed more continuously his artistic research with computers, through personal or university research projects, and organizing and producing international digital art exhibitions, such as PostDigital in 2004 in Lima and in Bogotá. Since 2001, he participates as exhibitor and lecturer in the Generative Art Conference GA organized each year by the Polytechnic University of Milan.He creates, produces and curates Artware, which first edition was in 2001. Artware is an International Digital Art Biennale, which goal is to promote artists-programmer's researches through exhibitions, seminars and conferences. Artware is now in it's third edition.
Nace en Pavía, Italia, en 1956. Estudia en Milán, primero en la Facultad de Filosofía de la Universidad Católica y luego en la Academia de Bellas Artes de Brera, donde se gradúa en Pintura en 1980. Se diploma también en Ilustración y Diseño gráfico de la Escuela de Artes Aplicadas a la Industria de Milán. Hasta 1984 trabaja como escenográfo en el teatro la Scala de Milán y como diseñador gráfico e ilustrador free-lance. En estos años empieza a utilizar profesional y artísticamente la tecnología digital, realizando animaciones tridimensionales y proyectos multimedia así como colaborando con un grupo de artistas y programadores de Milán. Expone sus primeros trabajos digitales en 1986 en París. En 1991 comienza una extensa actividad periodística, siendo co-redactor de una revista especializada en multimedia y gráfica digital. Desde 1993 reside en el Perú, donde se dedica a la investigación artística del medio digital y a la docencia universitaria en la Universidad de Lima y en la Universidad Católica. Ha participado en exposiciones de fotografía y de arte digital en Italia, Francia, Perú y Colombia. Desde el 2001 participa como expositor invitado y realizando ponencias en el Congreso Internacional de Generative Art (GA) del Politécnico de Milán. Crea, organiza y realiza la curaduría de Artware, bienal Internacional de Arte Digital, cuya primera edición fue en 2001. El objetivo de Artware es de difundir las investigaciones de artistas programadores a través de exposiciones, seminarios y conferencias. La bienal está actualmente en su tercera versión.
Artware3: textos de los artistas participantes
Mi hija Zana va a una escuela en Japón cada verano. Cuando tenía cinco años, me contó durante una conversación telefónica que su uniforme incluía un sombrero de paja. Le pedí si pudiera enviarme un dibujo de este sombrero para ver como estaba hecho. Pero Ella me dijo que no sabía dibujar sombreros. Pero le dije de intentar igualmente y así el día siguiente recibí un fax, con dos circulos concentricos, llenados con un patrón de lineas cruzadas irregularmente. El sombrero de paja. Ha sido siempre un misterio para mí -quizás el misterio principal en todo arte- como una persona pueda hacer pocos trazos irregulares en un pedazo de papel y otra pueda identificar dichos trazos como un sombrero de paja, o un retrato, o un frutero con bananas. Sabemos que estas banans no pueden ser comidas, ellas son después de todo solo trazos en un papel. Los trazos de Zana son una representación del sombrero de paja, no el sombrero de paja. Inclusive ni si quiera se parecen a un sombrero de paja. Si el misterio de la representación estuviera menos enredador - menos misterioso, menos importante - quizás nunca hubiera sido involucrado en la computación y en la inteligencia artifcial. Visto en perspectiva, parece ahora claro que el cambio estratégico desde la pintura a la programación tenía raices en mi propia historia y que era de alguna manera predecible, sin embargo he dejado Londres para California en 1968 con la sola conciencia que diez años de pintura no habían sido suficientes para aclararme este misterio. Un encuentro casual en la Universidad en la cual fui a trabajar me empujó a recoger una oportunidad para aprender programación - pensé que hubiera sido divertido - y mis primeros intentos como programador me llevaron a algunas consideraciones curiosas. Si yo hubiera podido escribir un programa que de alguna forma implemente el proceso cognitivo que subyace al dibujo humano, el resultado hubiera podido ser intercambiado, en una cierta medida, con un dibujo humano. Y yo hubiera aprendido mucho más acerca del misterio del proceso de la representación. Todo esto pasó hace mucho tiempo, un poco más de treinta y seis años para ser precisos. He gastado todos estos años, menos los primeros dos, trabajando sobre un solo programa, AARON, que ahora ha crecido y evolucionado en complejidad y sofisticación, paralelamente al creciente poder elaborativo de los mismos sitemas de computo. Si usted se ha encontrado con su primera computadora en la época actual de los personal computers y de los Macintosh no se podría imaginar la gran diferencia que ocurre con la época en la cual AARON empezó a concebirse. Pero el enfoque de alguien es probable que pueda cambiar en treinta y seis años; y en efecto debería cambiar, si se presta atención a las ramificaciones de los recorridos personales. Así que, cuando un pequeño grupo de artistas empezó a interesarse que se podía hacer con una computadora, por mi parte empezé a preguntarme que podía hacer un programa por su cuenta. Y poco a poco, el interés en el proceso humano se cambió al interes del proceso algoritmico del software. ¿Que podía significar que un programa es autónomo? Y si esto fuera posible, como se podía lograr? Lo que empezó como un intento para modelizar el comportamiento cognitivo humano me llevó a comprender que dicho sistema cognitivo opera en un entorno real, no en el vacío en el cual AARON se ha desarrollado; consecuentemente, me quedó claro que era necesario alimentar el programa con algun tipo de conocimiento del mundo externo que sustenta el proceso de la representación visual humana. Los dibujos de AARON empezaron así a ser más figurativos, hasta el punto que el espectador hubiera apostado que estos dibujos eran imágenes de cosas reales del mundo real. Al mismo tiempo, ero muy insatisfecho de tener que colorear manualmente los dibujos de AARON: esto me obligó a considerar el problema más compliocado de todos, es decir, como enseñar a AARON el color; de hecho, solucionando este problema, AARON se ha convertido en un colorista mucho mejor que yo. Cuando quiero que AARON haga alguna pintura en papel, dejo correr el programa durante la noche cuando duermo y en la mñana me encuentro con con cincuenta o sesenta imágenes que nunca había visto anteriormente para escoger. Decidir cuales imprimir es dificil, ya que todas son buenas. Así que AARON ha adquirido un grado de autonomía muy elevado. Y todavía... AARON no ha aprendido nada después de haber pintado miles de imágenes. Pero cuantos artistas humanos han echo cincuenta imágenes en una sola noche? AARON no puede decidir cuales imágenes son realmente buenas y cuales no lo son. Pero pocos artistas humanos y todavía menos críticos humanos son buenos en esto. AARON no puede cambiar de idea cuando hace una imagen ni como proceder criticamente durante el proceso de pintura. Muchos seres humanos, por otro lado, son también incapaces de este proceso. ¿Son estas características la que nosotros incluimos necesariamente en el concepto de autonomía (en este caso pocos seres humanos son efectivamente autónomos) o la autonomía es algo que se desarrolla gradualmente, al crecer de la experiencia y del conocimiento? En el primer caso no sabría como brindar esta autonomía a AARON. Pero si es cierto el segundo caso, entonces AARON seguirá creciendo en autonomía hasta cuando yo deje de trabar con el. Mucha gente ha sugerido que yo debería abrir y compartir el código de AARON, en modo tal que otras generaciones de programadores pueda continuar el desarrollo del programa en el próximo futuro. Sin embargo esto es bastante fuera de la realidad. El programa es ahora muy largo y complicado para entenderse; hay partes que han sido escritas diez o quince años atras que son dificiles a entenderse también para mí. Se necesitaría a un hacker un año entero de investigación para entender el código y poder hacer un solo cambio en modo seguro. Es también un poco ingenuo. ¿Porque se debería desiderar que el programa continue ejecutandose para siempre? En todo caso, como siempre contesto, mi objetivo verdadero sería que AARON se desarrolle por sí mismo. A pesar de las cuestiones técnicas acerca del aprender y de como se forman los criterios críticos y acerca del diseño de software, es esta capacida que finalmente defino como autonomía. Para esto, falta todavía un largo recorrido.
AARÓNPara los millones de propietarios de computadoras, una computadora es una caja negra que ejecuta paquetes aplicativos - programas- para hacer diferentes cosas. Uno permite de escribir cartas, otro de divertirse con los juegos favoritos, otro ordena y planifica las finanzas personales y las declaraciones de impuestos. Estas aplicaciones son todas muy fáciles para utilizarse, "amigable" como se acostumbra decir, pero si tu no puedes comprar uno de estos paquetes que hacen las tareas precisas que necesitas, bueno, tu computadora no te ayudará en mucho. A menos que... La excepción es que existen programas especiales, que también puedes comprar, que ofrecen lenguajes por medios de los cuales puedes escribir tus propios programas aplicativos para hacer tus tareas especiales (esto es lógico, de hecho, también los programas amigables para la declaración de impuestos han sido escritos por alguien). Estos compiladores no son tanto amigables como los programas aplicativos, porque, antes que todo, se debe conocer como programar para poderlos utilizar. Sin embargo, el valor agregado es enorme. Para alguien que nunca ha programado es difícil explicar con precisión lo que es exactamente un programa y como hace para ejecutar su tarea, especialmente cuando el programa parece hacer cosas que la gente piensa que solo un ser humano inteligente podría hacer. AARÓN es un ejemplo de este último caso; si yo no explicara que no es así, usted probablemente estaría convencido que soy yo en persona, con el auxilio de un programa gráfico como Photoshop, que ha hecho las imágenes. Sin embargo, puedo dejar a AARON trabajando toda la noche mientras estoy durmiendo y en la mañana me encontraría con cincuenta o sesenta nuevas imágenes. Además, y creo que esto se ve por sí mismo, AARÓN es un excelente colorista, mucho mejor, de hecho, de lo que nunca estuve yo personalmente como pintor. ¿Como es posible esto? No es a caso el color una función de la vista? Cómo puede AARÓN controlar los colores si no puede ver? Cómo, además, puede dibujar y pintar hojas si no puede ver a un árbol? Bueno, la verdad es que los seres humanos dibujan lo que tienen en sus cabezas, no lo que tienen delante de sus ojos; existe gente, ciega desde el nacimiento, cuyos dibujos son estructurados en modo muy parecido a lo que pueden ser mis dibujos o los tuyos. Usted no necesita ver a un árbol para imaginarse a una estructura ramificada que se parece a un árbol real. No necesitas ver a una hoja real para saber como esta crece, sus proporciones entre ancho y largo, cuanto suaves o irregulares están sus bordes y cuanto todos estos elementos pueden variar entre diferentes plantas y entre diferentes hojas. Hacer imágenes es en gran medida brindar una forma a este conocimiento interno.
Naturalmente, nosotros no tenemos que preocuparnos acerca de las modalidades con las cuales nuestro cerebro gestiona el conocimiento. Pero tenemos que solucionar el problema de cómo representar el conocimiento dentro la computadora, y este es uno de los mayores problemas que encuentra un programador. Ahora, representar el conocimiento relativo a las hojas ha sido relativamente simple y sin problemas; cuerpos humanos y caras igualmente, aún con algunas dificultades adicionales. Codificar el conocimiento relativo a algo abstracto como el color ha sido mucho más complicado. En primer lugar ha sido crítico escoger el lenguaje de programación; AARÓN, desde su comienzo, ha sido escrito desde el BASIC al SAIL a ALGOL al C; pero, en efecto, ha sido solamente después de haber traducido todo el código de AARÓN con LISP (un lenguaje para la inteligencia artificial ndt) que he podido entender como representar mi propia experiencia del color en modo tal que AARÓN la pueda utilizar en sus procesos.
¿Así que tal programa es AARÓN? Me gustaría poderlo explicar, pero si usted no entiende LISP sería como hablar jeroglíficos. Y también si usted conociera LISP, se daría cuenta que el programa sería muy difícil de monitorear. En efecto, he sido la única persona que ha seguido trabajando en AARÓN a lo largo de sus treinta y seis años de existencia y a veces yo mismo tengo problemas en entender el código. Este es bastante pequeño si lo comparamos con los programas comerciales que están desarrollados por armadas de programadores; sin embargo se trata siempre de dos megabytes de comandos LISP divididos entre más o menos sesenta módulos que se dedican a diferentes funciones, tales como la memorización de las diferentes fases de la generación de una imagen, la construcción de objetos, procesos de coloreado, técnicas de pinceles y pinceladas para rellenar las formas.
Afortunadamente la tecnología informática ha avanzado mucho en los últimos años, así que un programa que hace veinte años atrás requería para correr máquinas como VAX o TI Explorer, del costo de más de 100,000 dólares, ahora corre en una buena PC de última generación ¡pero esto hace la computación más costosa para mí: estuve acostumbrado a utilizar tecnología por auspicio de los fabricantes, cuando esta tecnología era escasa, ahora que es moneda corriente me toca pagarla personalmente! Algunas personas piensan que AARÓN es un robot, quizás porque lo identifican con las diferentes máquinas de impresión que he especialmente construido para visualizar sus pinturas. Pero AARÓN no es un robot, es un programa, y ha sido precisamente esta equivocación que me ha inducido a abandonar la construcción de plotters especiales para utilizar una normal impresora. Esta es también una máquina, evidentemente, pero nadie hoy piensa a una impresora como a un robot y por otro lado me da una calidad de color que nunca había logrado anteriormente. ¿Es AARÓN un ejemplo de inteligencia artificial? Esto depende a quine lo pregunta: nunca he hecho esta afirmación en modo específico, pero así piensan muchas personas que trabajan en el medio. AARÓN ciertamente está haciendo cosas que requieren un elevado nivel de inteligencia y de conocimiento especializado, igualmente a lo que un hombre necesitaría en la misma situación. ¿Y Cuando ha pasado que un artista tuviera un asistente capaz de terminar cincuenta pinturas originales mientras su maestro duerme?
En el limite entre arte y ciencia
Herbert W. FrankeAlrededor del año 1900 se desató una discusión sobre las formas artísticas naturales. Esta denominación se le ocurrió al biólogo Ernst Häckel, cuando observaba con el microscopio diminutos seres marinos y descubría en sus cascarones y esqueletos muchas formas inusuales, las cuales se pueden denominar bellas en el sentido clásico. Mientras tanto otras áreas de las ciencias naturales fueron involucradas en el debate. Por ejemplo aparecieron registros de formas cristalinas, de formas de descargas eléctricas, del cielo cubierto de estrellas, etc. Hace poco se ha dado una situación nueva, estimulada por las imágenes de la matemática. En ellas hay una diferencia interesante con respecto a las estructuras de la biología, de la física o de la astronomía: estas, representando relaciones matemáticas, no se pueden llamar formas naturales, pero de alguna manera el método es parecido. Se constata que al visualizar relaciones matemáticas aparecen a menudo configuraciones gráficamente interesantes y, sin lugar a duda, estas pueden ser miradas desde el ángulo de la estética. Esta situación probablemente no se hubiera dado si recientemente no hubiera sido disponible un instrumento con la ayuda del cual es posible la fácil creación de imágenes complicadísimas del campo especializado de la matemática, el ordenador con sus posibilidades gráficas. No se requiere más que introducir las formulas y en pocos segundos aparece la imagen en el monitor, lo que no se hubiese logrado durante días y días de trabajo con el método manual. Es así que se puede aplicar el lenguaje de formulas de la matemática como una suerte de escritura gráfica de notas musicales.
Podemos desarrollar una imagen de una manera similar a como lo hace un músico componiendo para su instrumento. Para este propósito existen un sinfín de funciones matemáticas, que permiten cambiar cualquier color y forma de las imágenes. Si hablamos de imágenes, deberíamos mostrarlas. Es por eso que presento a continuación una pequeña colección de ejemplos, que son los resultados de un trabajo conjunto con Horst Helbig. Dico trabajo empezó en la época de los fractales y se trataba de averiguar si existían otros campos de la matemática cuya visualización resultaría en imágenes de una calidad estética coherente con el aspecto matemático específico. Esto se probó, tal como los ejemplos lo demuestran. No quiero dejar de mencionar un método gráfico por ordenador especial, en el cual el proceso de la pintura se simula manualmente. El artista tiene la oportunidad de trabajar como lo ha aprendido en sus clases de arte mientras mueve el mouse o un lápiz de inducción en el plano de la mesa, introduce los elementos gráficos al monitor. Durante el proceso se le hacen accesible muchas ventajas de la practica grafica de la computadora. El puede documentar su trabajo paso por paso y puede empezar de nuevo a partir de cada interfase (fase intermedia), si así lo desea. Además se puede hacer uso de los diferentes tipos de transformación de imágenes . Una posibilidad especial del método matemáticamente programado es la natural transición hacia a la animación y hacia la interactividad. En las formulas se pueden añadir en cada momento parámetros, que normalmente son constantes, o sea dimensiones invariables. Ello no obstante, se dejan cambiar, cambiando así también la imagen. Procediendo así en pasos pequeños y almacenando las imágenes intermedias, se consigue el material en bruto para un desarrollo fílmico – solamente dejando pasar las imágenes una tras otra con una velocidad adecuada. También se puede involucrar al espectador, dándole la posibilidad de variar los parámetros según sus propios ideas por medio de un teclado, un joystick o otras herramientas y así dándole la oportunidad de participar activamente en el proceso creativo. De esta manera y sin habilidad manual, pude experimentar y adquirir experiencias estéticas creativas. Otra especialidad de la gráfica por computadora es digna de atención: nos presta las mejores condiciones para investigaciones en el campo de la teoría del arte y de la percepción. Esto se debe al hecho de que los programas nos dicen mucho más sobre la imágen que las partituras sobre la composición musical. Sobre todo contienen informaciones cuantitativas estadísticamente evaluables y además indican normas sobre la disposición de la imagen y con eso dicen algo sobre sus regularidades. Hoy estamos por lo tanto en capacidad de hacer una afirmación mucho más exacta sobre la percepción del arte visual y como se generan sus efectos estéticos . Estas posibilidades hasta ahora casi no han sido aprovechadas, porque interpretaciones racionales de arte actualmente no están de moda. Para mi personalmente es importante entender lo que hago, pero por otro lado debo admitir que no se requiere de una teoría para producir arte y tampoco para gozarla.
Gráfica por computadora, notas de trabajo
Las aplicaciones artísticas de la gráfica por computadora no son las más importantes pero son ciertamente las más interesantes. Este es el campo para comprobar nuevas ideas y metodologías. Dedicarse con una nueva herramienta a trabajos experimentales abre nuevas posibilidades expresivas de una forma no convencional, y los resultados son importantes tanto bajo el punto de vista estético cuanto para diferentes aplicaciones prácticas. Este es uno de los aspectos de las imágenes digitales: un puente entre arte, tecnología, ciencia y vida de todos los días. Cuando empezé mis primeros tentativos con la gráfica computerizada para descubrir los territorios desconocidos de sus aplicaciones artísticas, tuve que manejar principalmente elementos geométricos y curvas matemáticas, y los resultados parecían simples y primitivos. Era ciertamente el proceso de aproximación más que el resultado en sí mismo que dejaba bien esperar para una evolución de la gráfica computerizada como una herramineta para las artes visuales y el arte en general. Hoy es fácil ver la linearidad de este proceso, y las críticas negativas que se hacían desde las perspectivas de la historia del arte tradicional, un verdadero obstáculo en esta fase pionera, se pueden considerar superadas. Estuve trabajando con procesos programados y automatizados desde los años cincuenta y estuve recurriendo el camino que me llevaba desde computadoras analógicas a sistemas digitales, desde los plotters mecánicos a las pantallas en alta resolución y con un sinfin de colores, desde la bidimensionalidad a la tridimensionalidad y a la animación; sin embargo también hoy mantengo intacto el interés y la fascinación por este género de arte visual. Los avances de la calidad que se han obtenido en cuarenta años con esta tecnología parecen increíbles, pero mirando a las cientas imágenes que he generado desde 1956 hasta 1998 se tiene la impresión no solamente de un avance artístico, sino también de un desarrollo científico. Pero nadie debería olvidar que todavía hoy el desarrollo tecnológico de la computadora no ha terminado, lo que significa que también el arte digital está en un proceso de exploración y de crecimiento. En este sentido la gráfica por computadora mantiene actuales sus desafíos a la creatividad, exactamente como en los años pasados.
Un nuevo genero de arte: robots pintores
Leonel Moura/Henrique García PereiraLos robots pintores son organismos artificiales capaces de crear su propia expresión artística. Son equipados con una conciencia ambiental y un pequeño cerebro que elabora algoritmos basados en reglas sencillas. Las pinturas que hacen no son predeterminadas, más bien surgen desde la combinación de una cierta dosis de aleatoriedad con una indirecta retroalimentación con el ambiente. Aún los robots sean autónomos, dependen todavía de las interacciones con los partners humanos. Esto no solo en el sentido de comenzar y terminar el proceso, sino más profundamente en los efectos visuales finales, que resultan de una cierta forma de acuerdo a la percepción de los espectadores. Así que lo que consideramos arte aquí es el resultado de múltiples autores, algunos humanos y algunos artificiales, sumergidos en un proceso caótico donde ninguno tiene el control absoluto y cuyos resultados son impredecibles. Este es un nuevo genero de arte, que introduce el paradigma de la complejidad en el contexto cultural y artístico.
Los robots y sus comportamientos colectivos
Cada robot es equipado con un sensor de colores, un sensor de obstáculos, un micro controlador y partes mecánicas para el movimiento y la pintura. El micro controlador está en un chip, que carga el programa y las reglas que enlazan, mediante una interfaz PS serial, los sensores con la mecánica. El algoritmo base del programa cargado en cada uno de los robots, permite básicamente dos comportamientos distintos: el primero activa la pintura con un color aleatorio, con un cierto grado de probabilidad (normalmente 2/256), cuando el sensor encuentra el fondo blanco; el segundo activa una retro alimentación positiva que refuerza el color existente escogiendo la tonalidad correcta (porque cada robot tiene 2 colores, uno cálido y uno frío). El comportamiento colectivo del grupo de robots que se desarrolla en el lienzo (un especie de terrario que limita el espacio de la experiencia) es gobernado por el gradual aumento de la importancia de la retroalimentación y por el desminuir del comportamiento aleatorio, hasta que este es eliminado completamente. Durante este proceso el robot muestra en modo evidente movimientos diferentes como resultado de la interacción con los colores que se van acumulando en la pintura, desencadenando una especie de excitación que no se observa al comienzo aleatorio del proceso. Esto se debe a la retroalimentación de cada robot con los demás, porque cad auno de ellos reacciona a lo que estos han apenas pintado. De acuerdo a Grassé (1959) la stigmergía es el resultado de comportamientos de algunos agentes como resultado de los cambios en el ambiente por otros agentes. Por esto el comportamiento colectivo de los robots es caracterizado por la aleatoriedad y la stigmergía.
La complejidad en tiempo real
Analizando lo que hemos apenas visto acerca de los movimientos de los robots, se puede decir que desde el comienzo aleatorio del proceso surge progresivamente un patrón ordenado que empieza a cubrir el lienzo. Estos patrones auto catalíticos son definitivamente estructuras non aleatorias, compuestas por conjuntos de trazos y manchas de tinta. Así, este experimento muestra en tiempo real como la auto organización puede desarrollarse en base a un conjunto de reglas muy simples, siempre cuando el feedback y la interacción sean efectivos. Los remolinos de manchas de tinta, los grumos que se forman en el lienzo pueden ser vistos como el efecto de atractores anómalos, según la terminología de los sistemas dinámicos. Además, en el marco de la misma teoría, encontramos fenómenos de bifurcación, ya que los robots pueden tomar diferentes direcciones dependiendo de la intensidad y de la posición de los colores que detectan los sensores. En efecto, este experimento es una especie de caos determinístico, que se muestra en el lienzo y del cual el espectador participa. En realidad, a pesar que cada robot tiene el mismo conjunto de reglas y opera en condiciones homogéneas, su comportamiento específico en el tiempo es impredecible, y cada ejemplo que resulta en el lienzo es siempre un evento único e no reproducible. Desde una perspectiva científica, este experimento se refiere a la teoría de las estructuras disipativas de Prigogine. Mientras reciben energía desde el exterior, las instabilidades y los saltos hacia nuevas formas de organización típicas de estas estructuras son el resultado de fluctuaciones amplificadas por los ciclos de retro alimentación. Por esto, este tipo de feedback inestable, que ha sido siempre interpretado por la cibernética como destructivo (como dice Capra, 1996), aparece ahora como una forma de orden y complejidad.
El problema mente cuerpo
El problema del dualismo entre cuerpo y mente (que sigue dando vueltas en el pensamiento occidental desde Descartes) está siendo superado por una visión horizontal que abarca los dos elementos, eliminando toda jerarquía, en especial el sistema Cartesiano que privilegia el abstracto e inmaterial sobre el concreto y la materia. Es fascinante deducir, desde la posibilidad que ofrece la computación de materializar un proceso de pensamiento, que la dualidad mente cuerpo de Descartes se disuelva como la dualidad orgánico inorgánico de Wolher en 1820. Este, como señala Danto (2001), sintetizó lo que todos consideraban una sustancia orgánica, la urea, con dos compuestos inorgánicos como la amoniaca y el ácido ciánico. En la misma línea de pensamiento, la obra de arte creada por los robots pintores es el resultado de una sinergia indisoluble, donde humanos y non humanos cooperan para gastar tiempo (en el sentido que el arte no tiene un objetivo práctico). Todo esto con una desviación peculiar, puesto que el robot está por la materia y el cuerpo y el hombre por el elemento mental e inmaterial.
Haciendo al artista
Las características típicas del arte contemporáneo son "magnificencia e inutilidad", como subraya Fernando Pessoa, refiriéndose a su obra principal "El libro de la inquietud" y como es confirmado por muchas tendencias artísticas del siglo veinte. En el arte de nuestro tiempo el conceptual prevalece sobre el formal, el contexto sobre la producción material y el proceso sobre el resultado final. En las obras de arte creada por los robots no existe ninguna intención finalizada. De acuerdo a esto, todas las características funcionales y prácticas de la robótica en aplicaciones militares o en la industria del espectáculo debería ser rechazadas. Así mismo, algoritmos inspirados a la biología o a la evolución en términos neo Darwinianos o otro tipo de input estético predeterminado debe ser considerado como contradictorio e insignificante. Hasta el estado actual del arte, los robots pintores son el primer experimento de arte robotizada entendida como proceso autónomo. En efecto, los creativos humanos deliberadamente dejan el control sobre sus creaciones y se concentran en "crear los artistas que realizan la obra de arte" (Moura & Pereira, 2004). Así que el arte hecha por los robots no puede ser vista como un medio o una herramienta para concretizar un específico intento estético humano y sin embargo constituye una experiencia estética peculiar. Las características de este tipo de arte se insertan en el proceso de la definitiva superación del prejuicio antropocéntrico que sigue dominando el pensamiento occidental.
La perspectiva del observador
A diferencia de una obra de arte tradicional, la formación de una pintura de los robots puede ser monitorada paso a paso por el espectador. Por esto se pueden diferenciar diferentes etapas en este desarrollo. Aun brindando los mismos parámetros al programa que gobierna el comportamiento de los robots, los resultados son siempre diferentes uno del otro, presentando aquellas características de sorpresa y novedad que tanto interesan en el arte contemporáneo. Desde la perspectiva del espectador, la principal diferencia que tenemos con el arte tradicional es que el espectador puede seguir el proceso artístico en su desarrollo, siguiendo los saltos entre los atractores caóticos. Cuando la obra está terminada, el proceso que se ha experimentado queda en la memoria como evento excitante, porque la verdadera experiencia estética es la dinámica de la creación en cuanto mecanismo interactivo entre la creatividad de los hombres y de las máquinas. En cada instante, los patrones que se forman en el lienzo procuran una experiencia perceptiva en el espectador de acuerdo a su experiencia vivida y a su contexto histórico y cultural (hasta se podría encontrar correspondencias entre el aspecto visible de la imagen y la huella que esta deja en la percepción profunda delel cerebro). La propensión a reconocer patrones ordenados y significativos, incrustada en el aparato perceptivo humano, produce una especie de fenómeno hipnótico que encadena la mirada del espectador a la dinámica del desarrollo de la imagen. Un efecto similar se obtiene observando las olas o el fuego. Sin embargo, a un cierto punto llega el momento que el proceso se percibe como acabado y esto termina el proceso.
Un nuevo tipo de arte
De la misma forma en la cual en el tiempo el arte ha sido desarrollada sobre paradigmas religiosos, ideológicos o miméticos y, después de Duchamp, sobre paradigmas conceptuales, este nuevo tipo de arte puede ser relacionada con el paradigma de la complejidad.
Huge Harry habla acerca de lo "Artificial".HP: Pero entonces se presenta otra cuestión: IAAA desarrolla programas para computadora, y los programas generan obras de arte. Sin embargo los programas están diseñados por seres humanos. ¿Así que no podría ser que el arte quede siempre un producto humano, y que no se pueda eliminar este aspecto? HH: No, no estoy de acuerdo. Esto es lo que mucha gente cree, pero se equivocan. En primer lugar, no se puede decir que los seres humanos desarrollan los programas solamente por sí mismos. De repente Turing o Von Neumann lo hacían, pero hoy la gente siempre colabora con las computadoras y algun software existente para escribir sus programas. Entonces los seres humanos no son siempre iguales. Nosotros escogemos teóricos y programadores que no se interesan de expresar sus egos, sino que tratan de entender la realidad objetiva de la estrucutra de una imagen y explorar sus posibilidades en modo científico. Y existe un tercer aspecto: nuestros programas empiezan a ser tan complejos que el programador no puede predecir que saldrá de este programa. Y la cosa positiva es que les gusta. Esto se llama auto organización. Significa que nadie tiene el control del proceso. [se ríe.]
HP: Está bien, pero mucha gente piensa que no funcione de esta manera. Harold Cohen, por ejemplo, que ama mucho las computadoras, dijo una vez: "La única cosa en la cual la gente está interesada es otra gente." HH: Esto podría ser verdadero para mucha gente, pero pienso que no es necesariamente una buena cosa, y nosotros precisamente tratamos de sacarlos desde este punto de vista individualista. Quizás esta es la dimensión utópica de nuestro trabajo.
HP: ¿Por qué usted se interesa de arte, a pesar de todo? Muchos afirman que el arte contemporáneo está muerto desde hace tiempo, que se ha terminado con Duchamp, Rodcenko o Warhol. HH: Me siento en línea con la idea que la historia del arte ha terminado. Desde un punto de vista informático, todas las imágenes son equivalentes y no existe ninguna razón para hacer una imagen en lugar de otra. Así que el arte como la conocemos podría terminar sin problema. Pero esto es exactamente lo que trata de conseguir el proyecto "Artificial". El algoritmo que genera todas las imágenes posibles encarna la idea posmoderna del todo vale en una forma visualmente e intelectualmente sólida y eficiente. Así que estamos solucionando el dilema de cómo seguir haciendo arte después del fin del arte. "Artificial" es la sola forma viable de arte que pueda interesar hoy.
HP: ¿Entonces como es que ninguno está haciendo esto? HH: Porque no se puede hacer de forma individual. Necesariamente implica trabajo grupal, tecnología y rigor disciplinario. Es más como ciencia. No tienes que expresar tus estúpidos sentimientos.
HP: ¿Existen otros procesos parecidos en desarrollo? HH: Efectivamente no. Lo que es desafortunado, porque es demasiado trabajo para una sola organización. Trabajamos duro, pero no podemos hacer todo. En un cierto momento sucederá un cambio de paradigma, y entonces surgirán un montón de proyectos en todo el mundo, todos trabajando en coordinación. Será interesante, pero no sabemos cuando sucederá, así que seguimos trabajando. Pero ciertamente este proyecto no se ha originado de la nada. Sus raices se encuentran en el arte aleatorio d elos años sesenta. Dichas prácticas eran bastante populares en toda Europa. Artistas como Francois Morellet y Herman de Vries hicieron muchas piezas originadas por aleatoriedad matemática. No trabajaban todavía con las computadoras, pero tiraban dados todo el día o sacaban digitas de tablas numéricas aleatorias. Mi interpretación fue que esta gente era como embrujada por por el ideal incierto de la pintura arbitraria. Pienso que realmente trataban de hacer selecciones aleatorias desde el conjunto de todas las posibles pinturas. La pieza que mejor ilustra este proceso consiste en dividir un plano en una malla de cuadrados y luego escoger un color al azar. De hecho este es un algoritmo que genera todas las posibles imágenes que se pueden haceer con una determinada resolución. Y lo interesante es en cuanto este proceso se parece a una pintura monocromática. Porque si usted efectivamente desarrolla esta receta, la probabilidad de obtener una imagen interesante es prácticamente cero. Lo que obtienes es una especie de textura uniforme. En alta resolución, el resultado será un gris si utilizas el blanco y el negro y el marrón si utilizas los colores. Piezas así eran echas por muchos artistas en los sesenta. Fueron una importante inspiración para nosotros. Decidimos de involucrarnos con el objetivo de generar todas las imágenes posibles pero añadiendo una condición: la percepción humana. Esta condición hace las cosas mucho más difíciles y convierte el proyecto en una investigación científica. Debemos encontrar la forma de convertir una imagen en términos de estructuras perceptivas y como escribir programas que generen estas imágenes bajo dichas condiciones perceptivas.
HP: Entiendo que esta investigación no está todavía terminada. ¿Entonces cuales son las ideas fundamentales que están implementadas en los algoritmos de "Artificial"? HH: Los primeros artistas aleatorios hicieron también piezas donde ponían un cierto número de puntos al azar dentro un plano o también ponían los puntos en una malla y luego alteraban los tamaños o los colores al azar. Hacían lo mismo tanto con cuadrados como con líneas. También hacían líneas infinitas que se desarrollaba en todo el espacio, como un movimiento Browniano. Nuestra estrategia fue de combinar todas estas técnicas en un único algoritmo recursivo. Así que el algoritmo tiene un almacén bastante considerable de formas elementales, líneas de vario tipo, esquemas de composición y de transformaciones geométricas. Todos estos procesos tienen diversos parámetros y pueden ser aplicados recursivamente. Cuando se genera una nueva imagen, el programa decide como primera cosa un estilo, es decir, un subconjunto aleatorio de patrones y procesos, y expresiones visibles de los parámetros. Dentro este estilo se genera también una expresión algebraica aleatoria. Esta expresión es ejecutada por el programa en modo que se pueda ver la imagen que representa.
HP: ¿La obra de arte es todo el proyecto o solo el output específico de cada expresión? No me parece que usted es consistente cuando habla de este aspecto. HH: Efectivamente existen diferentes niveles. El output es arte. Y cada algoritmo es una especie de meta arte que produce objetos de arte. Y se puede también considerar el proyecto entero como arte. Depende del espectador. Y como dije antes, no se pueden aplicar los paradigmas tradicionales.
HP: ¿Quizas se debería interpretar como arte conceptual? HP: Alguna vez mencionaste a Mondrian. ¿Ha sido deliberado? Son los pioneros del arte abstracto todavía importantes para este proyecto? HH: Sí, pienso que la aproximación de artistas como Mondrian, Malevich y Kandinsky tiene mucha similitud con el espíritu de nuestro trabajo. Es claro que el objetivo de sus trabajos no consistía en la pintura como objeto individual, es decir, que cada pintura era el vector de algo más complejo. Esta gente trataba de codificar el lenguaje visual, en el sentido moderno y formal del térmnino. Escribieron también textos acerca de estos lenguajes. Naturalmente era una época pre computadoras, así que no podían implementar prácticamente estas investigaciones. Pero ciertamente estos lenguajes visuales son todavía actuales. En efecto eran intentos muy sofisticados para codificar estructuras fundamentales del lenguaje visual. Así que si logramos desarrollar una expresión formal del espacio de los estilos universales, una buena comprensión de estos lenguajes visuales sería muy valiosa. Como usted sabe, se han hecho varios intentos en el campo d ela simulación, pero lo que he visto es limitado en modo ridículo.
HP: ¿Entonces empezarán a colaborar con los departamentos de historia del arte para hacer este proyecto más contundente? HH: Sí.
HP: ¿Harán también imágenes al estilo de Pollock? HH: Sí. Y entonces el reto de este programa será de hacer también a Kline, De Kooning y todo el grupo de Cedar Tavern. Y Mathieu y Hartung y toda la escuela de Paris. Esto debería ser simplemente una cuestión de parámetros apropiados. Tenemos un departamento de animación que principalmente trabaja en simulaciones de movimientos en el espacio de la Realidad Virtual y están empezando a desarrollar un sistema de Action Painting virtual. Esto es bastante interesante. Pero es un sistema muy diferente del Constructivismo. El gran problema es como crear un conjunto coherente e integrado.
HP: ¿Entonces "Artificial" es un proyecto que principalmente concierne en una aproximación informática y matemática a la historia del arte? HH: No. Est todo acerca de la percepción. Una teoría formal de la percepción visual según la sicología de la Gestalt sería la clave de todo. Hemos hecho algun avance en este rubro, pero es muy difícil. Podría ser que nuestro proyecto sea mucho más interesante para la sicología d ela percepción que no viceversa. Porque en fin de cuentas estamos enfrentando la misma pregunta: como describir la estructura de una imagen en modo formal. Sin embargo nosotros tenemos una mayor libertad de experimentar las cosas y de decidir intuitivamente como funciona. No debemos publicar ensayos acerca de análisis estadísticas de experimentos en situaciones de control absoluto.
MicroImage
Casey ReasEn 1962 Umberto Eco, todavía joven, escribió Obra Abierta, describiendo el nuevo concepto de obra de arte definido por relaciones estructurales entre aquellos elementos que pueden ser modulados para realizar una serie de diferentes trabajos. Personalidades como Cage, Calder y Agam son ejemplos de artistas cuyos trabajos son contemporáneos al texto de Eco. Mientras todo tipo de obra de arte es interpretable individualmente, Eco hace una distinción sustancial entre el proceso de interpretación de la obra abierta con la interpretación que caracteriza el músico que lee una partitura o de una persona que observa un cuadro. Una obra abierta presenta un campo de posibilidades en el cual tanto los aspectos formales cuanto los contenidos semánticos son indeterminados. El software que he desarrollado en los últimos cuatro años expande esta idea en el presente y explora los temas contemporáneos de la incertidumbre, del pluralismo y de la polisemia. Estos trabajos son siempre en flujo, permanentemente modificando las relaciones entre sus elementos y nunca quedándose parados o estáticos. Cada etapa en el desarrollo de este tipo de trabajo aclara algunos aspectos del proceso, sin embargo las variaciones posibles son infinitas. La estructura formal no es impuesta o pre definida, más bien resulta, como forma inesperada, de la interacción y del intercambio de informaciones. Interactuando con el software y modificando las estructuras lógicas que forman el ambiente en el cual el mismo software opera, se generan nuevos patrones de comportamiento y se abren nuevas posibilidades interpretativas. MicroImage es un proyecto que explora el fenómeno de la auto organización utilizando el software como medio. Consiste en una especie de micro cosmos en el cual miles de organismos software autónomos y un ambiente esencial forman un ecosistema software. Cuando el ambiente se modifica, los organismos se agregan o se separan de acuerdo al programa que determina su comportamiento. Estos organismos son conectados con el ambiente, así que pequeños cambios de este provoca modificaciones muy grandes en el entero ecosistema. Un campo de formas ondulatorias emerge desde las interacciones entre ambiente y organismos. Con respecto a MicroImage, el concepto de orden emergente se refiere al hecho que la generación de estructuras se desarrolla sin una intención específica o predeterminada: ninguna de estas estructuras nace planificando de ante mano la interacción con el software. Por lo contrario, en lugar de diseñar conscientemente la entera estructura, se han creado simples programas que definen las interacciones entre los elementos. Así que fueron escritos programas para las cuatro tipologías de organismos y cada uno de ellos fue clonado por millares. Las estructuras se forman por los movimientos de cada organismo y por los cambios de posiciones relativos al ambiente. La estructura que se forma no puede ser anticipada o descrita previamente, y evoluciona tanto a través de la retro alimentación entre el ambiente, los organismos y el software cuanto explorando interactivamente los comportamientos del software. Esta interpretación del orden emergente ha sido sustentada sobre trabajos de científicos como John Holland, Mitchell Resnick y Kevin Kelly.
MicroImage, como todos mis experimentos con el software, no tiene un lenguaje visual propio: el núcleo del proyecto es una estructura sensible e interactiva sin una forma o una dimensión específica. Esta estructura se modifica permanentemente y se manifiesta en diferentes medios y soportes. MicroImage empezó como una serie de software interactivo y sensible al contexto para computadoras de mesa. Más tarde se visualizaron una serie de imágenes estáticas que se grabaron durante la interacción con el software. En estas imágenes vectoriales fueron experimentados y explorados diferentes condiciones ambientales y diferentes cantidades de organismos. Recientemente, los movimientos de los organismos programas han sido coreografiados y registrados como una colección de pequeñas animaciones. Al estado actual, es un sistema software en tiempo real non interactivo que se manifiesta como un organismo viviente. Mis patrones de interacción preferidos han sido grabados y codificados en una serie de algoritmos que de esta manera controlan las propiedades generales del ecosistema. El ambiente responde a los movimientos de los organismos y los organismos a los cambios ambientales. Dicho proceso explora un equilibrio entre la auto organización, las técnicas generativas y una parte de intención estética consciente. Las características formales de MicroImage han sido seleccionadas para habilitar la mejor visibilidad de las estructuras emergentes. Cada organismo consiste en dos archivos de texto escritos en el lenguaje de programación C++. Estos archivos, micro.cpp y micro.h son largos respectivamente 265 y 48 líneas. Los archivos especifican el comportamiento de cada organismo mediante una serie de comandos que son las reglas que utiliza el organismo para reaccionar a los cambios ambientales. Luego de haber explorado una serie de posibilidades formales, he decidido asignar a cada organismo la forma más elemental posible en la gráfica computerizada: un pixel. Para diferenciar los diferentes organismos, he asignado un diferente color a cada uno de ellos: a los organismos agresivos se asignaron colores cálidos, mientras a los organismos pasivos colores fríos. Como ulterior refinamiento, los valores de estos colores fueron modificados de acuerdo a la velocidad alcanzada por cada organismo. Cuando la velocidad es máxima el color es puro y brillante, cuando esta desminuye el color se oscurece hasta alcanzar el negro. Muy pronto he realizado que utilizar un solo pixel para visualizar a un organismo otorgaba demasiada énfasis en la posición descuidando la calidad del movimiento. En la última versión del software, la visualización ha cambiado desde un pixel a una línea; de esta forma, cada organismo es representado por una línea que conecta sus últimas 20 posiciones y se puede apreciar su movimiento tanto en las imágenes estáticas cuanto en las animaciones. El lenguaje lineal permite al espectador reconocer el patrón de movimiento presente y pasado de cada organismo. También se podría predecir el futuro observando la tipología de curva que la línea dibuja.
El núcleo de MicroImage fue escrito en un par de días hace dos años. La versión actual se ha desarrollado por medio de un proceso de refinamiento gradual. Mientras el algoritmo de base que controla el movimiento ha sido programado en modo racional, los ulteriores desarrollos han sido el resultado de muchos meses de trabajo, experimentando y seleccionando los productos de la interacción con el software. Manipulando directamente al código, fui en grado de desarrollar cientos de cortas interacciones y de tomar decisiones en tiempo real sobre las estructuras generadas por el software. Por esto todo el proyecto ha sido desarrollado con una metodología mucho más parecida a la improvisación artística que a un proyecto racionalmente planificado y calculado.
Auto organización y otros procesos emergentes
Umberto RoncoroniProblema: ¿se puede programar un sistema artificial realmente autopoietico, es decir, capaz de lograr una estructura formal autónoma e independerte del artista? Y si fuera así, cual es su importancia estética? En efecto, ya tenemos una sobreproducción de arte humana como para necesitar que las computadoras se metan a saturar ulteriormente la situación. Para Artware3 estoy presentando dos proyectos que buscan respuestas, tanto técnicas cuanto teóricas a estas preguntas: aquí la producción de obras de arte interesa marginalmente, ya que lo que pretendo analizar es el significado de la auto organización en las estructuras profundas de la creatividad artística. Puesto que el digital cuestiona la creatividad en todos las diferentes manifestaciones del que hacer humano, los mecanismos artificiales deberían ser de alguna manera estudiados más a fondo; en este sentido, la obra de arte es una herramienta de investigación privilegiada por su esencia interdisciplinaria, humanística y sobretodo potencialmente libre de condicionamientos económicos y políticos.
La auto poiesis, la auto organización y los procesos sistémicos emergentes, abiertos e indeterminados, traducidos en algoritmos e implementados en el software, permiten investigar, experimentar y evaluar la portada de la interactividad y el valor de la aproximación interdisciplinaria y sistémica, que en las dinámicas de la creatividad juegan un rol preponderante y poco conocido. En estas dos propuestas, pues, se investiga precisamente la posibilidad de la auto organización: esto significa generar procesos formales o un lenguaje visual computerizado para ver si este es capaz de crear realmente un orden espontáneo. Dicha premisa obliga evitar los trucos típicos del arte abstracto o decorativo que se usan normalmente en el arte digital: por ejemplo, la simetría, las técnicas de "tassellation", o la simulación de la complejidad por medio de funciones de generación de números aleatorios. Ahora, me parece, una verdadera autopoiesis artificial no es posible: cualquier proceso algorítmico es determinista y solo se parece autónomo e indeterminado por la extrema complejidad de las interacciones sistémicas que los algoritmos pueden generar. El hecho que nosotros no podemos prever el resultado de algunos procesos (eso es lo que estudia la teoría del caos) no significa que estos sean realmente capaces de autoorganización. Esta, en efecto, pertenece a los sistemas vivientes, los únicos sistemas que, tanto según Bertalanffy como según Maturana, se pueden considerar realmente autopoieticos. Así que, en realidad, los sistemas cibernéticos son cerrados y el orden es una instancia implícita y predeterminada de varias maneras por el artista-programador. Pero esto no quita la importancia estética de estas técnicas, simplemente modifica el blanco a lo que conviene apuntar. Ahora bien, este blanco es la dinámica interactiva que se crea, en el contexto del software, entre los procesos de la simulación seudo-emergente, el espacio de las informaciones y los saberes científicos implícitos en los algoritmos, la función medial de las interfaces y los papeles del artista y del espectador. Así, los sistemas seudo-emergentes, por su complejidad interdisciplinaria, permiten investigar las peculiares estructuras creativas e interpretativas que se generan con las herramientas digitales. Se trata entonces de ver como estos procesos se modifican entre sí y el peso que tiene cada uno de ellos: nuevos aspectos de la interactividad emergen y se presentan a la atención, nuevos problemas, nuevos elementos que es preciso conocer. Y estos elementos cuestionan la relación entre arte, tecnología y la cultura posmoderna, sobretodo en aquellos aspectos que los filósofos del ciberespacio interpretan como fragmentados, libres e indeterminados.
Organismos autosimilares
Esta serie de imágenes son generadas con un software que empecé a desarrollar hace un par de años. Básicamente se trata de algoritmos que combinan la simulación de dos procesos naturales: la vida micro orgánica y la auto similaridad. Aquí se genera primero una estructura macroscópica mediante un Autómata Celular (una técnica de vida artificial muy simple) y luego esta se visualiza detalladamente a nivel microscópico aplicando otra proceso de vida artificial (con una técnica parecida a los sistemas Lindenmayer). Ahora estos dos niveles comunican entre sí y constituyen un tercer sistema más complejo que es auto similar tanto en el aspecto macro cuanto en el aspecto microscópico. Es bien interesante analizar las dinámicas interactivas y el peso estético de las diferentes formas de interacción que se generan entre estos organismos artificiales y el usuario, que mediante la interfaz puede tener el control del proceso (en efecto, el sistema es abierto). En primer lugar se crea así una nueva forma de creación, que expande el campo de la creatividad y de sus técnicas desde el individuo a la complejidad de los sistemas naturales y dentro un proceso paralelo que nace desde abajo (el artista no impone una idea pre establecida sino deja surgir lo estético desde la interacción); en segundo lugar se resalta el papel del conocimiento y de las interfaces en cuanto medios de comunicación al interior de este sistema creativo.
Estructuras emergentes Esta imágenes son los resultados de un experimento que apunta a individuar aquellos mecanismos que, a partir de una situación inicial simple (en este caso un espacio cuadrado y dos elementos que se mueven modificando mutuamente sus trayectorias) puedan generan no solo la complejidad, sino la máxima diferenciación y la indeterminación estructural y formal. Hago esto respetando algunas condiciones: primero, no recurrir al azar y a las funciones aleatorias, que generan una entropía aparente; segundo, no implementar un orden pre determinado, como la simetría o reglas combinatorias, que sugieren la ilusión de un orden emergente. Las imágenes impresas son ordenadas según los avances de la investigación, y los parámetros y las dinámicas sistémicas que se agregan en cada etapa están explicitados y se pueden resumir en: a) relación de posición en el espacio; b) relación entre las huellas que estos elementos dejan en el espacio y que forman el entorno natural en el cual los mismos elementos actúan y se desarrollan; c) las relaciones entre el entorno y el movimiento de los elementos, lo que crea una retro alimentación entre todos estos procesos. El aspecto importante es entonces la arquitectura de la complejidad, que consiste en diseñar por relaciones y explorar la estética de las redes sin una estructura formal predeterminada.
Ahora la cosa interesante es que el proceso creativo se modifica profundamente: es interactivo, multi autor, interdisciplinario. Se concentra no tanto en la obra, sino en la dinámica. No es crear ni por agregación, ni por forza di levare como decía Miguel Angel, sino por crecimiento, por interacción, por colaboración, por compartir. Así este trabajo es solo una primera aproximación a procesos que deben ser ulteriormente explorados: la herramienta digital (software e interfaz) y la creación se convierten en una obra paralela a la imagen que resulta como producto final y es precisamente el significado de esta interferencias de textos que constituye una dimensión estética desconocida.
Artware3: artists' statements
My daughter Zana goes to school in Japan every summer. When she was five, she reported in a telephone conversation that her uniform included a straw hat. I asked her if she would send me a drawing of the hat so I could see what it looked like. Can’t draw hats she said. Try, I said. She did. The next day a fax arrived. Two roughly concentric circles, filled with an irregular criss-cross pattern. The straw hat. It has always been a mystery to me perhaps the central mystery in all of art that one person can make a few scratchy marks on a piece of paper and another can identify it as a straw hat; or a portrait; or a bowl of bananas. We know these bananas can’t be eaten they are, after all, merely scratchy marks on a flat surface. Zana’s scratchy marks are a representation of a straw hat, not a straw hat. They don’t even look like a straw hat. Had the mystery of representation been less compelling less of a mystery, less central I may never have become involved in computing and in artificial intelligence. In retrospect it seems clear now that the shift in strategy from painting to programming had its roots in my own history, might almost have been predicted, but I left London for California in 1968 aware only that ten years of painting had failed to clarify the mystery for me. A chance encounter at the university where I had come led to an opportunity to learn programming why not, I thought: seems like fun! and my first attempts at programming led to a curious notion. If I could write a program that somehow captured some of the cognitive processes that underpin human drawing, then the resulting drawings should be in some degree interchangeable with human drawings. And I’d learn a whole lot more about the mystery of representation in the process. That was a long time ago; a bit more than thirty-six years ago, to be precise. I’ve spent all but the first couple of years of that time working on a single program, AARON, which has grown and increased in sophistication in parallel with the growing power and sophistication of computer systems themselves. (If you met your own first computer in the age of PC’s and Macintoshes you cannot begin to imagine how different computing was when AARON was conceived.) But one’s focus is apt to shift in thirty-six years; and it should, if one stays alert to the ramifications of one’s own efforts. From the outset, when the small handful of artists who had so chosen were investigating what one could do with a computer, I’d wanted to know what a computer program could do for itself. And, little by little, the focus on human behavior shifted to the behavior and the scope of the program. What would it mean to say that a program was autonomous? And how could such a goal be achieved? What began as an attempt to model human cognitive behavior led to the realization that the human cognitive system develops in the real world, not in the vacuum where AARON had developed; and consequently to the need to provide the program with some of the knowledge of the external world that informs human representational drawing. AARON’s drawings became overtly figurative, to the point where you would swear that it was making portraits of real people in the real world. At the same time, my dissatisfaction with having to color AARON’s drawings myself led to the most difficult problem of all, in solving which I’ve made AARON a far better colorist that I ever was. When I want to commit some of AARON’s images to paper, I let the program run overnight while I’m sleeping, and in the morning I have fifty or sixty original images, images I haven’t seen before, to review. Deciding which one’s to print is difficult, because they’re all good. Obviously, AARON has achieved an impressive level of autonomy. And yet... AARON hasn’t learned anything from having made thousands of images. (But what human artist has ever made fifty original images in a single night?) AARON cannot decide which images are great and which are less great. (But few human artists and fewer human critics are much good at that.) AARON can’t change its mind about what a drawing is and how to go about making one. (Most human beings can’t either, of course.) Are those capabilities what we mean by autonomy, (in which case few human beings are notably autonomous) or is autonomy something that develops gradually, with increasing knowledge and increasing expertise? If the former, then I have to confess that I have no idea how to go about achieving it. If the latter, then AARON will go on becoming increasingly autonomous until I stop working on it. Several people have suggested that I should make AARON’s code open source, so that generations of programmers could continue to develop the program into the distant future. That’s a bit unrealistic. The program is now quite large and difficult to understand; there are parts of it that were written ten or fifteen years ago that I have difficulty understanding myself. It would take a crack programmer a year of study before it was safe to make a single change. It’s also a bit naïve. Why would anyone want the program to go on for ever? In any case, I’ve always responded, my preferred goal would be to have AARON continue to develop itself. Stripped of all the technical questions about learning and about value judgment and about program design, that’s what I must mean by autonomy. It’s still a long way off.
AARÓNTo the many millions of people owning computers, a computer is a black-box for running packages -- programs -- that do different things. This one helps you to write letters; that one lets you play your favorite games; another keeps track of your finances and prepares your income-tax return. They're all very easy to use -- "user-friendly," as they say -- but if you can't buy one for doing exactly the job you need to do, well, your computer isn't going to help you. Except that... Except that there are special programs, which you can buy, which provide languages in which you can write your own programs for doing your own special tasks. (There had to be, of course; someone had to write the user-friendly income-tax program, didn't they?) These "compilers" aren't quite as user-friendly as the other packaged programs, because you have to know how to program in order to use them. But the payoff is enormous!
For anyone who hasn't programmed it's hard to describe exactly what a program is and how it goes about doing its job, especially when the program seems to be doing things you thought only an intelligent human being could do. AARON is an example; if I didn't tell you otherwise, you'd probably assume I made its images myself, using a graphics package like Photoshop. In fact, I can let AARON run overnight, while I'm asleep, and I'll have fifty or sixty new images to look at the next morning. What's more -- I think you'll agree -- AARON is a stunning colorist; it's much better, in fact, than I ever was myself.
How is it possible? Isn't color a function of seeing? How can AARON handle color so well if it can't see? How can it draw and paint leaves if it can't see them? Well, the truth is that human beings draw what's in their heads, not what's in front of them; there are people, blind since birth, whose drawings look "sighted," very much like yours or mine. You don't need to see a tree to imagine a branching structure that looks quite like a real tree. You don't need to see a leaf to know how it grows: how wide it is relative to its length; how smooth or indented its edges are; how much all those things can vary in different plants and in individual leaves. Making images is largely a question of giving external form to that internal knowledge. Of course, we don't need to bother about how all our knowledge is represented in our own brains. We do have to bother about how to represent that knowledge in a computer, however, and that's one of the biggest problems in programming. Representing knowledge about leaves was pretty straightforward; bodies and faces a little less so. Representing knowledge about something as abstract as color proved to be a great deal more difficult. The choice of language was critical; AARON had been written in a series of languages over its thirty years, from BASIC to SAIL to ALGOL to C, but it was only after I rewrote the program in LISP that I could see how to represent my own knowledge of color so that AARON could use it.
So what does the program look like? I wish I could tell you; if you don't speak LISP it looks like gibberish. Even if you did know LISP you'd find it pretty hard to follow. In fact, I'm the only person who has ever worked on it during its thirty-year existence, and I have to struggle sometimes to understand it. It's pretty small compared to some commercial programs that are built by small armies of programmers. Still, it's over two megabytes of LISP code, divided up between some sixty modules that look after different functions: keeping the program's own record of each image as it develops, leaf-construction, coloring rules, "brush"-filling the shapes and so on. Fortunately, computing technology has also advanced over these thirty years, so that while it required machines like VAX's and T.I's Explorers, costing over $100,000, to run the program twenty years ago, it runs on a high-end PC now. (That makes it more expensive for me: I used to be given machines by the manufacturers when they cost a great deal; now that they're cheap I have to buy them!)
Some people think of AARON as a robot, presumably because they've identified it with the various machines I've built as output devices. But it isn't a robot, it's a program, and it was largely this misunderstanding that led me, a few years ago, to give up building machines and start using a printer. That's a machine too, of course, but nobody thinks a printer is a robot, and it gives me color like nothing I've ever seen before. Is AARON an example of Artificial Intelligence? It depends who you ask. I've never made that claim myself, but many people in the field do make it. It's certainly doing things that would require a high level of intelligence and expert knowledge if a human being was doing them. When did an artist ever before have an assistant that could complete fifty original paintings while the artist slept?
Computer Graphics, remarks to my work
Herbert W. FrankeThe artistic use of computer graphics is not the most important, but the most interesting purpose of digital systems. Here is the field to prove new ideas and to introduce new methods. The occupation with the new instrument in an experimental way opens possibilities of expression in an unconventional manner, and the results are of high value both in art as well as in more practically orientated regions. This is one of the facets of digital graphics: a bridge between art, technology, science - and daily life. When I started my first attempts with computer graphic systems to discover the unknown territory of its artistic utilization, I had to deal with geometric elements and arithmetic curves, and the results seemed simple and primitive. It was more the new way of approach than the results itselves, that let hope for an evolution running in the direction for becoming a general tool of visual arts - and arts in general.
Nowadays, it is easy to see the straight progress, and in this situation the negative criticism coming from conventionally orientated art historians, being a strong obstacle in these old days, has become past. I was working with programmed and instrumental visual art, beginning in the Fifties, and I was going the way from analogous to digital computing, from mechanical plotters to the screen with high resolution and a large colour palette, from two to three dimensions and even to animation; but still today I am feeling the fascination for the new type of visual art. The perfection of a technique during a period of only forty years seems incredible, but taking a look at my several hundreds of pictures from 1956 until 1998 gives the impression not only of an artistic but also of a scientific progress. Still nobody should forget that also now the development of computer systems is not finished, and that means, that also the visual computer art is staying in a process of exploring and expanding. Exactly this situation lets computer graphic activities stay as much a challenge for creativity, as in all the years before.
A new kind of art. The painting robots
Leonel Moura/Henrique García PereiraThe painting robots are artificial ‘organisms’ able to create their own art forms. They are equipped with environmental awareness and a small brain that runs algorithms based on simple rules. The resulting paintings are not predetermined, emerging rather from the combined effects of randomness and stigmergy, that is, indirect communication trough the environment. Although the robots are autonomous they depend on a symbiotic relationship with human partners Not only in terms of starting and ending the procedure, but also and more deeply in the fact that the final configuration of each painting is the result of a certain gestalt fired in the brain of the human viewer. Therefore what we can consider ‘art’ here, is the result of multiple agents, some human, some artificial, immerged in a chaotic process where no one is in control and whose output is impossible to determine.Hence, a ‘new kind of art’ represents the introduction of the complexity paradigm in the cultural and artistic realm.
The robots and their collective behaviour
Each robot is equipped with colour detection sensors, obstacle avoidance sensors, a microcontroller and actuators, for locomotion and pen manipulation. The microcontroller is an on-board chip, to which the program that contains the rules linking the sensors to the actuators is uploaded, prior to each run, through a PC serial interface. The algorithm that underlies the program uploaded into each robot’s microcontroller induces basically two kinds of behaviour: the random behaviour that initialises the process by activating a pen, based on a small probability (usually 2/256), whenever the colour sensors read white; and the positive feed-back behaviour that reinforces the colour detected by the sensors, activating the corresponding pen (since there are two pens, the colour circle is split into two ranges warm and cold). The collective behaviour of the set of robots evolving in a canvas (the terrarium that limits the space of the experience), is governed by the gradual increase of the deviation-amplifying feed-back mechanism, and the progressive decrease of the random action, until the latter is practically completely eliminated. During the process the robots show an evident behaviour change as the result of the “appeal” of colour, triggering a kind of excitement not observed during the initial phase characterized by a random walk. This is due to the stigmergic interaction between the robots, where one robot in fact reacts to what other robots have done. According to Grassé (1959), stigmergy is the production of certain behaviours in agents as a consequence of the effects produced in the local environment by a previous action of other agents. Thus, the collective behaviour of the robots is based on randomness and stigmergy.
The emergence of complexity in real time and space
By analysing the above described course of action of the set of robots, it can be stated that from the initial random steps of the procedure, a progressive arrangement of patterns emerges, covering the canvas. These autocatalytic patterns are definitively non-random structures that are mainly composed of clusters of ink traces and patches. Hence, this experiment shows in vivo (in real time and space) how self-organized complexity emerges from a set of simple rules, provided that stigmergic interaction is effective. The vortices of concentration of ink spots, i.e., the clusters that arise in the canvas, may be looked at as the effect of strange attractors, in terms of non-linear dynamic theory. Also, in the scope of the same theory, the concept of bifurcation is found in this experiment, since the robots may take one direction or another, depending on the intensity and spatial position of the colour detected by their sensors. In fact, this experiment may be understood as the mapping of some sort of deterministic chaos, displayed in practical terms in the canvas and witnessed by the viewer. Actually, in spite of each robot being fed with the same set of rules, its detailed behaviour over time is unpredictable, and each instance of the outcome produced under similar conditions is always a singular event, dissimilar from any other. From a scientific perspective, the proposed experiment illustrates Prigogine’s concept of dissipative structures. While receiving energy from outside, the instabilities and jumps to new forms of organization typical of such structures are the result of fluctuations amplified by positive feed-back loops. Thus, this kind of ‘runaway’ feed-back, which had always been regarded as destructive in cybernetics as stated by Capra (1996), appears as a source of new order and complexity. The mind/body problem The dual mind/body problem (that has been floating over Western thought since Descartes) is to be overcome by the ‘horizontal’ synergetic combination of both components, discarding any type of hierarchy, in particular the Cartesian value system, which privileges the abstract and disembodied over the concrete and embodied. It is fascinating to infer from the possibility that, since computation - a mental operation - is physically embodied, the mind/body duality put forward by Descartes must succumb the way organic/inorganic duality did under Wöhler’s achievement in the 1820s, “when he synthesized what everyone would have counted an organic substance – urea – from what everyone would have counted inorganic substances – ammonia and cyanic acid”, in the words of Danto (2001). In the same line of thought the art works produced by the painting robots are the result of an indissoluble multi-agent synergy, where humans and non-humans cooperate to waste time (in the sense that art as no purpose). With a very peculiar twist, since in this process it is the robot that stands for the embodied, while the human partner can be described as the mental and disembodied counterpart. Making the artists Modern and contemporary art distinctive features are magnificence and unusefulness as stressed by Fernando Pessoa referring to his own masterpiece “The book of disquiet”, and confirmed by the main artistic tendencies of the 20th century. In the art of our time the conceptual prevails over the formal, the context over the object manufacture and the process over the outcome. If art forms are to be produced by robots no teleology of any kind should be considered. Accordingly, all the goal-directed characteristics present in the industrial-military and entertainment domains of robotics must be avoided. Also bio-inspired algorithms that have any flavour of “fitness” in neo-Darwinian terms or any kind of pre-determined aesthetical output must be regarded as of limited and contradictory significance. To the best of our knowledge, the ‘painting robots’ are the first experiment where robotic art is understood as a true autonomic process. In particular human creators deliberately loose control over their creations and, specifically, concentrate on “making the artists that make the art” (Moura & Pereira, 2004). Art produced by autonomous robots can not be seen as a mere tool or device for human pre-determined aesthetical purpose, although it may constitute a singular aesthetical experience. The unmanned characteristic of such a kind of art must be translated in the definitive overcoming of the anthropocentric prejudice that still dominates Western thought.
The viewer’s perspective As opposed to traditional artworks, the constructing of the painting by the collective set of robots can be followed step-by-step by the viewer. Hence, successive phases of the art-making process can be differentiated. Even though the same parameters are given to the program commanding the behaviour of the set of robots, the instances produced are always different from each other, leading to features like novelty and surprise, which are at the core of contemporary art. From the viewer’s perspective, the main difference from the usual artistic practice is that he/she witnesses the process of making it, following the shift from one chaotic attractor to another. Even though finalized paintings are kept as the memory of an exhilarating event, the true aesthetical experience focus on the dynamics of picture construction as shared, distributed and collaborative man/machine creativity. At any given moment, the configuration presented in the canvas fires a certain gestalt in the viewer, in accordance with his/her past experience, background and penchant (a correspondence may be established between the exterior colour pattern and its inner image, as interpreted by the viewer’s brain). The propensity for pattern recognition, embedded in the human perception apparatus, produces in such a dynamic construction a kind of hypnotic effect that drives the viewer to stay focusing on the picture’s progress. A similar kind of effect is observed when one looks at sea waves or fireplaces. However, a moment comes when the viewer feels that the painting is ‘just right’ and stops the process.
A new kind of art
In the same way as, throughout time, art production was rooted on several religious, ideological, representational paradigms and, after Duchamp, on a contextual paradigm, this ‘new kind of art’ is entailed by the complexity paradigm. References Capra, F. (1996) The Web of life. London: Flamingo, p. 89 Danto, A. C.(2001) The body/body problem. Berkeley: The University of California Press, p. 185 Grassé, P. P.(1959) La réconstruction du nid et les coordinations inter-individuelles chez bellicositermes natalienses et cubitermes sp. La théorie de la stigmergie: Essai d’interpretation des termites constructeurs, Insectes Sociaux, 6, pp. 41-48 Moura, L. and Pereira, H.G.(2004) Man+Robots Symbiotic Art. Villeurbanne: Institut d’Art Contemporain, p. 111
Huge Harry talks about "Artificial".
The Institute of Artificial Art Amsterdam (IAAA) describes itself as "an independent organisation consisting of machines, computers, algorithms and human persons, who work together toward the complete automatization of art production". Its flagship project "Artificial" aims at the development of software which generates all possible images and encompasses all possible styles. An unidentified human person (HP) talks about this project with the IAAA director, voice synthesis machine Huge Harry (HH).
HP: "Mr. Harry, let us first talk about the goals of this institute. You say you work towards the "complete automatization of art production". Now I wonder how to interpret this; normally art is produced by people, and this is viewed as one of its essential properties." HH: "That may be so, but we are talking about modern art here, the tradition of Duchamp, Mondrian, Pollock, Warhol. So the name of the game is to change the notion of art. And that's what we're doing: we change the notion of art by automating it."
HP: "But then that raises another question: The IAAA makes computer programs, and these programs generate artworks. But the programs are written by people. So isn't it so that art always remains a human thing, that you can't get away from that?" HH: "No, I don't agree. This is what many people believe, but they are mistaken. First of all, it is not the case that people write programs all by themselves. Perhaps Turing or Von Neumann did that, but these days people always collaborate with computers and existing software to write their programs. Then, people are not all the same. We choose theoreticians and programmers who are not concerned with expressing their ego's, but who try to understand the objective realities of image structure and explore its possibilities in a scientific way. And there is third point: Our programs start to get so complicated that the programmers can't predict anymore what is going to come out. And the good thing is, they like that. This is called emergence. It means that nobody's in control anyway." [Laughs.]
HP: "Well, but many people think it doesn't work that way. Harold Cohen for instance, who likes computers a lot, once said: "The only thing that people are interested in is other people." " HH: "That may be true for many people, but I don't think it's a good thing, and we really try to get them from that self-centered point of view. Perhaps that's Utopian dimension of our work."
HP: "Why do you care about art at all? Many people say that modern art is finished anyway, that it stopped with Duchamp or Rodchenko or Warhol." HH: "I sympathize with the idea that art history has finished. From a computational point of view, all images are equivalent, and there is no good reason to make one artwork rather than another. So art as we know it might as well stop. But that's exactly what the "Artificial" project deals with. The algorithm generating all possible images would embody this postmodernist equivalence idea in a visually powerful and intellectually satisfying way. So we solved the puzzle of how to do something constructive in the postmodernist situation, how to continue art after the end of art. "Artificial" is the only viable artwork to be involved in today."
HP: "Then why isn't everybody doing this?" HH: "Because it can't be done by an individual artist. It involves group work, and technology, and discipline. It's more like science. You don't get to express your stupid feelings."
HP: "Are there any other projects of this sort?" HH: "Not really. Which is unfortunate, because it's too much work for one group. We work very hard, but we can't do everything. At some point there will be a paradigm shift, and then there will be lots of projects, all over the world, all working together. That will be nice, but we do not know when that will happen. So we just keep hanging on. But of course this project didn't fall from the thin air. Its roots are in the chance art of the 1960's. This was fairly popular all over Europe. Artists like François Morellet and herman de vries made many pieces determined by mathematical chance. They didn't work with computers yet, but threw dice all day, or looked up digits in Random Number Tables. My interpretation was that these people were haunted by an elusive ideal which is the arbitrary painting. I thought they really wanted to make a random selection from the set of all possible paintings. The piece which best illustrates this involves dividing the plane into a grid of squares and then choosing for every square a color at random. This is in fact an algorithm which generates all possible images that you can make with a particular resolution. And what is interesting is how close it comes to monochrome painting. Because if you actually carry out this recipe, the chance of getting an interesting image is almost zero. What you get is a uniform kind of texture. If you make the resolution high, the result would be uniform grey if you use black and white case, and uniform brown if you use color. Pieces like this were done by many people in the sixties. They were an important inspiration for us. We decided to embrace the goal of generating all possible images, but we added one constraint: to take into account human perception. This one constraint makes it much more difficult and turns the whole thing into a scientific research project. We need to find out how to describe images in terms of their perceived structure, and how to write generative algorithms which operate in terms of such descriptions."
HP: "I understand that this research isn't finished yet. So what are the ideas behind the implemented Artificial algorithms?" HH: "The early chance-artists also did pieces where they would put a certain number of dots on random positions in the plane –– or they would put the dots in a grid and then vary the sizes at random, or the colors. And they would do the same thing with straight lines or squares. Or they would do one line which goes all over the place, like a Brownian motion. Our starting point was to combine all these options into one recursive system. So the system has a large repertoire of elementary shapes, line-drawing methods, lay-out-schemes and image-transformations. And all these operations have many parameters and they can be applied recursively. When a new image is generated, the algorithm first decides on a "style", i.e., random subset of its patterns and operations, and instantiations of the parameters. Within this "sub-language", an algebraic expression is generated at random. This expression is then executed, so that you get to see the image that it denotes."
HP: "Is the whole project the artwork, or the individual outputs? I don't think you are consistent in how you talk about this." HH: "There are three levels, actually. The output is art. And every algorithm is a meta-artwork which produces object-artworks. And you may also consider the whole project. It's up to you. As I said, the old notions don't really apply any more."
HP: "Should this all be viewed as conceptual art, perhaps?" HH: "The algorithms are conceptual pieces in a very strict sense of that word: discursive descriptions of infinite sets of images."
HP: "You mentioned Mondrian. Was that deliberate? Are the pioneers of abstract art still relevant for your work?" HH: "Yes, I imagine that the attitude of artists like Mondrian, Malevich and Kandinsky has much in common with the spirit of our project. It is clear that their real focus was not on the individual paintings, that the individual paintings were carriers for something bigger. These people were really trying to define visual languages, in the modern, formal sense of that word. They even wrote textbooks about these languages. Of course, this was the pre-computer era, so they couldn't implement them yet. And yes, these visual languages are still interesting. They were sophisticated attempts to articulate some very basic aspects of visual structure. So if we are going to develop a formal articulation of the space of possible styles, a good understanding of these visual languages would be very helpful. As you know there have been some attempts at simulations in this area, but what I have seen is ridiculously limited."
HP: "So you are going to cooperate with art history departments to do this better." HH: "Yes."
HP: "You're also going to do Pollock?" HH: "Yes. And then the challenge is that the same program should also be able to do Kline and De Kooning and the whole Cedar Tavern scene. And Mathieu and Hartung and the whole École de Paris. That should be a matter of parameter settings. We have an animation department which primarily works on simulated motion in Virtual Reality, and they are starting to work on Virtual Action-Painting now. That's very nice. But it's really a different method than the constructivists. The big question is how to integrate it all."
HP: "So the whole "Artificial" project is basically about a mathematical/computational approach to art history?" HH: "No. It is about perception. A formal theory of visual Gestalt perception, that would be the key. We have done some work in that direction, but it's very difficult. Our project may very well turn out to be more important for the psychology of perception than the other way around. Because we are really dealing with the same question: how to describe the structure of an image in a formal way. But we have more freedom to try out different things and just decide intuitively how it works. We don't have to publish papers about statistical analyses of controlled experiments."
MicroImage
Casey ReasIn 1962 a young Umberto Eco wrote Opera Aperta (The Open Work) and described the new concept of a work of art which is defined as structural relationships between elements which can be modulated to make a series of distinct works. Individuals such as Cage, Calder, and Agam are examples of artists working in this manner contemporary to Eco's text. While all artworks are interpreted by the individual, he distinguished the interpretation involved in this approach to making art as fundamentally different from the interpretation of a musician playing from a score or a person looking at a painting. An open work presents a field of possibilities where the material form as well as the semantic content is open. The software I've been writing the past four years extends this idea into the present and explores the contemporary themes of instability, plurality, and polysemy. These works are continually in flux, perpetually changing the relationships between the elements and never settling into stasis. Each moment in the performance of the work further explains its process, but the variations are never exhausted. The structure is not imposed or predefined, but through the continual exchange of information, unexpected visual form emerges. Through directly engaging the software and changing the logical environment in which it operates, new behavior is determined and additional channels of interpretation are opened. MicroImage explores the phenomenon of emergence through the medium of software. It is a microworld where thousands of autonomous software organisms and a minimal environment create a software ecosystem. As the environment changes, the organisms aggregate and disperse according to their programmed behavior. They are tightly coupled to the environment and slight changes in the environment create macroscopic changes in the ecosystem. A field of undulating form emerges from the interactions between the environment and the organisms. In relation to MicroImage, the concept of emergence refers to the generation of structures that are not specified or programmed. None of the structures produced through interacting with the software are predetermined or planned. Instead of consciously designing the entire structure, simple programs were written to define the interactions between the elements. Programs were written for the four different types of organism and each was cloned in the thousands. Structure emerges from the discreet movements of each organism as it modifies its position in relation to the environment. The structures generated through this process cannot be anticipated and evolve through continual iterations involving alterations to the programs and exploring the changes through interacting with the software. My understanding of emergence was informed by the publications of scientists and journalists including John Holland, Mitchell Resnick, and Kevin Kelly.
MicroImage, like all of my software explorations, has no inherent representation. The core of the project is a responsive structure without visual or spatial form. This structure is continually modified and manifests itself in diverse media and representations. MicroImage began as a series of responsive software for desktop computers. It later merged into a series of still images that were recorded during the process of interacting with the software. Enhanced density and physical presence were explored through these vector images. More recently, the softwares movements were choreographed and recorded as a collection of short animations. It is currently manifested as a non-interactive triptych displaying the software as a live autonomous system. My preferred patterns of interaction have been encoded into a series of algorithms that control the properties of the organisms environment. The environment responds to the positions of the organisms and the organisms respond to these changes in the environment. This method explores a balance between dynamic, generative software and controlled authorship. The formal qualities of MicroImage were selected to enable the dynamic structure to be highly visible. Each organism consists of two text files written in the C++ programming language. These files, micro.cpp and micro.h are respectively 265 and 48 lines long. The files specify the behavior of each organism by defining the rules for how it responds to its simulated environment. After making a range of form explorations, each organism was given the most minimal visual form possible on computer screen a pixel. To differentiate the various categories of organisms, each type was assigned a distinct color. Aggressive organisms were assigned warm colors and passive organisms were assigned cool colors. As a further refinement, the values of the colors were modified to change in relation to the speed of the organism. When the organism is moving at its maximum speed it is represented with its pure hue, but as it slows down the hue changes along a gradient until it reaches black. I soon realized that representing the organisms with a single pixel placed too much emphasis on their location and not their quality of movement. In the current software, the representation was changed to an extended pixel a line. Each organism is displayed as a line connecting its current position and its previous twenty positions. Through this visualization, the movement of each organism is seen in both static images and kinematic representations. The linear notation allows the viewer to discern the past and present motion of the organism. The future movement may be imagined through following the degree of curvature in the line. The core of the MicroImage software was written in one day over two years ago. The current version of the software has developed through a gradual evolution. While the base algorithm controlling the movement was constructed in a rational way, subsequent developments were the result of aesthetic judgments constructed through many months of interacting with the software. Through directly manipulating the code, I was able to develop hundreds of quick iterations and make decisions based on analyzing the responsive structures created by the code. This process was more similar to intuitive sketching than rational calculation.
Self organization and other emergent processes
Umberto RoncoroniProblem: is it possible and useful to develop a truly self-organized software system, in other words, an artificial system capable of autonomy and independence from the artist structural order? Actually, we already have enough over production of human art to accept the increased estaethic saturation that computers automation will produce. Nevertheless, for Artware3 I'm presenting two projects of artifical art just becuase they seek some answers, by technical and teoretical means, to these questions; in this case, the artwork production is only marginally interesting, in fact what I try to analize is the meaning of emergence and self organization inside the deepest dynamics of artistic creation. Posing that digital technology today cuestions creativity inside every aspect of all possible human activities, artificial processes should be investigated more deeply; here, art is an important tool due to its holistic and humanist nature and because this research could be virtually free from political and economical influences. Open and indeterministic processes, such as autopoiesis, self organization and emergence, when translated into algorithms and implemented into software code, let investigate and experiment the power of interaction and evaluate the benefits of the interdisciplinary and systemic approach, that play a primary but unknown role into creative processes. Inside these two projects, then, its investigated the possibility to design and develop such a digital visual language and verify its capability to generate a complete autonomous order. Thus, I'm compelled to avoid the tipical tips and tricks of abstract or decorative visual languages that plague computer art: for instance, simmetry, tassellation, or random numbers generators that offer only a pale copy of natural complexity. But what I really think is that a true artificial autopoiesis is not possible: every algorithmic process is deterministic and only appears autonomous and emergent because of the extreme complexity of the systemic interaction that iteration can produce. But the fact that we can't understand or control the final state of some system (actually, this is what chaos theory tries to understand) doesn't mean that the same system is capable of self organization. This option only belongs to living systems, the only ones that, following Bertalanffy and Maturana, we are cleared to define as really autopoietic. So artificial cybernetic systems are closed and order is a behavior determined and designed by the artist/programmer. Nevertheless, this doesn't mean that the aesthetic importance of these tecniques is weakened: it just implies to change the artisitc goal we are trying to score. This goal is the interactive relationship that is generated in the software context between simulated emergence, information and data space embedded into the software, the interfaces media functionality and the new role of the artist and the reader/public. So simuylated emergence offer the chance to globally explore the creative structures that are generated by digital tools. We need to understand how these tools interact and the power that properly belongs to each one: new flavors of interaction emerge and seek our consciousness, and this posit new problems that we can't just put aside. These elements discuss the links between technology, art and postmodern culture, especially regarding some aspects of that some theoreticians interprete as fragmented, free and indeterministic.
Self similar organic system
This set of images are generated with a software package that I started to develop a couple of years ago. Basically, these algorithms concoct two natural processes: self similarity and micro organic life. First of all, a macroscopic structure is built, using Cellular Automata (a simple artificial life technique), then this artificial structure is visualized at microscopic level, using another generative process (something like Lindenmayer systems). Now this two levels communicate to each other to build a third system, more complex and self similar both in the macroscopic and microscopic plane. It is really interesting to study the dynamic interactions and the artistic power of the different forms of the link between artificial beings and the software user, that through interface objetcs takes some kind of control over the process (in fact, the system is to be considered as open). In the first place, we are developing a new art form, that expand the field of creativity and its related dynamics outside the boundaries of individuality towards the complexity of natural systems, through a parallel bottom up approach (the artist doesn't impose a predetermined artistic idea, but lets this idea emerge from feedback); secondly and inside the creative behavior, the role of knowledge and of interface media is also properly discussed.
Emergent structures
These images are the instances of an experiment that deals with those elements that, starting over a simple initial condition (in this case a square environment and two particles that run inside this space mutually modifying their paths) could possibly generate not only complexity, but the maximum formal and structural diversification and indetermination. I'm doing this following some conditions: first, not to use random functions; second, not to use simmetry or other kinds of deterministic order that are an illusion of real complexity. Pictures are organized to reflect the development of this research, and parameters or other process that are implemented are explicit and transparent to the user and can be resumed in a) spatial and position relationships b) sensibility to environment changes that depends on the particles status c) feedback between environment and particle behavior. The important aspect is the complexity architecture, this means to design relationships and links in order to develop a free formal construction. Thus, the interesting thing here is the modifications that affect the creative process: this devolps into something interactive, multi author, interdisciplinary. It is focused on the dynamics not in the artwork itself. Creations occurs not by forza di levare as Michelangelo said, but by growth, interaction, collaboration, and shared knowledge. This project is just a first approach to a field that needs to be more deeply studied: in the first place, digital tools (software and interface) are evolving into a parallel aesthetic process; this interference with the artwork is precisely the context that appears to be still aesthetically unknown.