Universidad Politécnica de Madrid Escuela Técnica Superior de Arquitectura El Entorno Aumentado Imperativo informacional para una ecología digital de lo arquitectónico Tesis doctoral Eduardo Roig Segovia 2014 Departamento de Ideación Gráfica Arquitectónica Escuela Técnica Superior de Arquitectura El Entorno Aumentado. Imperativo informacional para una ecología digital de lo arquitectónico. Autor Directora Arquitecto Eduardo Roig Segovia Dra. Arquitecta Atxu Amann y Alcocer Tribunal nombrado por el Magnífico y Excelentísimo Sr. Rector de la Universidad Politécnica de Madrid, el día de de 2014 Presidente D. Vocal D. Vocal D. Vocal D. Secretario D. Realizado el acto de defensa y lectura de la tesis ‘El Entorno Aumentado. Imperativo informacional para una ecología digital de lo arquitectónico’ el día de en Calificación: EL PRESIDENTE LOS VOCALES EL SECRETARIO de 2014 Mi gratitud para Atxu por aumentar con tu mirada dialéctica, cómplice y cercana el sentido de esta investigación y otros maravillosos sinsentidos Javier Seguí, Andrés Perea, Antonio Miranda, Paco Alonso por aumentar mis atenciones y profanar mis fronteras Andrés Cánovas, Nicolás Maruri por aumentar la temperatura ya extrema Francisco de Gracia por aumentar el mensaje con tu cirugía José Mestre por aumentar con tu tekne este logos Javier y Cruz Daniel por aumentar con videojuegos una infancia compartida Ion Cuervas-Mons, Keiichi Matsuda por aumentar lo arquitectónico Nieves por el hábito de aumentar mis sueños A mis abuelas. A mis padres, por todo. ‘Todas las instituciones que aseguraban una cierta estabilidad han dejado paso a una individualización: yo y el mundo. Yo con las redes que yo me construyo en el mundo’. Manuel Castells (2009), ‘Comunicación y poder’. Resumen Esta tesis se suma a los intentos teóricos de clarificar la impronta del dominio digital en lo arquitectónico. Propone una cartografía crítica para reconstruir el proceso de tal convergencia considerando aquellos acontecimientos reveladores que lo han pautado. La integración de la extensión digital propia las tecnologías de la información y la comunicación en el contexto tradicional arquitectónico ha supuesto el advenimiento de un ecosistema artificial complejo. A esta realidad o proceso concurrente se la denomina el Entorno Aumentado. La línea principal de investigación explora el desarrollo de la interacción hombre-máquina, en sendas trayectorias sincrónicas convergentes. El análisis se aborda por tanto desde la consideración de esa naturaleza dual, atendiendo simultáneamente a la humanización del dominio digital o cómo la computación se adapta a la condición natural de ser humano, y a la digitalización del ser humano o cómo éste asume el imperativo digital. El análisis resulta vertebrado desde la condición panóptica del punto de observación del acontecimiento: la cuarta pared, entendida como pantalla y punto de inflexión que estructura la convergencia de los entornos físico y digital. La reflexión acometida sobre la construcción del Entorno Aumentado procura la verificación de la tesis, que es central en esta investigación: la multiplicación dimensional del lugar físico mediante su extensión con un campo informacional procedente del dominio digital, y sus efectos en la construcción de la nueva ecología digital propia del Entorno Aumentado. Esta circunstancia se produce tras la eclosión de la Revolución Digital en la segunda mitad del siglo XX, el consecuente incremento de la interacción entre los entornos digital y físico, y el alcance de un nivel superior de comunicación en los procesos arquitectónicos. Los síntomas del Entorno Aumentado se hacen notar en nuestra contemporaneidad; en ese sentido, la tesis alcanza un diagnóstico del cambio. La fractura y obsolescencia del límite espacio-temporal establecido por las dicotomías históricas privado-público, casa-ciudad, trabajo-ocio,…etc., o la vigencia del proyecto procedimental son algunas de sus consecuencias en el modo de abordar la disciplina arquitectónica. Abstract This dissertation aims to complete the theoretical attempts to clarify the digital domain imprint on the architectural realm. It constructs a critical cartography to reconstruct the process of such convergence, considering those principal events who have scheduled it. The integration of TIC’s digital extension through the traditional architectural context has meant the advent of an artificial complex ecosystem. This reality or concurrent process is called The Augmented Environment. The key research attempt explores man-machine interaction process in both synchronous converging trajectories. The analysis therefore addresses from the consideration of this dual nature, focusing simultaneously in humanizing digital domain process or how the computer fits the natural condition of human beings, and in digitalizing human beings or how it affords the digital imperative. The analysis is structured from the panoptic condition of the event scope: the fourth wall as screen that structures the convergence of physical and digital environments. The examination of The Augmented Environment’s assembly pretends the verification of the central point of this research: the dimensional multiplication of physical space by extending informational fields from the digital domain, and its effects on the construction of the Augmented Environment new digital ecology. This circumstance occurs after the arrival of the Digital Revolution in the second half of the twentieth century, with the consequent increase in the interaction between digital and physical environments, and the reach of a higher level of communication in architectural processes. The Augmented Environment signs are alive nowadays; in that sense, the thesis reaches a diagnostic of the changes. The fracture and obsolescence of the time-space limit established by historic dichotomies as private-public, home-city, working-leisure...etc., or the validity of the procedural design are some of its consequences on the architectural discipline. Índice Introducción Objetivos Hipótesis Metodología de investigación Estructura de la tesis Capítulo I. Preliminares al Entorno Aumentado 1.1. Escenario ontológico. Trascendiendo el dipolo de existencia 1.2. Escenario histórico. Cambio de paradigma 1.3. Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información Capítulo II. Revolución digital. Humanización del Entorno Digital (ED) 2.1. Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses 2.2. Cultura mediática arquitectónica. El arquitecto comunicador 2.3. Arqueología del lugar aumentado 2.3.1. Computación y arquitectura. Metamorfosis del retrato de Jacquard 2.3.2. Videojuegos, paradigma arquitectónico del Entorno Digital 2.3.2.1. Cultura arquitectónica del videojuego 2.3.2.2. Un nuevo ámbito de estudio. Los videojuegos ingresan en la universidad 2.3.2.3. Jugador operador investigador. La paradoja del arquinauta 2.3.2.4. Metodologías de análisis del videojuego. Una propuesta metodológica para el análisis del Entorno Aumentado 2.3.2.5. Conquista de la dimensión dinámica en la escena digital del videojuego. Tras los pasos de Lara Croft Capítulo III. Revolución Digital. La impronta digital en lo arquitectónico, una cronología crítica (EF) 3.1. Arquitectura y trasferencia de la información. Arqueología arquitectónica del edificio mediador 3.2. Presagios de la Revolución Digital 3.2.1. Influencias transdisciplinares. Arquitectura y ficción 3.2.2. Alteraciones cinéticas. Preludio de la simultaneidad y el dinamismo digital 3.3. Revolución Digital en la vanguardia artística. Cartografía de la emergencia cibernética 3.4. Revolución Digital en la práctica arquitectónica, 1945-1970 3.4.1. Integración conceptual 3.4.1.1. Vía del lenguaje tecnológico 3.4.1.2. Vía del lenguaje retórico 3.4.2. Integración metodológica: proceso vs producto 3.4.3. Integración operativa 3.4.3.1. Computación y arquitectura mediática TIC. La arquitectura como estrategia de comunicación 3.4.3.2. Arquitectura cibernética. La materialización del diagrama 3.4.3.3. Interacción en la arquitectura sistémica del Estructuralismo 3.4.3.4. Del desenlace arquitectónico al patrón generativo 3.5. Postulados y visiones pre-globales, 1970-1998 Capítulo IV. Post-revolución Digital. El Entorno Aumentado (EA) 4.1. La convergencia tecnológica 4.1.1. Topología del Entorno aumentado. Deriva digital hacia la eclosión 4.0 4.1.2. El fin de la mano mecánica y el advenimiento de la ergonomía post-digital 4.2. El proyecto arquitectónico del Entorno Aumentado 4.2.1. El carácter inteligente de los parámetros. Variaciones sobre un tema 4.2.2. La narrativa proyectual dinámica. Del zootropo a los Serious Games 4.2.3. El chip replicante. En busca paisaje sensorial natural 4.2.4. A propósito del reciclado digital: el proyecto nómada 4.2.5. El proyecto procedimental: arquitectura opensource y proyecto colaborativo 4.3. El hábitat del Entorno Aumentado 4.3.1. La vivienda aumentada. Ciudadanización de la domus 4.3.1.1. Perfil antropológico de la vivienda aumentada. Del morador al electronómada [-11.000, +1998] 4.3.1.2. Interferencia mediática en el ámbito doméstico. Cartografía multimedia de las TIC 4.3.1.3. Interferencia informacional en el ámbito doméstico. Del PostIt de nevera a la realidad aumentada 4.3.1.4. Apuntes sobre la casa del futuro 4.3.1.5. Anatomía de la vivienda aumentada 4.3.2. La ciudad aumentada. Domesticación de la ciudad 4.3.2.1. La disolución del entorno dicotómico tradicional 4.3.2.2. El umbral aumentado. La sintonización del paisaje 4.3.2.3. El entorno transfigurable y el declive de la estética estática. 4.3.2.4. La Ciudad Origami. 4.3.2.5. Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo. Conclusiones Bibliografía Índice de figuras Anexos Apéndice. Glosario de términos. Introducción Objetivo El objetivo de esta tesis consiste en aportar una investigación sobre el actual estado de la cultura arquitectónica, aunque enfocada hacia el estudio de las consecuencias producidas por la emergencia tecnológica de la información y la comunicación (TIC). De hecho propone una reflexión específica sobre la evolución del Paradigma Digital y su eclosión en el Entorno Aumentado, para cuya definición ha resultado determinante el progreso técnico orientado hacia el perfeccionamiento de la interacción hombre-máquina, especialmente la computadora. La historia reciente de la arquitectura adolece de una visión cartográfica de la construcción de esta naturaleza contemporánea híbrida que propone una revisión de la relación entre el ser humano y su hábitat. Con ánimo de documentarla y sin perder la atención prioritaria hacia lo interactivo, se presenta un análisis crítico1 que describe la huella ocasionada por la inmersión de la computadora en la disciplina arquitectónica, tanto en la práctica profesional como en el ámbito académico. La integración efectiva de las ciencias de la computación es consustancial a la Revolución Digital, período que organiza cronológicamente la anatomía de esta tesis. Con la intención de enmarcar este período y aportar luz sobre sus causas y consecuencias, se propone una exploración de sus antecedentes -origen del Entorno Aumentado- y los acontecimientos inmediatamente posteriores que activarán la afinidad entre el Entorno Físico y el Entorno Digital. La hipótesis de partida postula el Entorno Aumentado como función de éstos. En lo que atañe al Entorno Físico, la investigación intensifica su análisis en las décadas de los sesenta y setenta por considerarlas la etapa pionera y esencial de la integración digital en lo arquitectónico. Resulta clave la aportación de la obra de Alison y Peter Smithson, por su atención hacia los nuevos conceptos y sintagmas provenientes de la computación, la experimentación con los medios de comunicación de Charles y Ray Eames, el enfoque cibernético de Cedric Price y Gordon Pask, la incorporación operativa de la computadora en algunos proyectos de Archigram, las propuestas interactivas de los metabolistas japoneses, la arquitectura basada en patrones de Christopher Alexander y las máquinas arquitectónicas computerizadas de Nicholas Negroponte, en el marco del MIT. A su vez, esta tesis constituye una mirada hacia el ámbito académico experimental de la investigación, destacando la influencia de instituciones como el Medialab del MIT y el Centro de Cálculo de la Universidad de Madrid. El trazado de un mapa integrador del fenómeno medialab, en la época pionera y en la contemporaneidad, así como la descripción de sus conexiones y sinergias, resultará consecuencia de la observación de este fenómeno. 1 El calificativo denota ‘interpretación’ en el sentido referido por Seguí (1996: 90): ‘El análisis sólo tiene sentido cuando se busca interpretativamente algo respecto al objeto o la obra que analiza. Analizar una obra es someterla a ciertas hipótesis acerca de su naturaleza y aplicar los instrumentos idóneos para probar si se cumplen’. I El análisis del proceso de integración de mayores ratios de interactividad entre los agentes participantes del proyecto arquitectónico es inherente a la incorporación del entorno digital en la profesión de arquitecto. En este sentido, se articula el reconocimiento del videojuego como paradigma arquitectónico por su esfuerzo en integrar al usuario en la capa digital y su impulso en la conquista de su capacidad de movimiento en el ciberespacio del Entorno Digital; un formato imprescindible en el proceso de la fusión físico-digital. La eclosión del Entorno Aumentado se produce en el marco de la Sociedad de la Información. La evolución y emergencia de las técnicas creadoras, transformadoras y comunicadoras de información ha derivado en la expansión del paradigma tecnológico. La investigación propone un análisis del cambio informacional y mediático, a tenor de las consecuencias operadas en la práctica proyectual arquitectónica y en el usuario de arquitectura. Una vez analizados los antecedentes de la integración de la computadora en la disciplina arquitectónica, la tesis habilita un espacio para la conjetura acerca de la nueva realidad alternativa que supone el Entorno Aumentado. La estructura de la tesis plantea en su capítulo final una colección de indagaciones que reflexionan sobre el proceso de hibridación y describen los fundamentos de la ecología digital característica del Entorno Aumentado. Hipótesis La tesis precisa para su desarrollo de la validez hipotética de unas suposiciones, que si bien no están confirmadas, su formulación aporta el valor de generar capacidad relacional entre los hechos que aquí se investigan, así como desencadenar a la postre la razón de su naturaleza. El valor hipotético se corresponde aquí literalmente con ‘lo que se pone debajo’. Con ese significado cimentador se propone a continuación una serie articulada de enunciados que antecede a otros, constituyendo así sus fundamentos. Hipótesis 1 El Entorno Aumentado (EA) se produce como desenlace de la Revolución Digital, un periodo de cambios que ha supuesto, entre otras cosas, la sustitución del Paradigma Mecanicista por el Paradigma Digital y de la Sociedad Post-industrial por la Sociedad de la Información. La naturaleza técnica del nuevo paradigma y su influencia en la disciplina arquitectónica depara una realidad compleja y transformada. Como hipótesis de partida se considera la condición interactiva que articula la correspondencia hombre-máquina como causa principal de la emergencia del EA. Resulta pertinente acotar el campo de la investigación de los acontecimientos sucedidos a lo largo de la Revolución Digital a aquellos que han sido relevantes a efectos de tal atributo interactivo. Cualquier otra materia que no participe significativamente en la gestación y evolución del concepto de interacción excederá el ámbito de investigación de esta tesis. II Hipótesis 2 La segunda proposición es determinante para el curso de la investigación, bien sea por la incidencia en el orden epistemológico o por su proyección en el sistema clasificatorio de la información. La injerencia de la Revolución Digital y el progresivo auge de las tecnologías de la información y la comunicación (TIC) han deparado en la naturaleza de la disciplina arquitectónica cambios profundos. La multiplicación dimensional del lugar arquitectónico obedece a esta circunstancia. El lugar físico asume en el Entorno Aumentado una nueva extensión o dimensión digital cuya consecuencia imperativa es el desdoblamiento y la incorporación de la capa de información digital. Se toma como hipótesis de la investigación la consideración del Entorno Aumentado (EA) como una función de dos variables: ‘ser digital’ y ‘ser físico’. Cada variable genera una realidad propia: realidad digital y realidad física. Cada realidad define un entorno o ámbito propio: Entorno Digital (ED) y Entorno Físico (EF). El EA se produce como consecuencia de la conjunción del ED y el EF. EA = (ED, EF) La presencia simultánea de ED y EF es condición sine qua non para la existencia del Entorno Aumentado, obteniéndose de este modo: EA = ED+EF El estudio del EA o convergencia EA se practicará desde el origen independiente de los entornos ED y EF hasta la fusión de ambos, acontecimiento propio y diferencial de las tecnologías de la información y la comunicación. La integración de planteamientos arquitectónicos en la convergencia (ED + EF) irá produciendo progresivamente una evolución más intensa y prolífica del Entorno Aumentado arquitectónico. Hipótesis 3 La Revolución Digital es una etapa de progreso técnico acontecido en el siglo XX. La computadora es a la Revolución Digital lo que la máquina de vapor fue a la primera Revolución Industrial, contiene en sí misma la doble condición de ser simultáneamente factor desencadenante y símbolo. 2 En 1998, Nicholas Negroponte realizó en el número 6.12 de la celebrada revista Wired la siguiente aseveración: ‘la Revolución Digital ha finalizado3’. La cronología de la investigación 2 Arquitecto de formación y columnista de la revista Wired, fundó en 1967 el MediaLab del Massachusetts Institute of Technology, en Cambridge, con la intención de explorar la interacción entre el III se referirá a dicha etapa, distinguiendo: un tiempo primero, precedente a la Revolución Digital que concluye con el fin de la Segunda Guerra Mundial; la propia Revolución Digital acontecida desde la Segunda Guerra Mundial hasta 1998; y por último, un tiempo post-revolucionario. Dada la ausencia de perspectiva histórica que refrende la afirmación de Negroponte, se toma como hipótesis su propuesta de fecha de finalización de la Revolución Digital. Metodología de investigación La naturaleza de la hipótesis central de esta tesis no obedece a una inquietud historicista hacia el análisis de un acontecimiento, sino más bien a una atención sistematizada hacía una circunstancia contemporánea relativamente reciente, como lo es el Entorno Aumentado. El planteamiento metodológico empleado en el análisis de la circunstancia aquí definida como Entorno Aumentado pone de manifiesto una sistematización escalar de la investigación. Esta gradación escalar metodológica se caracteriza por el empleo de diferentes métodos. Tiene en su fundamento el método de la argumentación lógica (Groat & Wang: 302), sistemática argumental que estructura el análisis ontológico de su naturaleza. Este método resulta eficiente para la construcción, en el capítulo I, de un modelo descriptivo del acontecimiento que proyecta el origen del Entorno Aumentado en la convergencia de dos entornos, el digital y el físico; lo define como fusión de ambos. Una vez precisado y acotado el campo y el alcance de la investigación, se acomete el análisis de este fenómeno convergente. Los capítulos III y IV estudian el Entorno Digital en su aproximación al Entorno Físico y viceversa. Esta fase de la investigación se aborda mediante el método de investigación histórico-interpretativo (Groat & Wang: 136), empleado habitualmente por su rigor y estandarización en el análisis datos históricos y predicción relacional de causas y efectos. El capítulo IV se encuentra en el último lugar de la escala metodológica. La tesis central de la investigación y consecuencia del proceso de construcción del Entorno Aumentado se refiere a la multiplicación dimensional, por imperativo digital, del lugar arquitectónico y sus consecuencias ecológicas en el espacio-tiempo contemporáneo. Ésta y otras consideraciones secundarias, como la disolución de los límites de las dicotomías vigentes en el siglo XX o el advenimiento del proyecto procedimental, son analizadas mediante el método de casos de estudio. El examen comparado de estos casos de estudio, escogidos por su aportación diferencial en la construcción ser humano y la computadora. Adams (2003) se refirió a él como alguien que ‘escribe del futuro con la autoridad del que ha estado mucho tiempo allí’. 3 Del inglés, ‘Face it - the Digital Revolution is over’. Disponible en: <http://web.media.mit.edu/~nicholas/Wired/WIRED6-12.html>. (Consultada el 20 de junio de 2011). IV del Entorno Aumentado, concluirá con unas consideraciones finales que tratarán de refrendar la tesis central. Fuentes bibliográficas La extensión de la bibliografía consultada obedece al efecto pluridisciplinar que provoca la construcción del Entorno Aumentado. El desarrollo del corpus principal de la investigación se basa en el análisis de obras de autores que reflexionan sobre el alcance de la convergencia del Entorno Digital y el Entorno Físico. Desde enfoques con diferente empaque tecnológico, Javier Echeverría (1999), Los señores del aire: Telépolis y el tercer entorno; Manuel Castells (2002), La Era de la Información; Manuel de Landa (2002) Virtual Science and Intensive Philosophy; Lev Manovich (2005), The poetic of the augmented space; Mario Carpo (2010) The Alphabet and the Algorithm; William Mitchell (2005), Placing words. Symbols, Space and the City; o Keiichi Matsuda (2010), Domesti-city. The dislocated home in augmented space, coinciden en proponer una conjetura sobre esta coyuntura tecnológica que perturba la cotidianeidad. Respecto a los antecedentes del Entorno Aumentado, las fuentes bibliográficas consultadas documentan el advenimiento de la Revolución Digital y el impacto de la emergencia de las tecnologías de la información y la comunicación. Marshall Mcluhan (2003) Understanding media: The extensions of man; Jean Baudrillard, (1981) El sistema de objetos; Walter Benjamin (1989) Discursos interrumpidos I; o Zygmunt Bauman (2003), Modernidad líquida, constituyen referencias obligadas para abordar la teorización de la génesis del Entorno Aumentado. La incorporación a la disciplina arquitectónica de procesos interactivos procedentes de la computación ha sido tratada por autores como Dominique Rouillard o Mary Louise Lobstiger en publicaciones que describen el proceso de asimilación llevado a cabo en su mayor parte en la pionera década de los sesenta. La transformación que el Entorno Aumentado opera en la realidad arquitectónica de la vivienda y de la ciudad, y por extensión en el ciudadano, es tratada en textos afines a la sociología, la psicología y antropología. Autores como Juan Herreros (1994), Mutaciones en la arquitectura contemporánea: el espacio doméstico; Atxu Amann (2011), El espacio doméstico: la mujer y la casa; Beatriz Colomina (2006), La domesticidad en guerra; o Hilde Heynen (2005), Modernity and Domesticity: Tensions and Contradictions dibujan una cartografía arquitectónica de esta circunstancia. Estructura de la tesis La organización del documento queda determinada por la propia geometría implícita en el argumento, en base a la distinción de tres categorías, aquí llamadas entornos. Cada una de ellas (ED-EF-EA) es estudiada en un capítulo independiente, siendo todos precedidos por el capítulo introductorio. La condición estática del soporte papel impone la cualidad lineal de la estructura V de tesis. A pesar de ello, no debe entenderse como una taxonomía jerárquica, sino como un sistema rizomático que posibilita el acceso independiente a los tres entornos. La condición tecnológica de la materia de análisis hace necesaria la disposición de un capítulo introductorio que dibuje una vista panorámica de la escena y aclare la terminología usada en este texto. Entorno Digital → Entorno Aumentado ← Entorno Físico Capítulo I. Preliminares al Entorno Aumentado. 1.1. Escenario ontológico. Trascendiendo el dipolo de existencia. La aproximación a la ontología que fundamenta el Entorno Aumentado tiene como objetivo no tanto estudiar la estructura metafísica de éste cuanto explorar algunos conceptos esenciales introducidos por la Revolución Digital en lo arquitectónico que amplían el corpus teórico contemporáneo. Para esta labor resulta necesario describir el ámbito de coexistencia espaciotemporal entre los tres entornos -aumentado, digital y físico- así como señalar algunas de las habituales tergiversaciones semánticas alusivas a la realidad alternativa que propone el Entorno Aumentado. 1.2. Escenario histórico. Cambio de paradigma. Dado que el tema de la disertación se enmarca en un período histórico cercano, aunque con vocación de continuidad y miras de trascender nuestra contemporaneidad, este apartado predispone al lector a una comprensión general de la materia en relación a otros cambios que la han acompañado. Mayoritariamente, todos los acontecimientos que se vierten en el texto acontecen en la segunda mitad del siglo XX, un periodo de compresión extrema donde tienen lugar la Segunda Era de la Máquina (Banham 1960), el ascenso del Paradigma de la 4 Sostenibilidad (Rifkin 2011), la Revolución Digital (Negroponte 1998) y la Sociedad Informacional (Castells 1998) y del Conocimiento. 1.3. Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información. El Entorno Aumentado emerge como soporte híbrido de información, nunca antes experimentado. Su naturaleza dual advierte una revisión de las estructuras informacionales y del cambio suscitado en la sociedad a tenor de las nuevas técnicas para informar la materia. La información, el código, el algoritmo fundamentan estrategias arquitectónicas cuya evolución en 4 Rifkin (2011) afirma que la fusión de la tecnología de Internet con las energías renovables dará lugar a una nueva y potente Tercera Revolución Industrial. VI los últimos cincuenta años ha supuesto la inflexión y el origen de una nueva vía de exploración. Con la llegada de Internet al final del siglo XX, la computadora complementó sus atributos matemáticos inaugurales con otros derivados de su nueva capacidad para comunicar. Mensaje, emisor, receptor, signo, símbolo, lenguaje, medio, canal, usuario…, renuevan su vigencia con la eclosión del Entorno Aumentado. El tratamiento arquitectónico de la información, y también, la formulación inversa que aborda la comprensión del hecho arquitectónico desde estas sensibilidades, suponen un reto para arquitecto del siglo XXI en su aproximación y gobierno del Entorno Aumentado. Capítulo II. Revolución Digital. Humanización del Entorno Digital (ED). Propone una mirada arquitectónica al ser digital en su devenir hacia el Entorno Aumentado o proceso de ‘fusión’ con el Entorno Físico. El origen de la tecnología digital, o al menos sus primeras combinaciones genéticas, señalan algunas tendencias acaecidas en el seno del Paradigma Mecanicista desarrollado a lo largo de la Revolución Industrial. El progreso de las técnicas ha permitido la sustitución de éste por el Paradigma Digital, una de cuyas consecuencias es el abandono gradual de la cualidad maquinista que ha dominado las tecnologías de la información y la comunicación (TIC5), en favor de unas TIC más cercanas a la biomecánica. El Entorno Aumento se construye con una artificialidad diferente, más compleja pero a la vez más intuitiva y cercana al rigor orgánico implícito en el ser humano. 2.1. Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a lasGoogle Glasses La humanización del Entorno Digital supone la incorporación progresiva de dispositivos y procedimientos que favorecen la interacción hombre-máquina. Este proceso acelera la superación de muchas rutinas arraigadas en la computación y propone nuevos procesos digitales operados mediante diferentes modelos de interfaz que propician un control más cercano a la cualidad corpórea del ser humano y a su naturaleza intuitiva. La evolución suscitada en la mecánica y en la electrónica de la interfaz que conecta al usuario con el Entorno Digital tiene una analogía clara con lo sucedido en otras disciplinas. El teatro, la literatura, las artes visuales o la propia arquitectura han avanzado hacia la consecución del objetivo de una integración plena entre lector y texto, televisión y televidente, espectador y espectáculo, jugador y videojuego, continente y contenido. La revisión histórica crítica de los paralelismos transdisciplinares y de sus trayectorias sinérgicas trata de alcanzar una de las tesis sustanciales a la investigación: la ruptura de la cuarta pared como desencadenante topológico del Entorno Aumentado. 5 Se consideran tecnologías de la información y la comunicación el teléfono, la radio, la televisión y la computadora, entre otras que favorecen la comunicación y el intercambio de información. El concepto TIC es dinámico si nos referimos a las nuevas TIC, lo que implica la obsolescencia de la tecnología con el paso del tiempo. VII 2.2. Cultura mediática arquitectónica. El arquitecto comunicador Los nuevos medios de información y comunicación han influido considerablemente en el devenir arquitectónico. Tanto los procesos propios del oficio como el propio perfil (-les) de arquitecto han asumido las nuevas inquietudes y demandas mediáticas originadas en la segunda mitad del siglo XX. El texto expone una aproximación hacia este acontecimiento desde un enfoque humanista que teoriza los nuevos medios de la radio, la televisión, el cine y la computación, haciendo énfasis en el cambio operado en el modelo de comunicación, tras el abandono de los métodos pre-digitales y la emergencia de otros más avanzados que aumentan el potencial mediático y mediador del Entorno Aumentado. La distinción entre computación y medio de comunicación resultó válida hasta la aparición de las WWW de Internet en 1998, momento en que la computadora se convirtió en un medio de masas y trascendió los soportes tradicionales. Esta capacidad mediadora se irá incorporando poco a poco al proyecto arquitectónico y al edificio, en una conquista hacia la comunicación completa con el usuario. 2.3. Arqueología del lugar aumentado Explora los orígenes del lugar aumentado desde el punto de vista de la representación del lugar digital. La representación característica de la dimensión alternativa del campo aumentado ha superado al ciberespacio ingrávido que contienen las pantallas digitales. La incorporación de la capa digital al lugar físico newtoniano se produce en diferentes grados simbióticos. Este apartado propone una cronología de los acontecimientos más relevantes producidos en relación con la representación digital del espacio, desde los orígenes de la computación a los primeros programas de diseño asistido por ordenador que incorporaban una primitiva interfaz gráfica de usuario, hasta la percepción contemporánea de entornos aumentados. El análisis arquitectónico del Entorno Digital toma como caso paradigmático de estudio el videojuego; distinguido por la necesidad de su formato de integrar dentro de la pantalla el movimiento del usuario. Desde los primeros ensayos textuales, hasta la conquista de la representación perspectiva y, posteriormente, la consecución de la ruptura de la cuarta pared, el videojuego ha ido asumiendo una mayor capacidad para figurar el movimiento inferido por el usuario a su alter ego digital. La exploración y el análisis del lugar aumentado recorre una de las tesis de la investigación: la evolución del movimiento en el lugar digital propuesto por el videojuego como causa primera de la ruptura de la cuarta pared que habilita el comienzo de la construcción del Entorno Aumentado. Capítulo III. Revolución Digital. La impronta digital en lo arquitectónico, una cronología crítica (EF) 3.1. Arquitectura y trasferencia de la información. Arqueología arquitectónica del edificio mediador Plantea un estado del arte de los acontecimientos anteriores a la Revolución Digital que anticiparon el advenimiento de esta etapa técnica. Se acompaña de una cronología selectiva de VIII edificios surgidos al albur del desarrollo de las TIC a lo largo de la primera y segunda Revolución Industrial, desde las redes de telegrafía óptica napoleónicas hasta las antenas de telecomunicaciones de nuestros días; una breve histórica crítica de la arquitectura-TIC abordada desde su capacidad tecnológica para la mediación con el hábitat. La exploración propone un punto de vista que penetra más allá del atributo material del edificio, el cual además de confinar un espacio gravitatorio definirá un espacio para la comunicación. Esta condición aumenta la concepción tradicional de edificio, a veces con un campo visual de comunicación, otras veces con un campo de ondas herziano, otras con un campo eléctrico, o sonoro,…etc. 3.2. Presagios de la Revolución Digital Constituye una mirada hacia acontecimientos sucedidos esencialmente durante las vanguardias, haciendo énfasis especialmente en aquellas obras de la literatura del género de la ciencia ficción que tomaron como referentes los avances científicos acontecidos al final del siglo XIX y principios del XX, premonitorias a menudo de cualidades que definen la naturaleza del Entorno Aumentado como la simultaneidad y el dinamismo. A pesar de que la pintura rupestre de animales de cinco patas ya constituyera en Lascaux y Altamira una reproducción gráfica interesada del movimiento, no es hasta el siglo XX cuando la variable ‘tiempo’ desencadena un verdadero cambio en las artes. La divulgación de la Teoría de la Relatividad de Einstein supuso una invitación, generalmente aceptada por la vanguardia artística, a la integración de la cuarta dimensión temporal en la literatura, el cine, la pintura y otras artes, una práctica que dejó numerosas experiencias de que recuperan su vigencia en el debate acerca del diseño de la capa digital interactiva que tiene lugar en nuestros días. El camino recorrido por la ciencia ficción a los largo del siglo pasado, retroalimentado por los hallazgos de la carrera espacial y otros importantes logros tecnológicos de gran influencia en el imaginario colectivo, está jalonado de propuestas cinematográficas como Metrópolis (Fritz Lang, 1927), Tron (Steven Lisberger, 1982), Terminator (James Cameron, 1984), Blade Runner (Ridley Scott, 1986), Matriz (Andy y Larry Wachowski, 1999), las cuales configuran escenarios de simbiosis entre el Entorno Digital y el Físico. La red que a lo largo del XX tejen los diferentes géneros de la ciencia ficción, a los que también podrían sumarse los proyectos de la arquitectura-ficción, y otros que sin ser ficción van más allá incluso que los anteriores, parece premonitoria de algunas realidades definidas por el Entorno Aumentado. 3.3 Revolución Digital en la vanguardia artística. Cartografía de la emergencia cibernética Recoge las influencias de la Teoría Cibernética, formulada por Norbert Wiener en la Segunda Guerra Mundial, en las artes. Esta circunstancia resulta fundamental dada la intensidad del vínculo establecido entre artistas y arquitectos que durante la década de los sesenta compartieron la inquietud por lo cibernético y por la injerencia de la computación en sus disciplinas. Todo ello tiene su origen en una década de los sesenta cargada de nuevas sensaciones y revolucionarias expectativas. El proceso de vulgarización de la computadora por parte de la sociedad civil atiende a impulsos diversos relacionados con la aparición del concepto de feedback, las nuevas técnicas de representación digital, la semiótica y los nuevos lenguajes y, en general, un afán decidido por la contaminación transversal de las disciplinas impulsado por la emergencia poderosa de las TIC. IX 3.4. Revolución Digital en la práctica arquitectónica, 1945-1970 Describe la impronta de la Revolución Digital y la integración de las TIC en el contexto arquitectónico de la innovación universitaria y de la práctica profesional. La búsqueda arqueológica de los orígenes del lugar aumentado se traduce en una relación de aquellas vías de integración de la computación en la disciplina arquitectónica, desde los comienzos de la computación hasta el final de la Revolución Digital, destacando el período pionero de la década de los sesenta donde comenzó a hacerse efectiva la transferencia tecnológica. A pesar del desarrollo computacional contenido, esta época destacó por la emergencia de numerosos conceptos que acuñaron estrategias arquitectónicas originales. Es en ese sentido, que resulta de gran interés para la investigación y por ello se propone una mirada en profundidad sobre aquellos acontecimientos, frente a otros más cercanos en el tiempo pero menos determinantes en su radicalidad propositiva. 3.5. Postulados y visiones pre-globales, 1970-1998 Si bien las bases la convergencia del Entorno Físico y el Digital fueron sentadas en la década anterior, esta etapa que concluye en 1998 con la inauguración de las WWW de Internet, queda sintetizada en una panorámica de tal convergencia, donde la computación aún no se identificaba como medio de comunicación pero se expandía igualmente por otros motivos en el grueso de la masa social. Capítulo IV. Post-Revolución Digital. El Entorno Aumentado (EA) Una vez expuesta la tendencia concurrente entre los Entornos Digital y Físico y analizada su anatomía, se procede en este último capítulo a la investigación sustancial de la propia realidad fusionada. Esta materia objeto de estudio será examinada desde diferentes categorías, en una disección que llega a profundizar en los avatares contemporáneos del Entorno Aumentado. Acontecida la Revolución Digital, la construcción del Entorno Aumentado se produce de manera progresiva y acelerada -al menos, desde el punto de vista de nuestros días-. Un compendio de artículos o indagaciones tratará de describir el modo en que el Entorno Aumentado influye en lo arquitectónico. Las consideraciones sobre la construcción de la cualidad hiperreal de la contemporaneidad se producen en base a tres supuestos escalares: el campo proyectual arquitectónico; la vivienda, como arquetipo individual de la domesticidad; y la ciudad, en tanto que estructura colectiva soporte de la nueva ecología digital. 4.1. La convergencia tecnológica. El conjunto de las técnicas digitales que afectan a la disciplina arquitectónica y a sus usuarios constituye en sí mismo el preámbulo al proyecto arquitectónico, un grado cero donde la elección de la herramienta supone el primer posicionamiento estratégico. El texto analizará algunos conceptos sobre esta eventualidad en relación a la construcción del Entorno Aumentado. Propondrá una descripción topológica de la deriva que toman las TIC en su afán por definir el nuevo entorno. El desarrollo de la computación nos acerca a la superación del Test de Turing, y X con ello, a alcanzar la imposibilidad de distinguir en una comunicación computerizada entre la máquina y el ser humano. Esta circunstancia implica una necesaria sensibilización (humanización) del Entorno Digital, como de hecho ha sucedido en la última generación web 3.0, calificada por los expertos como web ‘sensorial’. La conquista de un Entorno Digital verdaderamente sensible tiene uno de sus fundamentos en la evolución de la interfaz. Frente a los diseños producidos en el siglo XX de marcada ergonomía mecánica, la interfaz o articulación entre los entornos físico y digital -vehicular del control del usuario- del siglo XXI ostenta los niveles más altos en biomecánica, llegando incluso a hacer desaparecer el hardware de contacto manual y dando paso a una ergonomía post-digital. La necesidad semántica de nuevos sintagmas que expliquen la convergencia se hace aquí manifiesta, cristalizando en una propuesta de términos esenciales para esta investigación. La etimología de los neologismos se suma a la existente e intenta aproximar su campo conceptual a una interpretación arquitectónica del espacio que define el Entorno Aumentado. 4.2. El proyecto aumentado. El proyecto arquitectónico contemporáneo, proceso cuya técnica goza de mucha mayor amplitud que la propia del proyecto de edificación, está siendo sustancialmente afectado por el Entorno Aumentado. La evolución en los mecanismos de interacción y el control de la capa digital hace notar sus efectos también en el proceso proyectual. La investigación reflexiona en este punto sobre la naturaleza del proyecto arquitectónico y su transformación al ver incorporadas las nuevas tecnologías de la información y la comunicación. El progreso de los programas generadores de forma, sumado a la especialización en la parametrización de las funciones algorítmicas, dibuja un escenario donde el proyecto se convierte en un protocolo complejo que integra variables cada vez más cualificadas. Asimismo, se plantea el proyecto procedimental como metodología pertinente que alimenta el proceso proyectual con unas dosis máximas de interacción entre los agentes participantes. Las arquitecturas opensource o de ‘código libre’ incitan a la participación y a la colaboración entre los agentes. El proyecto arquitectónico de un entorno aumentado asume así estrategias de comunicación avanzadas que articulan una interfaz propicia para los niveles de interacción de este nuevo entorno. Si las metodologías del proyecto arquitectónico quedaron contaminadas en el siglo XX por los procedimientos informáticos vinculados al procesamiento de datos, la naturaleza renovada de la computación que opera la máquina como un elemento mediador de comunicación -a raíz de la inauguración de la world wide web- ha inferido nuevos atributos metodológicos. El desarrollo y perfeccionamiento de los procesos de retroalimentación originados en la década de los años sesenta del siglo pasado cristalizan en nuevas propuestas inducidas desde el Paradigma de la Complejidad y el Paradigma de la Sostenibilidad. La cohabitación del arquitecto proyectista con múltiples oficios antes ajenos a la disciplina parece resultar un requisito necesario para abordar con rigor el diseño de la ciudad aumentada, lo cual implica la consideración de la atención mediadora por parte del proyecto arquitectónico así como su renovación tecnológica. El proceso de artificialización de la Naturaleza que propone el Entorno Aumentado insta al individuo a asumir una nueva percepción simbiótica que amplía la comprensión fenomenológica XI del medio. La combinatoria de los diferentes tipos de paisajes sensoriales -en la versión digital y en la biológica- alimenta un catálogo de entornos aumentados cuyo diseño atañe a la competencia del arquitecto. Frente al dominio apremiante de lo visual que ha caracterizado a los últimos siglos, otras tendencias perceptivas se abren paso en la realidad híbrida del Entorno Aumentado. 4.3. El hábitat del Entorno Aumentado. Explora la proyección del Entorno Aumentado en los referentes tradicionales de lo arquitectónico. En primer lugar, este apartado sopesa su efecto en la vivienda y en la ciudad, entendidas éstas como ámbitos históricamente complementarios de la naturaleza artificial que es la polis. La disolución de los límites establecidos por las dicotomías históricas -privado-público, exterior-interior, casa-ciudad,…etc.- debida a la distorsión mediática e informacional experimentada por la asignación de nuevos programas a la ciudad y a la vivienda, implica una revisión en profundidad del significado contemporáneo de habitar un espacio en relación al proceso de construcción del Entorno Aumentado. Éstas y otras dicotomías se toman como punto de partida de un análisis que alcanza al usuario como ser social. La domesticación (de domus) de la ciudad y la ciudadanización de la casa plantean para el usuario del Entorno Aumentado un escenario de habitación renovado con cambios implícitos en los hábitos y en las rutinas. La reflexión sobre las transformaciones acontecidas tanto en el paisaje urbano y como en el paisaje humano trata de dibujar una definición que describa el nuevo modelo habitacional. La estética analógica pre-digital será cuestionada a tenor del potencial mediador que incorpora la envolvente aumentada al edificio. La interpretación de éste como una terminal mediadora conectada a la Red, entendida como una extremidad topológica del tejido aumentado, amplía la naturaleza dimensional de su inserción en la ciudad. La agregación de edificios y espacios públicos no basta ya para alcanzar el sumatorio que propone la ciudad aumentada; sus ciudadanos-usuarios tienen la capacidad de percibir con intensidad similar cualquiera de los tres entornos que baraja esta investigación. La tesis propone un análisis final que indaga en la convergencia de dos paradigmas de vigencia relativamente temprana, como lo son el digital impulsado por las TIC y el sostenible alentado por la presencia creciente en la sociedad de las ciencias medioambientales. Frente a las tendencias que trabajan desde la endogamia aséptica de cada campo, resulta de especial interés para esta teorización del Entorno Aumentado considerar la influencia que el modelo híbrido físico-digital ejerce sobre la jerarquía ecológica dispuesta entre el ser humano y su hábitat. XII Capítulo I Preliminares al Entorno Aumentado 1.1. Escenario ontológico. Trascendiendo el dipolo de existencia 1.2. Escenario histórico. Cambio de paradigma 1.3. Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información 1 1.1. Escenario ontológico. Trascendiendo el dipolo de existencia ‘Aumentar’. (Del lat. augmentāre). Dar mayor extensión, número o materia a algo. Adelantar o mejorar en conveniencias, empleos o riquezas. Real Academia de la lengua Española. Brown (2011: 1) sostiene en su escrito Un acercamiento topológico a la psicología: memoria, ontología y virtualidad que el ‘giro ontológico’ de las ciencias sociales ha dotado de ‘una nueva vida al pensamiento constructivista y a la experimentación conceptual avanzada’. Según Brown, este argumento puede constatarse en la reflexión de Bergson y Deleuze sobre la psicología, cuya ‘relación con la memoria sirve de puerta de entrada en la ontología’, lo que representa una nueva actitud para formular la problemática relación entre las ciencias sociales y la filosofía, disyuntiva en la que se encuentran autores como Brian Massumi (2002), Manuel de Landa (2002; 2006), John Protevi (2009) y Lev Manovich (2002). La dimensión artificial ontológica, pero también social y psicológica, propuesta por el Entorno Aumentado1 es producto del proceso de hibridación de los entornos Físico y Digital. Sus atributos son, al unísono, consecuencia y causa de una alteración espacio-temporal del hábitat contemporáneo, de origen y compás tecnológico. La naturaleza biológica propia del Entorno Físico corresponde a ‘la percepción y la comprensión del universo de acuerdo a cada específica especie biológica’ (Dyens 2005: 45). Esta realidad biológica fue subvertida ya en tiempos del Sapiens Sapiens por el advenimiento de la técnica2 que alentó la construcción de herramientas, dando lugar a una realidad tecnológica donde confluían ‘sentidos no-humanos como el científico y el de la máquina3’. 1 La tesis nombra aquí un acontecimiento, una experiencia global y que construye una nueva jerarquía en las relaciones establecidas entre los seres humanos y su hábitat. El registro en mayúsculas o minúsculas distingue la acepción propia de la común, que ya no se refiere a un acontecimiento sino a una circunstancia espacio-temporal concreta vinculada a un lugar físico ‘aumentado’ con una extensión digital. 2 Véanse definiciones de técnica y tecnología en el Glosario anexo. 3 Ibíd. La realidad tecnológica que describe Dyens (Alcalá 2007: 37) ‘no podrá ser habitada realmente hasta que no se asuma que podemos distinguir entre la humanidad de las especies animales, los sistemas dinámicos, la tecnología y la cultura; hasta que se presuponga que la materia, orgánica o metálica, analógica o digital, química o binaria pueda ser subdividida con claridad. Ahora moramos más allá de la realidad tecnológica. Constituimos un todo nos guste o no. Humanos, máquinas, redes biológicas o artificiales, todas están entrelazadas dentro del marco planetario.’ 2 El usuario del Entorno Aumentado experimenta una circunstancia duplicada que irremediablemente afecta a su componente social. Profundamente influida por los cambios suscitados tras la emergencia de las vigentes tecnologías de la comunicación y la información, el cambio conlleva un hondo calado ontológico que invita y obliga a una revisión exhaustiva de los modos de vida. El Entorno Aumentado, sumido en plena etapa de construcción, abraza una realidad que podría ser llamada híbrida (Alcalá 2007: 38) y que inaugura una nueva habitabilidad cuya plenitud trasciende la realidad tecnológica de Dyens. Las cartografías del Entorno Aumentado no solo registran los accidentes tradicionales del Entorno Físico o de la morfología electrónica, líquida e intangible del Entorno Digital, sino que además describen las ecologías híbridas nacidas de las sinergias establecidas entre ambos. Los entornos aumentados proponen situaciones a menudo borrosas donde se con-funde la extensión digital protésica del usuario con la sensibilización digital, digitalización sensorial, del lugar; la condición líquida de las arquitecturas ciberespaciales4, con la materialidad del mundo ‘real’. Conceptos que guardan analogía con el aquí sustantivado como Entorno Aumentado han sido anteriormente teorizado por otros. Su constructo mental, ha deparado acepciones con significados diversos y sugerentes como Aldea Global (McLuhan 1962), Telépolis o Tercer Entorno (Echeverría 1999), Ciberespacio (Gibson 1984), Realidad Virtual (Artaud5 1938), etopia (Mitchell 2001), Realidad Artificial (Krueger 1970), Frontera Electrónica (Dyson, Keuworth y Toffler 1994),…etc. En el siglo XX, la polisemia existente entre estos términos apenas era apreciable, pero el avance tecnológico ha especializado el léxico de modo que, con el tiempo, éstos responden a concreciones cada vez más particulares de un concepto cuyo desarrollo y alcance se amplían aceleradamente. Echeverría (1999: 15) hace acopio de algunas de estas acepciones; el mismo concepto acuñado por el sociólogo canadiense Marshall McLuhan como ‘Aldea Global’ aparece varias veces en sus libros The Gutenberg Galaxy: The Making of Typographic Man (1962) y Understanding Media (1964), por lo que puede ser considerado como el primero en una concepción tecnologicista del constructo aquí tratado, si bien para Echeverría6 resulta cuanto menos incierta la propuesta de McLuhan de retorno a la tribalidad y al mundo audiotáctil. Derrick de Kerckhove, sociólogo nacionalizado canadiense y discípulo aventajado de McLuhan, representanta la concepción mentalista. Concibe Internet 4 Véase ciberespacio en el Glosario. 5 En The Theatre and Its Double el poeta y dramaturgo francés Antonin Artaud (1958: 49) describe el teatro como una ‘realidad virtual’: ‘The perpetual allusion to the materials and the principle of the theater found in almost all alchemical books should be understood as the expression of an identity (...) existing between the world in which the characters, images, and in a general way all that constitutes the virtual reality of the theater develops, and the purely fictitious and illusory world in which the symbols of alchemy are evolved’. 6 Óp. cit., p.27. 3 como una extensión del cerebro humano, interpretación aceptada por Barlow y Sterlarc entre otros. También se puede analizar el concepto en otros términos como el mercantil. Impostura proteccionista de la que toman parte Bill Gates o George Sooros frente a la neoliberal desreguladora del mercado, acuñada por Dyson, Keuworth y Toffler con el término ‘Frontera Electrónica’. Por su parte, Manuel Castells -en la línea de Chomsky- considera que la Sociedad de la Información es un producto del capitalismo avanzado; donde el nuevo espacio social se relaciona con la dominación global de las grandes multinacionales. La metáfora del Tercer Entorno, versión complementaria y perfeccionada de Telépolis según el propio Echeverría7, se refiere al ‘conjunto de redes locales que se superponen a los recintos tradicionales y tienden a integrarse en la futura ciudad global’. La diferencia más importante entre el Tercer Entorno y los otros dos8 estriba en la posibilidad de relacionarse e interactuar a distancia. Echevarría resume con el prefijo ‘tele’ la tesis central de Telépolis y cualidad principal del Tercer Entorno, que propuesto como una nueva forma de sobrenaturaleza es ‘producto de la innovación tecnológica o adaptación del sujeto al medio9 -en oposición a la técnica, adaptación del medio al sujeto-’. La diferencia semántica que plantea el Entorno Aumentado respecto al Tercer Entorno es de naturaleza arquitectónica. Por encima de otras cualidades y jerarquías, el Entorno Aumentado señala al lugar como circunstancia diferencial a esclarecer. La observación y cartografía del proceso que poco a poco articula el lugar aumentado constituye por tanto el leit motiv de esta tesis. Frente a la distancia operativa aludida por Echevarría respecto al prefijo tele10, esta investigación focaliza la atención en la disyuntiva topológica que provoca la convergencia del Entorno Digital y el Físico. Sendos dominios forman parte del campo de incidencia de lo arquitectónico: el primero, lo viene haciendo desde la segunda mitad del siglo XX; el segundo, desde los orígenes del ser humano. La convergencia se estudia en base a éstos, pero también desde la perspectiva de otras disciplinas como la comunicación, la información, la antropología o la sociología. Al fin y al cabo, el Paradigma de la Complejidad que en nuestros días sustituye 7 Óp. cit., p.14. 8 El Primer Entorno se refiere al medioambiente natural o Primera Naturaleza donde se ha consolidado la forma humana. El Segundo Entorno puede ser denominado entorno urbano (Ibíd., p.41). 9 Echeverría (Ibíd., p.35) toma el término sobrenaturaleza de Ortega y Gasset (1970), Meditación de la técnica. La sobrenaturaleza obedece a una circunstancia nueva más favorable creada por el ser humano para sobrevivir en el medio (Naturaleza reminiscente del Paraíso Perdido). Ortega y Echeverría se refieren a ella como condición individual. Frente a ella, el Entorno Aumentado se fundamenta en la cualidad híbrida genérica de la Segunda Naturaleza o Naturaleza Artificial a la que se refiere Herreros (2005: 21). Véase en Cap. IV, El chip replicante. La sensibilización artificial del Entorno Aumentado. 10 También hace referencia al lugar pero a un lugar relativo dado en función del tiempo. 4 al positivista (reduccionista) afecta de modo integral al Entorno Aumentado, desarrollado por el arquitecto, el ingeniero, el político, el sociólogo, el filósofo,…etc. y por ti, usuario común11. Tras esta breve revisión histórica de las principales voces, aunque no únicas, que se han aproximado a la definición del concepto de Entorno Aumentado, se añaden a continuación unas notas aclaratorias sobre su etimología. El sustantivo ‘espacio’ fue calificado por primera vez de ‘aumentado’ por Lev Manovich (2002) en su ensayo The Poetics of Augmented Space: Learning From Prada12, que explora la dinámica general entre la ‘forma espacial’ y la información que ha estado desde hace siglos con nosotros. Manovich define espacio aumentado como aquél ‘espacio físico superpuesto con información cambiante dinámica. Esta información suele darse en formato multimedia y habitualmente es localizada por cada usuario’. Asimismo, señala su intención de reconceptualizar el término ‘aumentar’ como una idea y práctica cultural o estética, más que como una técnica13. Este ajuste semántico del sintagma se orienta en esta investigación en el sentido ontológico de ampliar la extensión de la entidad. Así, por un lado, el objeto físico biológico verá extendida su naturaleza gravitatoria con información digital y, por otro, la naturaleza digital sin masa y liberada de las leyes físicas será ‘aumentada’ al asumir la extensión física. El vínculo físico-digital se formaliza en múltiples formatos ideados, fabricados y sustituidos al son tecnológico de Silicon Valley y otros escenarios que seguro se le ocurren al lector. La computación ubicua, la integrada en la ropa o en los complementos14 o los entornos sensoriales artificiales son, según Manovich (2006: 223), territorios propicios para la aparición de entornos aumentados. La geo-referencia de los datos digitales procedentes de un sitio web mediante un Sistema de Posicionamiento Global -GPS o similar-, la adhesión de la capa digital a un objeto mediante un código QR o el reconocimiento facial mediante escáneres digitales empleados en video-vigilancia son ejemplos extendidos y cotidianos de soluciones técnicas que habilitan esta convergencia ontológica. Conviene en este punto realizar alguna precisión más sobre el significado del término ‘espacio’, de extensa tradición arquitectónica pero también filosófica, matemática y física. Javier Seguí (1996: 86) especifica que ‘tanto en arquitectura como en el proyecto arquitectónico podrían llegar a distinguirse, según los estados de anticipación y definición o acabado, una infinidad de 11 12 Véase Cap. IV., Portada de la revista Time. La cronología de los textos de Manovich respecto al espacio aumentado puede encontrarse en: <http://thesocietypages.org/cyborgology/2012/09/20/lev-manovich-on-the-poetics-of-augmented-space/>. (Consultado el 21 octubre de 2013). Véase cita de Manovich introduciendo el texto en p.289. 13 Se refiere Manovich a la técnica de la realidad aumentada, de la cual proviene el adjetivo ‘aumentado’ en la expresión ‘espacio aumentado’. Para conferencias y webs sobre la tecnología de la Realidad Aumentada, véase <http://www.augmentedreality.org> (Manovich 2006: 238). 14 En inglés wearable computing. Véase definición en el Glosario. 5 matices relacionados con la ‘amplitud’ que acaba siendo espacio cuando se determina como figura construida, como tema’. Por lo tanto, y continuando con la exploración semántica, esta amplitud asumirá por imperativo digital una nueva extensión informacional alejada de la acepción tradicional de vacío o ámbito negativo del lugar físico edificado. En esta línea, Zydarich (2002) sostiene que ‘el espacio arquitectónico trasciende este hecho constructivo, convirtiendo la construcción en un objeto que transmite un mensaje. (…) El espacio tiene características pero nunca carácter15 (…) y ha sido definido por Gnemmi como un ‘residuo vacío’, encerrado dentro de límites que le dan una función’. Esta alusión a la cualidad informacional del espacio, como transmisor de un mensaje, resulta pertinente para presentar la definición de campo, concepto sobre el que se fundamenta y construye la naturaleza de la fusión físico-digital. La definición de ‘campo’, en su acepción informática propuesta por la Real Academia de la Lengua Española, alude a ‘un registro, espacio usado para una categoría particular de datos’. Es precisamente esta connotación la que describe exactamente la capacidad informacional del espacio aumentado de Manovich y completa la amplitud espacial a la que se refiere Seguí. El concepto de campo es intrínseco al entorno aumentado pero no implica presencia material, como recoge Kwinter en su definición de connotaciones matemáticas: ‘El campo describe un espacio de propagación, de efectos. No incluye materia o puntos materiales, sino funciones, vectores y velocidades. Describe relaciones internas de diferencia dentro de campos de celeridad, de transmisión o de puntos de aceleración; en una palabra, lo que Hermann Minkowski llamó el mundo’. Según estas definiciones podríamos aventurarnos a afirmar que el ámbito propio de un entorno aumentado es el lugar ampliado (EF) con un campo16 informacional (ED). Cualquier otro ámbito que pertenezca exclusivamente al EF o al ED carece de la extensión informacional para considerarse aumentado, entendida esa ‘extensión’ en el sentido de ‘ampliación’ y no en el sentido particularmente descartiano de res extensa17. 15 Zydarich (Óp.cit., p.s/n.) se refiere a ‘lugar’ como ‘poseedor de cualidades intangibles basadas únicamente en las impresiones proporcionadas por las experiencias. (…) Los lugares son de este modo centros de acción y de interacción. (…) Mientras el espacio y sus particularidades son entidades divisibles independientes, el lugar y sus particularidades no pueden ser divididas y distinguibles porque el Lugar no existe sin la intervención humana’. 16 En 1997, Stan Allen (2013: 70) incorporó este concepto para el debate teórico arquitectónico. 17 Citado en Extensión versus comprensión; Echeverría, Los Señores del aire: Telépolis y El Tercer Entorno, y la vida cotidiana, óp. cit., p. 83. 6 Acuñado alrededor de 1990, el concepto de ‘Realidad Aumentada’ es comúnmente opuesto a ‘Realidad Virtual’18. En el caso de la Realidad Virtual, el usuario trabaja en un entorno digital simulado, una simulación virtual. En el caso de la Realidad Aumentada, se trabaja en objetos actuales en el entorno físico sobre los cuales se opera información digital percibida a través de dispositivos electrónicos. De cualquier modo, la Realidad Aumentada es una evolución de la Realidad Virtual surgida a raíz de la ruptura de la cuarta pared19. Fig.1. Virtual geography. Fuente: Martin Dodge & Rob Kitchin, redibujado de Batty (1997:341) Fig.2. Diagrama ontológico del Entorno Aumentado. Autor: Eduardo Roig. Para Manovich20 ‘aumentar’ el espacio21 supone implicar a tecnologías similares que coexisten y trabajan en dominios físicos, como es el caso de la video-vigilancia. De igual modo, las tecnologías pertenecientes al entorno de la telefonía móvil (cellspace22 technologies) como los 18 En un sistema típico de Realidad Virtual, todo el trabajo se ejecuta en el espacio virtual; el espacio físico se torna innecesario, y es la percepción visual del espacio físico por el usuario la que se cercena completamente. Al contrario, un sistema de Realidad Aumentada ayuda al usuario a trabajar en un espacio físico aumentando ese espacio con información añadida. Este objetivo se consigue depositando información sobre el campo visual del usuario. Un escenario precoz de una posible aplicación de Realidad Aumentada desarrollada en Xerox PARC proponía un dispositivo incorporado a la vestimenta del personal de mantenimiento que superponía una imagen alámbrica de la copia antigua según está había sido reparada. Hoy, pueden ser imaginados escenarios adicionales para el uso diario: por ejemplo, gafas de Realidad Aumentada para un turista que permiten la visualización dinámica de información sobre lugares a visitar dispuesta en su campo visual digital. 19 Véase Cap. IV, Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google. 20 Óp.cit., p.222. 21 La voz ‘espacio’ es a vacío lo que lugar a ‘lleno’, sustantiva el contenido del lugar físico. Por esta razón, se desestima su uso a favor del término ‘entorno’ o ‘domino’, que no manifiestan específicamente ninguna de esas condiciones. 22 Aunque Manovich lo emplea en un sentido más amplio, el término es acuñado en 1998 por David S. Benahum. Cellspace se refiere originalmente a la entonces habilidad de acceder al e-mail o a Internet WiFi. Véase en profundidad en Topología del Entorno Aumentado. Deriva Digital hacia la eclosión 4.0. 7 medios portátiles, los medios inalámbricos o los medios geo-referenciados23, procuran un entorno lleno de datos provenientes de otros usuarios, de otras computadoras o de Internet. A éstos se suman los dispositivos electrónicos computerizados o de video. Además, Manovich cita24 otras tantas que en el momento de escribir el ensayo se encontraban en fase experimental en universidades o en laboratorios de empresas, entre las que cabe destacar ‘las interfaces tangibles, la computación ubicua, las redes sensoriales, los edificios y los espacios inteligentes o e-papel (libro electrónico). El espacio aumentado, definido como ‘computación consciente del contexto o computación sensible al contexto’ (Moran & Dourish 2001:108), es para Manovich el sucesor del espacio virtual y es además un espacio monitorizado. El dominio físico tradicional contiene por lo tanto más dimensiones que la ‘antigua25’ geometría tridimensional cuyas coordenadas ordenaban el lugar. A efectos tecnológicos, sociales, políticos o económicos, el orden jerárquico de la geometría trasciende las tres dimensiones ancestrales. La cuarta, el tiempo, se desdobla entre su acepción digital y la tradicional. La metáfora del iceberg para explicar la naturaleza del espacio del videojuego ilustra de modo muy esclarecedor esta circunstancia (fig.3). Como en los entornos aumentados, detrás de la ‘vida animada’ audiovisual del videojuego se cierne una compleja circunstancia tecnológica cuyo cometido consiste en procurar al usuario una perfecta inmersión lúdica. El análisis que esta investigación lleva a cabo sobre el concepto de ‘lugar aumentado’ pone en cuestión la lógica reduccionista de las dicotomías; artificios que se demostrarán obsoletos en la contingencia de la construcción del Entorno Aumentado26. Detrás del entorno aumentado se suscita una realidad compleja técnica que ordena la información para que el usuario la perciba de forma clara. Éste ha de poder proceder a una inmersión sin titubeos y efectiva. Los límites dibujados tradicionalmente por las dicotomías empleadas en el siglo XX, por ejemplo, ‘privadopúblico’, se vuelven borrosos al referirlos al lugar aumentado. En esta línea, De Landa (Farías 2008: 79) invita a superar ‘el microrreduccionismo (reducir todo al individuo racional, por ejemplo, o a la experiencia fenomenológica) y el macrorreduccionismo (reducir todo a la estructura social y hacer a la persona un mero epifenómeno). La distinción micro/macro puede ser mantenida mientras sea relativa a cierta escala: las personas son micro como componentes de comunidades, las cuales serían macro; pero las comunidades son micro si hablamos de coaliciones de comunidades, como se dan en los movimientos de justicia social. (…) No hay micro o macro absolutos, sólo relativos a cierta escala, la cual es a su vez relativa a la relación parte/todo’. Este razonamiento sobre la jerarquía escalar invita a introducir otra consecuencia 23 Véase La convergencia tecnológica. Derivas digitales hacia la eclosión 4.0. 24 Ibíd., p.222. 25 Óp.Cit., p.220. 26 Véase en el Cap. IV, La disolución del entorno dicotómico tradicional. 8 que atañe a la categoría del tiempo: el microtiempo. La estructura topológica del Entorno Aumentado conlleva una alteración en el orden escalar del tiempo. La expansión creciente de la capa digital por la ciudad ha permitido la recuperación de los tiempos ‘muertos’ de espera para el usuario y la incorporación del microtiempo en la agenda, como formato específico que demanda un tipo concreto de información. El genius loci romano ha sido implicado profundamente en el proyecto de arquitectura y de ciudad por Louis Kahn -que lo definió como ‘lo que una cosa quiere ser’- la psicología de la Gestalt o el propio Kevin Lynch, casi siempre desde el punto de vista fenomenológico. La extensión digital del lugar supone una oportunidad no solo fenomenológica sino informacional para retomar el concepto. La comprensión del ‘espíritu del lugar’ se torna manifiestamente accesible y construible por parte de los moradores de ese lugar. Fig.3. Listen to the bulk of the iceberg. Axel Stockburger (2007: 113). 9 La intrusión del dominio digital en la cotidianeidad promueve continuos cambios en unos hábitos ciudadanos que se diluyen en la propuesta híbrida del Entorno Aumentado. Los avances científicos toman protagonismo en las disciplinas de la comunicación y de la información, pero también llegan a campos de otra índole por los caminos trasversales de la técnica o de la mercadotecnia, de la cultura o de la medicina, por poner ejemplos27. Los avances de la técnica digital se implementan en la sociedad desde su praxis cotidiana para transgredir los modos de vida de los usuarios y de los no usuarios, que ven afectada su circunstancia por la inferencia de una galopante epidemia tecnológica; el dominio digital entendido como ‘poder’ o ‘feudo’ digital. En este proceso, el ciudadano no usuario28 que se resiste a verse involucrado en estos nuevos desarrollos tecnológicos, queda segregado socialmente y apartado de la contemporaneidad. La puesta al día del ‘yo tecnológico’ requiere, como en cualquier proceso de aprendizaje, de tiempo y dedicación para asumir las técnicas nuevas, los conocimientos científicos, empíricos y también los atributos económicos, y una determinada comprensión del contexto sociocultural que surge en torno a la tecnología. A día de hoy, la población, a tenor de los canales de comunicación e información que cada individuo es capaz de operar, concentra una máxima capacidad mediática en la población de jóvenes adultos, si bien, es cada vez más habitual encontrarse sectores de población ya anciana aprendiendo a manejar los nuevos dispositivos. La Realidad Virtual o Virtualidad Real. El ascendente de la Realidad Aumentada. ‘Virtual’. (Del lat. virtus, fuerza, virtud). Que tiene virtud para producir un efecto, aunque no lo produce de presente, frecuentemente en oposición a efectivo o real. Que tiene existencia aparente y no real. Real Academia de la lengua Española La realidad digital alternativa a la realidad física29 o presencial es etiquetada comúnmente como Realidad Virtual. La comprensión de este adjetivo resulta esencial para sentar las bases de esta 27 Recientemente se ha presentado en el Congreso de los Diputados una propuesta de ley para eliminar el soporte papel de la documentación de los juzgados. Es éste uno de los últimos reductos, junto con la judicatura, en adoptar el soporte digital para la información. 28 Para profundizar en la materia social, véase Perfil antropológico de la vivienda aumentada. Del morador al electronómada (-11.000, +1998), Cap. IV. 29 El comportamiento de un escenario digital no está comprometido por las leyes físicas, a no ser que explícitamente lo programemos simular tales leyes. 10 investigación. Si bien su uso es aceptado y común en disciplinas de muy diversa índole, fácilmente puede dar pié a equívocos semánticos dado su significado polisémico complejo, a menudo tergiversado y manido. A pesar de resultar más apropiado el significado del término ‘realidad alternativa’, el texto asume la convención ‘virtual’ para referirse a la realidad alternativa. De otro modo, resultaría incómodo aclarar la nomenclatura cada vez que aparece en referencias múltiples. Hecha esta aclaración, no se entenderá por tanto ‘virtual’ como ‘que tiene existencia aparente y no real30’. Lo virtual no supondrá irrealidad ni negará la existencia real; en palabras de Deleuze, ‘lo virtual posee una realidad plena, en tanto que virtual’. El caso de la Red Internet (Alcalá 2007: 40) implica ‘una nueva infraestructura, (…) un espacio ‘no-físico’ intangible, pero real’, con sitios web. Es ésta connotación de irrealidad, propia del comienzo de la era digital cuando la tecnología pretendía copiar, simular, aparentar la realidad tradicional mediante la reproducción de un entorno digital artificial generado por ordenador que permitía al usuario ‘estar presente’ en dicho entorno. El marketing y la publicidad convinieron en nombrar estos procesos digitales con la palabra realidad. Aunque originalmente empleado en la industria del videojuego, esta nueva realidad fue conquistando aplicaciones usadas en otros campos como la simulación de vuelo o la medicina. El calificativo virtual pone el contrapunto a esta conveniencia, evitando la asociación que pudiera hacer el consumidor del producto tecnológico ex novo con la realidad tradicional. La expresión ‘realidad virtual’ resulta al menos equilibrada en términos de mercadotecnia. Fig.4. Cybermap Landmarks, circa 1994. John December. Fig.5. V.R. Goggles: 3-D trip inside a drawing, via computer graphics, Popular Science, Abril 1971. Ivan Sutherland31. 30 Acepción tercera de la RAE. 31 Transcripción literal del artículo: ‘Slip this display device on your head and you see a computergenerated 3-D image of a room before your eyes. Move your head and your perspective changes, just as though you were actually inside the room. Architects could use the device to draw buildings in three dimensions; realtors could use it to show buyers the interiors of homes without even leaving the office. 11 Por otra parte, la expresión ‘virtual’ hace referencia específica a la tecnología original que permitía construir y visualizar un escenario digital virtual. El primer dispositivo, en forma de casco sensible a los movimientos de la cabeza32 que desarrollaba el concepto de realidad virtual fue desarrollado en 1961 por Corneau y Bryan, empleados de Philco Corporation. Aunque según Ortigueira (2012) el propio concepto de realidad virtual surge en 1965 cuando Ivan Sutherland publicó un artículo titulado The Ultimate Display en el que describía este particular, después prototipado en 1971 (fig.5), si bien anteriormente los científicos ya habían comenzado a asentar las bases conceptuales. Pero la locución ‘realidad virtual’ no sería acuñada hasta 1989 por el informático y gurú de internet Jaron Lanier Zepel33. La compañía VPL Inc. creada por Zepel desarrolló los exóticos Eyephones y los guantes de datos que permitían al usuario de la computadora experimentar mundos simulados que podían ser generados por los programas informáticos. No resulta de interés para esta investigación admitir única y exclusivamente la acepción meramente técnica del término virtual, pues resultarían olvidadas otras tecnologías -la Red Internet- que contribuyen también a construir el panorama de lo virtual. Si se entenderá por realidad virtual aquella que afecta a un conjunto de tecnologías que proponen múltiples caminos de virtualidad, no exclusivamente los abiertos por las máquinas virtuales de los 60 y 70. Además de la virtualidad inmersiva que proponen los diferentes dispositivos mencionados, se contemplarán otras virtualidades no inmersivas como las gestadas en Internet. La inmersión34 es Dr. Ivan Sutherland, University of Utah, invented the device, essentially a computer-graphics version of the old stereoscope.’ 32 Permitía ver imágenes en movimiento y contenía un sensor magnético que reconocía la posición de la cabeza del usuario. Más adelante, y debido fundamentalmente al apoyo de la NASA, los entornos virtuales pudieron brindar a sus usuarios la posibilidad de interacción con todo el cuerpo. La experiencia iría ganando en complejidad con los años, hasta las últimas novedades contemporáneas. 33 New York Times, 25 de Septiembre de 1994. 34 La inmersión es el proceso psicológico que se produce cuando la persona deja de percibir de forma clara su medio natural al concentrar toda su atención en un objeto, narración, imagen o idea que le sumerge en un medio artificial (Turkley 1997). A pesar de todo ello, los acontecimientos que ocurren dentro de la inmersión afectan de forma similar a lo que ocurriría si pasaran en el mundo real (Ryan 2004). Por lo tanto, la inmersión es un proceso activo de retiro de la realidad próxima para aceptar las normas y valores del mundo simulado en el que se sumergen, con sus ventajas e inconvenientes. (…) El caso archiconocido de incapacidad de desconexión de la inmersión es El Quijote, que aunque no es un caso real, ejemplifica de forma magnífica lo que ocurre cuando una persona no es capaz de desprenderse del mundo simulado en el que se ha sumergido quedándose atrapado en él (González 2009). El propio González (2009) propone tres factores necesarios para que tenga lugar el proceso de inmersión: ‘querer creer’, empatía y familiaridad (acumulación de sentimientos y experiencias sobre un tema, actividad…Esta información se suele sistematizar en automatismos (rutinas) necesarios para poder ahorrar recursos intelectuales, permitiendo realizar acciones cada vez más complejas, sin necesidad de estar concentrado en casa uno de sus pasos. 12 una cualidad determinante en este entorno, pues define el carácter de la realidad virtual. Una realidad virtual inmersiva permite al usuario experimentar la sensación de estar ubicado en dicha realidad, en el caso de Internet sería el ciberespacio. Resulta de especial importancia en medios simulados. Una realidad virtual no inmersiva es percibida por el usuario como un escenario ajeno a su localización física, a su posición35. Antoine Picon (2003: 294), en su ensayo Architecture, science, technology, and the virtual real, valora la etimología clásica de la dimensión virtual entendida como ‘llena de virtud’: ‘entendiendo aquí virtud como una capacidad de acción (…) no es más que un potencial que espera su propia realización. La realidad virtual no es de ninguna manera irreal, pero todavía no se ha manifestado su efecto completo. La realidad no es el problema; lo que le hace falta en parte es su pleno desarrollo o presencia. La realidad virtual puede interpretarse como un germen, como el punto de partida de una evolución dinámica’. Esta traslación de la Teoría Hilemórfica36, y por extensión, de la Teoría de la Potencia-Acto, al concepto de lo virtual implica creer en la determinación de cambio de la substancia virtual. Este cambio estaría implícito en la facultad de lo virtual de producir una acción o un efecto, según el punto de vista de Picon37 ‘de encontrar su presencia’. Se interpreta de sus palabras que la manifestación presencial de la realidad virtual implica un abandono de su soporte digital para perfeccionarse en la enteléchia virtual: la configuración definitiva que entrañaba -y extrañabala potencia digital pasiva. En oposición a la potencialidad virtual, su enteléchia refleja un estado donde se consuman todas sus potencialidades. El edificio es la enteléchia del proyecto de arquitectura; la capacidad de impulsar esta transformación es también enteléchia. El Entorno Aumentado constituye pues ese estado o tipo de existencia donde se produce la eclosión de la potencialidad de lo virtual. La enteléchia digital resultará habilitada por soportes que evolucionan rápidamente sumando precisión, potencia y eficiencia energética. En el Entorno Aumentado, las propiedades del soporte final que sirva de catalizador de esa enteléchia afectan también al escenario físico. El soporte sin duda debe proporcionar una virtualidad máxima. El entorno espacio-temporal donde se produzca dicha realidad debe permitir la interacción óptima del individuo, el entorno físico y la acción virtual. Los entornos aumentados requieren estar activados, encendida su capa digital, 35 Véase Cultura interactiva de lo visual. De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google en el Cap. II. 36 Aristóteles, y más tarde casi todos los escolásticos, fundamenta la existencia corporal en la suma de materia (hyle) y forma (morphé). 37 Ibíd. 13 para que la enteléchia digital que completa su ontos resulte plena38. La dependencia energética es manifiesta, tanto por parte de los dispositivos sensibles que construyen el escenario aumentado o hiper-lugar como por parte de la electrónica del usuario que lo percibe. En este sentido, una interacción máxima queda recogida en propuestas como la de Keichi Matsuda en Augmented City, donde el usuario está integrado completamente en un entorno aumentado sin necesidad de usar casco, gafas, guantes…o cualquier otro dispositivo que habilite la percepción digital. Cada usuario puede conectar ipso facto con la globalidad de Internet. En palabras de Pierre Lévy (1998: 22) ‘cada cuerpo individual se convierte en parte receptora de un inmenso hipercuerpo híbrido y mundializado39’. En este estadio tecnológico, la biotecnología habrá transferido las capacidades de todos estos dispositivos o interfaces para poder percibir el dominio digital a nuestro propio cuerpo, circunstancia que ya está sucediendo y que remite directamente a la cultura cyborg. Pierre Lévy señala la existencia de diferentes niveles de virtualidad en correspondencia con la dimensión espacial que ocupe: bidimensional, tridimensional, tetradimensional. Es decir, mayor grado de virtualidad cuanto más se parezca a la realidad tradicional. Reflexionemos sobre este particular: ¿mayor dimensión espacial implica mayor interacción y comunicación?; ¿existe una relación directa entre la cualidad espaciotemporal del lugar digital y la virtualidad?; o dicho de otro modo, ¿la interacción y comunicación virtual dependen exclusivamente de la configuración formal? La respuesta parece ser negativa. Un sistema virtual no necesariamente tiene que simular la realidad para corroborar su virtualidad, ni ha de someterse a la ley de impenetrabilidad de los cuerpos sólidos ni a otras leyes físicas. La abstracción facilita a menudo la comprensión de procesos realistas complejos. La asimilación del sistema de representación cartesiano por parte de los maestros constructores puso en sus manos una nueva visualización de lo arquitectónico. Los primeros arquitectos renacentistas pudieron sintetizar y desglosar la realidad ‘carnal’ –así calificada en el Neuromancer- para su mejor análisis. La misma realidad atesora la representación perspectiva y la representación en planta o alzado de un objeto, simplemente, son maneras diferentes –aunque en el marco de la geometría analítica de René Descartes- de aproximarse visualmente a dicho objeto para su posterior análisis. Por todo ello, no parece muy aceptable relacionar exclusivamente las dimensiones perceptibles de la realidad virtual con su grado de virtualidad. 38 Los límites del Entorno Aumentado se definen con el alcance de los dispositivos electrónicos. En relación con esta circunstancia topológica, Wittgenstein (1997) afirma: ‘los límites de mi lenguaje significan los límites de mi mundo. (…) Mi único propósito (…) es arremeter contra los límites del lenguaje’. 39 Sobre la virtualización del cuerpo y su transformación en hipercuerpo: ‘la constitución de un cuerpo colectivo y la participación de los individuos en esta comunidad física usó durante mucho tiempo mediaciones puramente simbólicas o religiosas: ‘Esto es mi cuerpo, esta es mi sangre’. Hoy emplea medios técnicos.’ (Lévy, óp. cit., p.22). 14 En detrimento de la representación de la realidad virtual, si cabe pensar en una gradación de la virtualidad cuyo parámetro sea la interacción. De diferentes modos una realidad virtual dada puede hacerse manifiesta, perceptible, sensible al ser humano. Cuanto más heterogéneos sean los canales de transferencia de esta información virtual al sistema perceptivo humano más compleja será su condición. Ante la visualización de un modelado virtual 3D estaremos de acuerdo en que su virtualidad aumenta en complejidad si también podemos olerlo. Más aún si podemos tocarlo, oírlo y saborearlo. Cabe pues establecer un gradiente de virtualidad vinculado al sistema sensorial del ser humano cuyo origen sería una virtualidad cero, correspondiente a canales perceptivos ajenos al sistema perceptivo humano –p.ej. una realidad virtual de rayos infrarrojos-, hasta el grado cinco que requiere de la integración de todos los sentidos del cuerpo humano. Superar el grado cinco de virtualidad implica una realidad virtual que integra estados materiales imperceptibles al ser humano (ultrasonidos, infrarrojos…). De manera análoga sucede con las dimensiones matemáticas de todos los tipos de espacio, nos resultan perceptibles solo las cuatro primeras aunque existan muchas más. La arquitectura tradicional, provista de masa, se convierte en el Entorno Aumentado soporte de la información que fluye en el ciberespacio, cuya virtualidad resulta así contaminada por la experiencia física. La TransArquitectura y la Arquitectura Líquida de Markos Novak, la Arquitectura Fluida de Toyo Ito, la Arquitetura Hipersuperficial (N-Dimensional) de Stephen Perrella (Alcalá 2007: 41) confluyen en una nueva arquitectura cyborg que se dirime entre la extensión digital y la física, y que define una Arquitectura Avanzada (Guallart 1999: 74): ‘un concepto de lo arquitectónico que no parte de la propia arquitectura, ni habita un lugar virtual (del que ya se ocupan las Arquitecturas Virtuales), ni tampoco ya real (del que ya se ocupaban las arquitecturas estructuradas sobre las geometrías euclidianas), sino que se conforma ahora con la piel híbrida (…) del habitante hibridado (protésicamente amplificado, expandido por las nuevas tecnologías y la virtualización)’. Esta arquitectura propia del Entorno Aumentado, puede definirse como una arquitectura aumentada que asume y trabaja intensamente la condición tecnológica híbrida propia del nuevo entorno. 1.2. Escenario histórico. Cambio de paradigma. La investigación afronta la fusión de la realidad tradicional y la alternativa articulada por la tecnología digital, en relación a sus efectos en lo arquitectónico. O dicho de otro modo, la fusión del mundo tal y como lo hemos conocido hasta el siglo XXI y el dominio digital engendrado por la computación. La aproximación a esta coyuntura supone la exploración de un campo emergente de acción y profesión para el arquitecto, que debería reivindicarse -si aun no lo ha hecho- parte activa del proceso de construcción del Entorno Aumentado. El texto no se identifica con una proclama del nuevo paradigma ni con una colección de propuestas visionarias, pero reclama para sí la intención de trazar un mapa que cartografíe el acontecimiento. 15 ¿Qué es un arquitecto? ‘Y llamo arquitecto al que con un arte, método seguro, maravilloso, mediante el pensamiento y la invención, es capaz de concebir y realizar mediante la ejecución todas aquellas obras que, por medio del movimiento de las grandes masas y de la conjunción y acomodación de los cuerpos, pueden adaptarse a la máxima belleza de los usos de los hombres’. León Battista Alberti, De Re Aedeficatoria. La definición de Alberti retrata la primera generación de arquitectos surgida en Florencia a la sombra del gran Filippo Brunelleschi (1337-1446). En aquellos días, la convergencia múltiple de nuevas técnicas de representación y de construcción, de un lenguaje integral cuya sintaxis articulara cualquier producción arquitectónica, así como la aparición de capacidades y competencias que habilitaran la recién estrenada figura del arquitecto en detrimento de la obsoleta disposición gremial de la Edad Media, fueron novedades que implicaron un punto de inflexión en el entendimiento y alcance de la disciplina. En la contemporánea Post-Revolución Digital, la vanguardia de lo arquitectónico basa su producción en un soporte a caballo entre el soporte tradicional40 pre-digital y el soporte digital. Aceptado el irrevocable imperativo digital41, la ortodoxia parece condenada a asimilar contenidos y continentes tecnológicos hasta hace muy poco extraños a la profesión del arquitecto. Si bien en el Renacimiento el impulso para el desarrollo de nuevas técnicas, como la representación perspectiva, el espacio proyectivo o la construcción de un nuevo lenguaje articulador del orden geométrico provino del ámbito de las artes, el desarrollo y la proliferación de la tecnología digital proceden, en un alto porcentaje, de campos profesionales ajenos. Desde la aparición en la década de los sesenta del diseño asistido por ordenador hasta nuestros días, apenas la reciente aplicación Grasshopper de Rhinoceros ha sido ideada por un arquitecto. Programado para crear formas mediante el uso de algoritmos generativos, este software cuenta con una interfaz que valora especialmente el aspecto gráfico de la información en detrimento del uso de lenguajes de programación basados exclusivamente en el código. 40 Entiéndase el término soporte como medio de comunicación del proyecto arquitectónico. 41 ‘La Cátedra Sin Papeles de la Universidad de Columbia, uno de los primeros intentos a gran escala de usar ordenadores para el proyecto de arquitectura, fue considerada en 1992 por muchos como una extravagancia. (…) Mientras teóricos y profesionales como Greg Lynn, William Mitchell, Peter Eisenman o Frank Ghery se alinearon con la nueva perspectiva abierta por las emergentes herramientas digitales, otros como Kenneth Frampton o Juhani Pallasmaa se mostraron más reservados’ (Picon 2010, óp. cit., p.8). 16 El arquitecto de hoy es un mediador entre el dominio digital y el medio físico, pero a diferencia de lo acontecido en el periodo de la Revolución Digital, éste ha interiorizado un interés general por las herramientas digitales, así como cierta capacidad técnica para abordar procesos de programación que antes desarrollaban otras disciplinas o unos pocos investigadores universitarios. Hoy por hoy, una buena colección de los hábitos ciudadanos está directamente enajenada por la producción científica. La tecnociencia nutre al ciudadano aceleradamente, que traza y adapta su trayectoria teniendo en cuenta los últimos productos de las TIC. Estos cambios implican importantes distorsiones en las inercias rutinarias más estables42. El tiempo, el cambio, la información, la velocidad, la propiedad, la adaptación, la heterogeneidad o la sostenibilidad, son algunas nociones que se encuentran bajo la presión del progreso y en fase de continua revisión. El tiempo crítico contabilizado desde la construcción científica hasta su aplicación o aplicabilidad social es en palabras de Mumford (1934) ‘el más corto de la historia43’. Estableciendo la analogía con el Quattrocento y en sincronía con el cariz pluridisciplinar de los avances científicos que tuvieron lugar en tan exiguo periodo de tiempo44, cabría buscar rastros cotidianos de un nuevo concepto de Naturaleza, como el que en aquel entonces supuso el apogeo del antropocentrismo y la instauración de las bases sobre las que se fundamentará el mecanicismo clásico de Isaac Newton, que más adelante, derivaría en el organicismo. El editor francés André Le Bretón eligió en segunda instancia a D’Alembert y Diderot para dirigir el proyecto editorial de L'Encyclopédie, consciente y expectante tras el éxito editorial en Gran Bretaña de la Cyclopaedia -Diccionario Universal de las Ciencias y las Artes- publicada por Ephraim Chamber en 1728. Cuando D’Alembert redactó el Discurso Preliminar de L'Encyclopédie se refirió a la publicación como una herramienta que a la postre ‘cambiará la forma de pensar’. Sin duda contribuyó al cambio del concepto de Naturaleza, abriendo las puertas del organicismo. Publicada on line el 11 de abril de 2001 Jimmy Wales y Larry Sanger, Wikipedia nació también como complemento de otro proyecto enciclopédico Nupedia (2000). Mientras Nupedia dejó de funcionar en 2003, Wikipedia se encuentra hoy entre los diez sitios más populares de la Red y 42 En la entrevista a Amparo Lasén titulada ‘Las nuevas formas de acción colectiva desafían la lógica de la representación’ se desarrolla en este argumento. Disponible en: <http://blogs.publico.es/fueradelugar/114/multitudes-inteligentes-y-multitudes-relampago>. (Consultada el 1 de julio de 2013). 43 Véase Incidencia ecológica en el Entorno Aumentado, Cap. IV. 44 En los anaqueles de una biblioteca podemos acceder a Leonardo o Galileo desde ‘Astronomía’, ‘Filosofía’, ‘Matemáticas’y ‘Física’, entre otros. Hubo un momento en que la Piazza de la Signoría fue un escenario común a los pintores, escultores, filósofos, matemáticos, arquitectos, físicos,…etc., que participaron en la construcción del nuevo paradigma antropocentrista. 17 tiene hoy más de 11 millones de artículos que configuran el compendio editable de conocimiento de consulta colectivo. Frente a la correspondencia unívoca que depara L'Encyclopédie en su construcción y transmisión del conocimiento, de D’Alembert y Diderot al pueblo, Wikipedia encarna la colectivización y la accesibilidad a los distintos saberes de una Sociedad del Conocimiento que irrumpe de la mano de la Sociedad de la Información y de la Sociedad en Red. Históricamente las aportaciones de la ciencia han acabado induciendo cambios en el concepto de Naturaleza. Carlos Naya (1998: 51) señala en su tesis Arquitectura y técnica que ‘la identificación en la consideración de los objetos naturales y artificiales lleva consigo que el conjunto de estos pasan a ‘constituir una nueva naturaleza’ (…) donde las leyes científicas aparecen como sustitutivas de las naturales y los procesos técnicos son vistos en su equivalencia45 con los naturales’. La estabilidad y permanencia, cualidades del concepto de Naturaleza compartidas por el Paradigma Mecanicista46, se volvieron inestabilidad y evolución con los novedosos presupuestos organicistas (Ábalos 2011) acontecidos en el siglo XIX. El concepto de Naturaleza vuelve a evolucionar tras la Revolución Industrial y las teorías relativistas de Einstein. A lo largo del siglo XX, el acceso a niveles subatómicos de información, la emergencia de la Mecánica Cuántica entre 1920 y 1930 o la exploración de Poincaré de incertidumbres e inexactitudes matemáticas han propiciado a su vez nuevos puntos de vista. Según apunta Nicolás Caparrós (2012: 19) en la ‘Introducción General’ a Viaje a la Complejidad, ‘los sistemas dinámicos no lineales ofrecen dos particularidades enojosas e interesantes a un tiempo. Por un lado, presentan patrones identificables de comportamiento, por otro, son impredecibles lo largo plazo’. La experiencia científica que corroboraba los dictados de la razón, implica una metodología que poco a poco va cayendo en desuso según avanza el siglo XXI. Hoy en día los procesos de investigación de nuevos materiales invierten el transcurso del protocolo científico: primero se elabora la lista de propiedades del nuevo material y luego se sintetiza su materia. 45 De esta equivalencia de los procesos técnicos y los naturales procede a menudo la consideración de la técnica desde un punto de vista orgánico. De ella se desprende la concepción de una cierta evolución y selección de los objetos técnicos, similar a la de las especies naturales. Esta se traducirá en una especie de visión darwinista del proceso técnico. Cfr. Steadman (1984) ‘El mito del darwinismo arquitectónico’, AA.VV, Óp. Cit., MOPU, p.84. 46 Nótese la diferencia entre máquina y técnica. La máquina es un objeto técnico mientras que la y técnica es un modo de racionalización. Si bien la máquina es el producto propio de un determinado modo de técnica (la mecánica), la identificación de técnica y máquina supone necesariamente una reducción. En este sentido, propiamente, solo se puede plantear la cuestión de la función del arte o la arquitectura en una concepción técnica del mundo, pero parece de sentido hacerlo desde el punto de vista del maquinismo (si podría hablarse de concepción ‘mecanicista’, en cuanto se refiere a un tipo de técnico, pero no ‘maquinista’. No obstante el desarrollo enorme del fenómeno ‘mecanización’ ha hecho que la máquina como modelo o como paradigma cobre notable importancia. (Naya 1996: 49). 18 El anuncio de nuevos horizontes en la perspectiva científica que explican la realidad cambiante desde presupuestos no lineales supone una inyección de luz y propone un nuevo paradigma para la comprensión y trascendencia de los fundamentos del Entorno Aumentado. El Paradigma de la Complejidad amplía la perspectiva reduccionista que el Paradigma científico de Galileo infería a los fenómenos y comportamientos naturales, y atisba un cambio radical -en favor del holismoen la impostura científica fundamentado en la no-linealidad47, el caos determinista, la autoorganización, geometría fractal,…etc. La obsolescencia de un pensamiento cuyo clímax alcanzó cotas tan elevadas y fructíferas en la Ilustración o en la Revolución Industrial parece resultar caduco en la interpretación de la realidad del siglo XXI. Así lo describe Andrés Perea (2013: 30) en el Viaje a la Complejidad: ‘El Paradigma Positivista, engendrado entre otros por L'Encyclopédie francesa y el pragmatismo anglosajón, ha sido el activo esencial en el desarrollo del pensamiento lógico científico, y es la causa del exponencial progreso técnico y científico, para bien y para mal, del siglo XIX y de la primera parte del XX. Definir conceptos, acotar fenómenos, clasificar, fueron propósito esencial del paradigma positivista hasta que la complejidad, multiplicidad de agentes de información que intervienen en la producción del conocimiento, hacen obsoletas gran parte de las afirmaciones y consiguientes definiciones positivistas.’ El Entorno Aumentado presenta síntomas de independencia con respecto al espacio-tiempo lineal característico de las posiciones deterministas; el cambio de paradigma trasciende sobremanera a la valoración del concepto tiempo. La extensión digital vinculada a un lugar donde sucede un acontecimiento introduce una dimensión temporal diferente al tiempo analógico. El Espacio de Minkowski, 3D + T= 4D, debe asumir la nueva bipolaridad híbrida donde el lugar digital y el tiempo digital significan parámetros fundamentales en el reloj del ser humano del siglo XXI. La dimensión temporal del ciberespacio de Internet implica alteraciones en el orden temporal tradicional, convergencias, ‘tiempos compartidos’, simultaneidad, retroalimentación, nuevos escenarios de predicción y otros efectos ajenos al tiempo newtoniano absoluto, al tiempo solar o al tiempo ‘flecha’ irreversible de Arthur Edington. El cibertiempo que pauta la inmersión en la escena virtual de los videojuegos deforma la temporalidad externa 47 En 1814, Pierre Simon de Laplace resumió en el que ahora se conoce como demonio de Laplace, la esencia del paradigma newtoniano de forma provocadora: ‘Hemos de considerar el estado presente del universo como el efecto de su pasado y como causa del futuro. Un intelecto que en cualquier momento pudiera conocer todas las fuerzas que animan a la naturaleza y las posiciones relativas de los seres que las componen, si fuese lo suficientemente basto para someter esos datos al análisis, podría condensar en una sola fórmula desde el movimiento de los mayores objetos del universo hasta el del menor de los átomos; para un intelecto así nada resulta incierto y tanto el futuro como el pasado sería presente’. (Nicolis G. & Nicolis C. 2012: 55). 19 al juego48. En el Entorno Aumentado, el cibertiempo del dominio digital se amalgama con el tiempo de la realidad física dando lugar a un derivado temporal complejo cuya magnitud resulta a menudo confusa y desubicada. El concepto de espacio-tiempo es indisoluble en la contemporaneidad. A la naturaleza topológica espacial del lugar aumentado se suman pues unas facultades particulares que caracterizan el concepto de tiempo aumentado. La simultaneidad físico-digital del Entorno Aumentado implica la existencia de un tiempo híbrido49 resultante de la interacción que Echeverría (Ibíd.: 83) tacha de multicrónico ‘para indicar la pluralidad de pautas temporales’ del tiempo del Entorno Aumentado50. Por otro lado, la porosidad51 de la topología del Entorno Aumentado denota que el tiempo aumentado no es continuo. La capa digital se supone a disposición del usuario, que accede a la información a demanda, lo que se traduce en una asincronía temporal entre lo que acontece fuera y dentro del dominio digital. El consumidor digital constituye una parte activa en el proceso, capacitado para la conectar o desconectar a voluntad el dispositivo electrónico por el que percibe la capa digital. La asincronía también se revela en la capacidad para dosificar el tiempo entre las acciones digitales que propone el Entorno Aumentado y el control de la preponderancia de las más intrusivas o inmediatas frente a otras quizás más importantes. La riqueza y complejidad del tiempo en el Entorno Aumentado, sumadas a la condición topológica de su espacio, advierten la necesidad de establecer una magnitud capaz de medir la sustancia que le es propia sin perder ninguna de sus propiedades esenciales. En el siglo XX, el filósofo ruso del lenguaje Mijaíl Bajtín propuso el cronotopo como unidad indisoluble del combinado espacio-temporal. Tal vez sea ésta la unidad de medida idónea para dimensionar y transformar el espacio que propone el Entorno Aumentado52. La integración del tiempo en lo arquitectónico ha ido cambiando con el devenir del siglo XX. Las imposturas perpetuas que han dominado en la escena histórica arquitectónica han dado paso al dinamismo y a la aceptación del cambio como elemento fundamental del proyecto. La exploración de procesos de proyecto no lineales, la arquitectura responsiva o la asimilación arquitectónica del concepto temporal de desarrollo sostenible resultan posiciones 48 Véase definición en el Glosario. 49 Tal vez resulte más adecuada la voz simbiótico para calificar el tiempo aumentado, como producto de la relación convergente que establecen los diferentes tiempos. 50 Para profundizar en la categoría temporal del Entorno Aumentado véase Conectividad aumentada. La distorsión del espacio-tiempo. 51 Véase el desarrollo de este concepto en el Cap.IV, El entorno transfigurable y el declive de la estética estática. 52 Se invita al lector al ejercicio de plantear la cartografía (que no planimetría) de un proyecto de vivienda aumentada cuya magnitud no se mida en metros sino en cronotopos. 20 contemporáneas que abrazan una consideración diferente del tiempo. La Teoría de la Evolución formulada por Charles Darwin53, tan alejada de la estabilidad del Paradigma Newtoniano, y los descubrimientos en el campo de la genética han influido decididamente en el desarrollo de sistemas creativos evolucionados que toman la variable tiempo como parámetro fundamental. La computación ha habilitado en la segunda mitad del siglo XX el desarrollo generativo de modelos embrionarios a partir de un genotipo que se convierte en fenotipo con el paso del tiempo. Fig.1. Skeletal Structures of forelimbs, 2000. Monroe W. Strickberger. Fig.2. Embryos, 1870. Ernst Haeckel. Transcurrida la Revolución Digital, Michel Serres nos recuerda que aun tenemos pendiente la renovación de nuestro Contrato Natural, si bien hay indicios suficientes para señalar ingredientes nuevos con respecto a la supremacía científica en el diseño de esa nueva naturaleza. El concepto de Desarrollo Sostenible (Brundtlan 1984) supone una mirada ética diferente hacia la configuración de la Naturaleza Artificial que supone el Entorno Aumentado, y por extensión, a la aplicación de los avances científicos en el ámbito social y a la maquinación de una nueva ontología que reformule un nuevo concepto de naturaleza en el que ciencia y sociedad tiendan a converger en mayor y mejor medida de lo que lo hacen en nuestros días. 53 Véanse las figuras 2 y 3 a propósito de esta afirmación de Charles Darwin: ‘¿Qué puede haber más curioso que la mano de un ser humano conformada para asir, la de un topo para escavar, la pata de un caballo, la paleta de una marsopa y el ala de un murciélago, siendo todas construidas sobre el mismo patrón e incluyendo huesos similares en la mismas posiciones relativas?’. 21 1.3. Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información. ‘(…) Nosotros, contemporáneos, estamos provistos de dos tipos de cuerpo, para responder a estos dos tipos de naturaleza. El cuerpo real está unido al mundo real por medio de fluidos que corren por su interior y el cuerpo virtual unido al mundo virtual mediante el flujo de electrones’. Toyo Ito, 1997. La naturaleza informacional54 del Entorno Aumentado constituye uno de sus fundamentos más relevantes. Su estudio y análisis resulta por tanto clave para la compresión del fenómeno. El alcance del proceso constructivo en su ‘transformación multidimensional’, en palabras de Manuel Castells (2002; 2006), es abordada en este texto tomando en consideración referencias de la literatura provenientes de distintas disciplinas como la sociología, las artes visuales o la arquitectura. La Era de la Información (2002) o La Sociedad Red (2006), del sociólogo y profesor de Sociología y de Urbanismo en la Universidad de California en Berkeley Manuel Castells, son referentes seminales en la materia. The Alphabet and the Algorithm (2011) de Mario Carpo, Code. Between Operation and Narration junto con Complexity. Design Strategy and World View y Simulation. Presentation Techinique y Cognitive Method editados por Andrea Gleiger y Georg Vrackhliotis55, y ME++ junto con Placing Words de William Mitchell, desarrollan visiones analíticas de la coyuntura tecnológica a investigar, desde enfoques vinculados al contexto informacional derivado de la Revolución Digital. La presencia concreta de la realidad objetual es consecuencia de la interacción de multitud de procesos en los que intervienen diferentes niveles de información. A lo largo de la historia se ha procedido a descodificar esta información para lograr la comprensión precisa de causas y efectos. Este conocimiento, procedente del examen minucioso de la naturaleza y la constatación 54 Nótese la preferencia del Castells por el término ‘informacionalismo’ y ‘sociedad informacional’ en relación con la sociedad industrial (industrialismo). El término informacional indica el atributo de una forma específica de organización social en la que generación, el procesamiento y la transmisión de la información se convierten en las fuentes fundamentales de la productividad y el poder, debido a las nuevas condiciones tecnológicas que surgen en este nuevo período histórico. La terminología de Castells trata de establecer un paralelismo con la distinción entre industria e industrial. 55 Estas publicaciones forman parte de la colección Context Architecture dirigida por la Zurich University of Arts (ZHdK) y Ludger Hovestadt, catedrático de Computer Aided Architectural Design en el ETH Zurich. 22 experimental científica56 ha permitido la manipulación, la transformación y la predicción probabilística de procesos. El afán del ser humano por desentrañar el código natural responde a intenciones de índole muy diversa, si bien generalmente subyace el propósito deseado de la conquista artificial de la réplica natural y su consecuente manipulación. Los pueblos de la taiga escandinava sabían de las propiedades impermeables de la corteza del tronco del abedul57 o Betula Pendula. La empleaban como material de construcción en la cubierta de los edificios, sobre ella acopiaban turba y plantaban hierba. Su corteza imperecedera es rica en aceites y componentes que la hacen muy resistente a las agresiones rigurosas del medio: el frío y el viento septentrional. Los escandinavos desconocían la razón primera responsable de esa propiedad química, ignoraban su código genético. Sin tener acceso a la información genética, disponían de ella aprovechando las propiedades de su metabolismo. Si bien en numerosas ocasiones la ciencia ha avanzado mediante procesos asistemáticos e incluso casuales, el método empírico-analítico ha interpretado experimentalmente la materialidad de los objetos y de los procesos hasta reducirlos a algoritmos. Ello no solamente ha permitido anticiparse al hecho natural, sino que ha posibilitado su mutación y transformación. Las herramientas y los instrumentos necesarios para la obtención y/o generación de información han proliferado en multitud de formatos, desde los más ajenos al individuo operados por control remoto, hasta la ropa inteligente (fig.14). El código comenzó a estudiarse de modo sistemático con la formulación sintética de la proteína a partir de cuatro bases y veinte aminoácidos. En 1954, George Gamow publicó su código diamante (fig.13) en la revista Nature, uno de los pasos decisivos hacia la comprensión plena del código genético compartido por todos los organismos conocidos, incluyendo los virus. La información como reseña generadora de la materia es objeto de reflexión por Manuel de Landa (2002) en Deleuze y el uso del algoritmo58 genético en arquitectura, donde se cuestiona la capacidad matemática de crear forma. Afirma De Landa (Ibíd.: 151) que ‘la dificultad consiste en definir la relación entre los genes virtuales y los rasgos físicos que generan’. En biología, el estudio de dinámicas de población ha desarrollado una técnica ‘bien arraigada’ que permite el ensayo simulado de poblaciones en ecosistemas artificiales que replican conductas naturales. De modo similar, la arquitectura biomórfica fundamenta su estructura en las sinergias establecidas entre los patrones de crecimiento naturales y el diseño paramétrico de 56 La ciencia tiene dos maneras de cambiar nuestros conocimientos: una podemos llamarla extrovertida, que opera desde el mundo; la otra puede calificarse de introvertida, que opera desde nosotros mismos (Floridi 2010). 57 Algunos investigadores sugieren que el término procede del sánscrito bhurga, que significa ‘árbol para escribir’, por el hecho de que la corteza de este árbol era utilizada como papel antes de inventarse éste. Fuente: <http://www.botanical-online.com/>. (Consultada el 14 de agosto de 2013). Quizá del lat. tardío algobarismus, y éste abreviado del árabe clásico ḥisābu lḡubār o 'cálculo mediante cifras arábigas'. RAE. 58 23 algoritmos generativos. A este respecto, De Landa (Ibíd.: 151) defiende la necesidad de pensar en términos poblacionales cuando experimentamos con el código genético y no reducir el caso de estudio a uno o dos ejemplos. A este propósito, Deleuze suma al pensamiento poblacional la cualidad intensiva. El ‘pensamiento intensivo’ es indivisible escalarmente; al contrario que el extensivo, no puede simplificarse sin perder propiedades. Según este argumento, debemos plantear el algoritmo sin minusvalorar un ápice de información, ya que ésta podría ser crucial en la definición de la forma. Fig.1. Anillo ábaco, 1616-1911, Dinastía Qing. Fig .2. Primer reloj de bolsillo, Nuremberg. Fig .3. Reloj de bolsillo, 1920. En una sinfonía, la puesta en común de la interpretación musical de la partitura de cada instrumento descubre a menudo matices sonoros de difícil intuición en la simple notación musical monoinstrumental. De igual modo, la importancia de la selección de la función paramétrica es equiparable al buen diseño de las variables que serán operadas. Cuanto mayor sea la inteligencia y oportunismo de los parámetros, más idónea será la formulación arquitectónica. Recordando el caso de la corteza del abedul, puede afirmarse que la arquitectura entraña en sí la capacidad de fabricar información, sistematizar su codificación, interpretar, emitir y difundir la información. El planteamiento del proceso proyectual como exploración y desarrollo de una fórmula matemática generadora de un compromiso formal en la propuesta arquitectónica es, a día de hoy, uno de los caminos de investigación recorridos por la vanguardia arquitectónica contemporánea, conocido como arquitectura paramétrica59. En cierto sentido, el proyectista 59 Véase Cap.IV para profundizar en lo referente al diseño paramétrico de modelos arquitectónicos y adviértanse las palabras de Manuel de Landa, óp. cit., p.157-158: `(…) de este modo, los arquitectos que quieran utilizar el nuevo instrumento de los algoritmos genéticos deberán no solo convertirse en piratas informáticos (para poder crear el código necesario que reúna aspectos extensivos e intensivos), sino también ser capaces de ‘piratear’ la biología, la termodinámica, las matemáticas y otras áreas de la ciencia para explotar todos los recursos necesarios. Por fascinante que pueda ser la idea de ‘criar’ edificios dentro de un ordenador, está claro que la simple tecnología digital sin el pensamiento poblacional, intensivo y topológico, nunca será suficiente’. 24 puede utilizar este tipo de software para generar formas nuevas en vez de ‘simplemente’ diseñarlas (Ibíd.: 2002). El arquitecto, el diseñador industrial, el artista plástico o cualquier otro oficio que desarrolle un proyecto, puede llegar a convertirse en diseñador de un genotipo o ‘huevo matriz’, a incubar en un tiempo y espacio también diseñado para la ocasión, de modo que en un momento determinado se active el proceso de construcción estacionalmente latente. No resulta difícil imaginar proyectos cuyo formato se asemeje al de la serie de libros juveniles de hiperficción explorativa ‘elige tu propia aventura60’, en los que el texto induce una jerarquía ordenada en la interacción del lector, que tomará decisiones sobre la manera de actuar de los personajes y modificará así el transcurrir de la narración. El conocimiento de los códigos objetuales genéticos que formulan la materia, como en el caso del mapa del genoma humano, tiene como primera consecuencia la posibilidad de conocer y practicar la mutación de ésta y con ello, procurar el control y el dominio del mundo objetual. El acceso a la información, ya sea a escala microscópica o macroscópica, supone en nuestra contemporaneidad un hecho diferencial con otros tiempos pretéritos. La deidad medieval, el ser humano renacentista, la máquina moderna, el individuo existencial,…etc., constituyeron paradigmas61 de periodos históricos. Algunos autores como el propio Manuel Castells (Himanen 2001) apuntan al informacionalismo como paradigma tecnológico contemporáneo, en sustitución del industrialismo, mientras otros construyen sus argumentos en base, bien al cambio de época, bien a la época de cambios que ha evidenciado el siglo XXI. Las tecnologías de la información y la comunicación se encuentran en el origen de estas profundas transformaciones. Nunca antes el conocimiento y la información han estado tan relacionados con el poder económico, militar y político. En palabras de Castells (Ibíd., 2001), ‘lo distintivo de nuestra época es un nuevo paradigma tecnológico marcado por la revolución en la tecnología de la información, y centrado en torno a un racimo de tecnologías informáticas. Es cierto que en todas las épocas la información y el conocimiento han tenido gran peso en la sustancia social, pero lo que nos diferencia de aquellas es la capacidad cualitativa y cuantitativa de generar, procesar, comunicar y aprehender la información’. Castells observa en las nuevas tecnologías de la información tres rasgos principales y distintivos, relacionados con la capacidad de procesamiento, la capacidad recombinatoria y la flexibilidad distributiva. Estas tres cualidades son perfectamente extensibles al soporte último 60 Por ejemplo, la primera disyuntiva que aparece en El abominable hombre de las nieves es: ‘Si decides cancelar tu cita con Runal y buscar a Carlos, pasa a la página 7; si crees que Carlos está bien y sigues con la idea de ver a Runal, pasa a la página 8’. Fuente: Wikipedia. 61 El concepto de paradigma fue propuesto por el destacado historiador Thomas S. Kuhn para explicar la transformación del conocimiento a través de las revoluciones científicas. Un paradigma es un modelo conceptual que establece los criterios estándares de interpretación (Castells en Himanen 2001). Manuel Castells y Linus Torvalds son autores del prólogo a La ética del hacker y el espíritu de la era de la información, del finés Pekka Himanen, publicación de especial trascendencia en esta investigación. 25 de la información, el archivo digital. ‘Copiar’, ‘pegar’ y ‘cortar’ son acciones repetidas cada día por el consumidor de información digital, las cuales tienen una connotación relacionada con la velocidad. Responden a operaciones informáticas casi inmediatas, sobre todo si las comparamos con las copias de manuscritos realizadas en los scriptorium medievales o con las copias de tablas en los talleres de pintura del Renacimiento62. La Sociedad del Conocimiento, la Sociedad de la Información, la Sociedad en Red o la Sociedad Post-Industrial constituyen algunas candidaturas semánticas para acuñar esta época. Hoy por hoy, la Sociedad Informacional parece haber ganado la partida. Los orígenes de la expresión ‘Sociedad de la Información’ se remontan a 1973, cuando el sociólogo neoyorquino y profesor emérito de Harvard Daniel Bell avanzó el concepto en El advenimiento de la sociedad post-industrial. Para Bell, las tecnologías de la información habilitaron la ruptura histórica con los modelos sociales y sistemas industriales sociopolíticos anteriores. El conocimiento teórico (Torres 2005: 1) constituye la columna vertebral de la sociedad y advierte que los servicios basados en el conocimiento habrían de convertirse en la estructura central de la nueva economía y de una sociedad apuntalada en la información63. La Sociedad Informacional forma específica de organización social está afectada por el informacionalismo, paradigma tecnológico acuñado por Castells (2002) que ‘concierne a la tecnología, no a la organización social ni a las instituciones’. El informacionalismo, prosigue Castells, ‘suministra la base para un tipo definido de estructura social: la Sociedad Red. Sin el informacionalismo, la Sociedad Red no podría existir, pero esta nueva estructura social no es producto del informacionalismo, sino de un patrón más amplio de evolución social’. Esta trascendencia informativa se produce en un amplio espectro escalar que abarca desde estructuras sociales y políticas, a las organizaciones jerárquicas colectivas o al contexto personal del individuo cuyos objetos de uso cotidiano asumen también el imperativo informacional. El diseño de un objeto como soporte de información es una práctica inherente al ser humano. Las pinturas paleolíticas, las cinematográficas historias petrificadas de las portadas góticas o las fachadas mediáticas contemporáneas constituyen arquetipos de cómo la información se implementa en el soporte material. La polivalencia de los objetos, cualidad propia del diseño industrial actual, integra a menudo aspectos relacionados con la rentabilidad retórica de la información. 62 Véase en Cap. IV, El fin de la mano mecánica y el advenimiento de la ergonomía post-digital. 63 ‘Esta expresión reaparece con fuerza en los años 90, en el contexto del desarrollo de Sociedad de la información / Sociedad del conocimiento y de las TIC. A partir de 1995, se lo incluyó en la agenda de las reuniones del G7 (luego G8, donde se juntan los jefes de Estado o gobierno de las naciones más poderosas de la planeta). Se ha abordado en foros de la Comunidad Europea y de la OCDE (los treinta países más desarrollados del mundo); también lo adoptó el gobierno de Estados Unidos, así como varias agencias de Naciones Unidas y el Grupo Banco Mundial. Todo ello con gran eco mediático. A partir de 1998, fue escogido, primero en la Unión Internacional de Telecomunicaciones y luego en la ONU, para el nombre de la Cumbre Mundial a realizarse en 2003 y 2005’. (Torres 2005). 26 El campo informacional del Entorno Aumentado facilita la inscripción de datos concretos en un lugar concreto. Como si de un escultor se tratara, el arquitecto Keiichi Matsuda integra la capa digital en sus proyectos Cell (2011) -en colaboración con James Alliban- o Augmented City (2010). El contenido del mensaje y la percepción -visualización- del mismo ocupan y caracterizan así el espacio arquitectónico. En el caso de la instalación interactiva Cell (fig.4), comisionada para el Alpha-Ville Festival, se produce la asignación de unas etiquetas en el perfil de la silueta del visitante. Su tecnología se fundamenta en un escáner 3D (consola Kinect) que reconoce el desplazamiento de la figura humana y registra la trayectoria en un archivo binario. En palabras de Matsuda64: ‘Se juega con la noción de la mercantilización de la identidad mediante la imagen especular de los visitantes y la forma de las personalidades asignadas aleatoriamente extraídas de los perfiles on line. Su objetivo es conseguir que los visitantes piensen en la manera en que usamos las redes sociales para fabricar nuestras segundas ‘yoes’, y cómo estos personajes construidos definen y nos atrapan. Cuando los usuarios entran en el espacio se les asigna una identidad aleatoria. Asimismo, las etiquetas que flotan en la nube comienzan a moverse y a adherirse a los usuarios hasta que se representan en su totalidad como una maraña de datos que aparentemente reúne conjuntamente nuestro yo físico y digital’. El fotógrafo de la célebre revista Life, Gjon Mili, inmortalizó a Pablo Picasso en una serie realizada en 1949, experimentando la técnica de pintar con luz mediante una pequeña linterna (fig.5). Si Picasso hubiera añadido a la lámpara un dispositivo que registrase la trayectoria del movimiento en base a un sistema de coordenadas, usando por ejemplo un GPS (Global Positioning System), la señal lumínica se hubiera codificado en un mensaje digital y la figura del minotauro sería visible en ese mismo lugar a través de la pantalla de un dispositivo electrónico, como sucede en Cell. En algunas ocasiones, los objetos exteriorizan extractos de la información genética que ordena su crecimiento. En muchas otras, el código o genotipo permanece oculto. Es el caso del visitante neófito que se sitúa por primera vez delante de Constelación III, de Joan Miró, y obtiene una percepción completamente diferente de la que experimenta el experto. El conocimiento de la información que subyace sitúa al observador en una posición mucho más cercana a la naturaleza de esa pintura65. La accesibilidad a la información vertida en la capa digital del Entorno Aumentado es directamente proporcional a la velocidad de interpretación del lugar aumentado por parte del usuario. No importa tanto cuál es el mensaje de la información, o contenido semántico, sino cómo se accede y cómo se organiza y 64 Disponible en: <http://www.youtube.com/watch?v=A28Ih64927Q>. (Consultado el 26 de julio de 2013). 65 No se está afirmando con esta consideración que una obra de arte tenga necesariamente que valorar esta circunstancia. 27 garantiza su estructura, es lo que constituye realmente un cambio diferencial en la historia de la interfaz66 entre el ser humano y la máquina. Fig.4. Campaña de National Geographic con Realidad Aumentada y CELL67, 2011. Keiichi Matsuda y James Alliban. Fig.5. Portada de Life 1949. La percepción o sintonización del Entorno Aumentado por el usuario es una acción que en sí misma puede categorizar el perfil social y político del ciudadano. Frente a un acceso común y democrático que identifique plenamente al usuario con el ciudadano, la posibilidad de que se produzca segregación, restricción o cualquier otra mala práctica deberá bastar para poner en alerta al cosmopolita ciudadano del Entorno Aumentado. El análisis en profundidad de esta circunstancia y otras índole equivalente -pensemos en situaciones similares acontecidas en Internet- no son pertinentes al enfoque propuesto por esta investigación, pero si capitales en la definición de la ideología del Entorno Aumentado. La emergencia de la visualización dinámica de datos basada en sistemas de variables interactivas está cambiando la manera de hacer comprensible la información digital. Lev Manovich reflexiona así sobre la visualización de datos68 en su artículo Cultural analytics: analysis and visualization of large cultural data sets, donde plantea las siguientes cuestiones: ‘¿Podemos crear una medición cuantitativa de la innovación cultural? (Can we create quantitative measures of cultural innovation?) 66 67 Véase definición de interfaz en el Glosario. La tecnología del proyecto CELL combina realidad aumentada + datos + Kinect. Fuente: <http://www.installcell.com/>. (Consultada el 8 de junio de 2013). 68 Es sintomático el uso extendido de esta expresión para diferenciarse de otras como ‘representación’, ‘gráficos’,…etc. En un escenario más amplio, podría haberse referido a ‘retórica de datos’, incluyendo otras posibles percepciones, como la auditiva. 28 ¿Podemos tener un mapa actualizado en tiempo real de la producción y el consumo global cultural? (Can we have a real-time detailed map of global cultural production and consumption?) ¿Podemos visualizar los flujos de las ideas, imágenes y tendencias culturales? (Can we visualize flows of cultural ideas, images, and trends?) ¿Podemos representar visualmente cómo cambian gradualmente con el tiempo las preferencias culturales y de modos de vida -ya sean de música, formas, diseños o productos-? (Can we visually represent how cultural and lifestyle preferences – whether for music, forms, designs, or products – gradually change over time?’ Los interrogantes de Manovich hacen referencia a la capacidad tecnológica para evolucionar la representación de información digital, circunstancia que atañe a la construcción de cartografías complejas relacionadas con el Entorno Aumentado y también al propio diseño de la capa digital. Sin duda, asistimos a una proliferación de registros dinámicos de la información. Si el trabajo de Edward Tufte en The Visual Display of Quantitative Information o Envisioning Information69, constituye un referente en el diseño de la visualización pre-digital de datos, su homólogo digital incluiría sin duda algunos proyectos del estudio Bestiario70, pionero en este campo dinámico de la información. Las nuevas herramientas de visualización de datos son capaces de mostrar nuevas relaciones semánticas en una información ya conocida. Las estructuras dinámicas organizan la información incorporando la interacción del espectador, así como el parámetro ‘tiempo’ en su configuración. La figura 6 muestra sendos gráficos StreamGraph de las palabras clave en el discurso del presidente Obama en la Convención Nacional Demócrata de 2004 y 2008, foros en los que debía comunicar que aceptaba la candidatura a presidente de los EEUU. El mensaje se muestra como una pura expresión de la materialidad del lenguaje. Se puede apreciar la cronología de la información y la alta frecuencia del contenido semántico de ciertos tópicos. La figura 7 propone una comparación interactiva (dinámica) en forma de ‘nube’ de los dos documentos anteriores. El gráfico permitió a Jeff Clark realizar un análisis concreto y novedoso de sendas intervenciones. Obama no uso las palabras ‘blanco’ o ‘negro’ en los discursos. La palabra más utilizada (tópicos aparte) fue ‘promesa’, la palabra ‘esperanza’ fue mucho más recurrente en 2008 que en 2004. 69 ‘An incredibly beautiful, true, refined, and luscious book’, en opinión de Denise Scott Brown y Robert Venturi. 70 Véase el sitio web oficial en <www.bestiario.org> y el proyecto Visualizar de Medialab Prado, dirigido por José Luis de Vicente en colaboración de Bestiario, que propone un proceso de investigación abierto y participativo en torno a la teoría, las herramientas y las estrategias de visualización de información. (Consultado el 12 de enero de 2012). 29 Las nuevas cartografías de la representación de datos animan a una inteligencia de la información como si se tratara de un fluido maleable. La materia informacional compuesta de bits puede procesarse optimizando la retórica de su mensaje, mostrándose de maneras muy diversas. La evolución en la retórica de las imágenes altera en sí misma los contenidos semánticos. Fotografías, fotocopias, collages, dibujos, y un largo etcétera propio de la cultura visual del siglo XX, conviven con los mensajes dinámicos ‘vivos’ cuyo diseñador final es el propio usuario que configura la interfaz de visualización a su antojo, congelando el momento informativo preciso. Fig.6. Democratic National Convention Keynote Addres, 2004 y 2008. Jeff Clark. Los análisis en 1960 del primer debate presidencial televisado entre John F. Kennedy y Richard M. Nixon no tenían la contundencia visual contemporánea. Aquel primer debate televisado marcaría el futuro de la manera de enfrentarse a ese tipo de acontecimientos políticos. Russell Baker, analista político estadounidense de la época, escribiría poco después que tras aquel debate ‘la imagen sustituiría a la letra impresa como lenguaje político natural’. El soporte de la información implica cambios en la transmisión del mensaje. Así sucedió con la llegada de la televisión y así continua sucediendo en nuestros días. La máxima de McLuhan sobre los Media, ‘el medio es el mensaje’, renueva su vigencia respecto al soporte de la información. Representar, almacenar y transmitir información son acciones que se pueden desarrollar de forma analógica y digital. El dibujo figurativo que se parece a la cosa es analógico, la palabra, en cambio, es un signo arbitrario o digital. Analógico y digital se relacionan con continuo y discreto (Krall 2008). La realidad tiene entidades discretas (número) y continuas (espacio). Lo discreto no permite la existencia de un elemento entre dos, así la aritmética calcula mientras que la geometría razona sobre la extensión del espacio. A lo largo de la historia, la tradición oral de 30 los conceptos dominó a la visual de las imágenes. En esa circunstancia el hemisferio izquierdo verbal predominó sobre el derecho visual. La computación basada en números, velocidad, memoria y en una innovación imparable, aceleró el proceso. La tecnología digital afecta el modo intuitivo y sensorial de relacionarnos con el mundo (Ibíd.: 2008). Fig.7. Document cloud comparison, Democratic National Convention Keynote Addres, 2004 y 2008. Fuente: Jeff Clark. Tradicionalmente la información ha conformado una hiperrealidad sensible a todo tipo de objeto o lugar físico. Con el advenimiento de la era digital, la hiperrealidad ha encontrado un cauce natural en los soportes de silicio, generando una realidad compleja alternativa a la tradicional. En una primera etapa de desarrollo, el Entorno Digital ha concebido herramientas muy potentes capaces de recrear escenarios propios de la realidad física. Esta circunstancia fue especialmente abordada en la década de los noventa, cuando la realidad virtual proponía representaciones informacionales cada vez más parecidas a la realidad. El Entorno Digital ha sido capaz de comprender y ordenar la información obtenida del ámbito físico como nunca anteriormente se había hecho. En 2003, investigadores de la Facultad de Procesos y Sistemas Informáticos de la Universidad de Berckeley estimaron que la humanidad había acumulado aproximadamente 12 exabytes de datos71 hasta la aparición de las computadoras en los años 50. La sobre-producción informativa de nuestros días hace que hayamos entrado en la Era del zettabyte. Esta sobrecarga informativa alimenta el compendio de conocimientos de nuestra 71 1 exabyte equivale a 1018 bytes o un DVD de 50.000 años de duración, 1 zettabyte a 1000 exabytes. 31 sociedad. Jorge Luis Borges podría haber visto satisfecho en Wikipedia su sueño de la Biblioteca de Babel, cuento del escritor argentino aparecido por primera vez en la colección de relatos El jardín de senderos que se bifurcan (1941), que más tarde fue incluida en Ficciones (1944): ‘Quienes imaginan la Biblioteca sin límites, olvidan que los tiene el número posible de libros. Yo me atrevo a insinuar esta solución del antiguo problema: ‘La Biblioteca es ilimitada y periódica’.’ La construcción del Entorno Aumentado acepta las nuevas interfaces que estructuran la información de acuerdo a una nueva ergonomía que ya no está constreñida por la planitud de la pantalla72 y la mecánica del teclado. La cualidad informacional de la materia que integra estas dos realidades dispuestas a fundirse en el Entorno Aumentado es examinada por William Mitchel (1999), que propone la dualidad biomasa-infomasa para referirse a la materia de sendos entornos: ‘la materia de estos lugares digitales es producto de la convergencia de la biomasa y la infomasa’. Ciertamente, esta relación implica procesos biunívocos: la biomasa puede inducir procesos en la infomasa, que puede provocar una reacción biomasiva. En el primer caso, la transmisión de un dominio a otro se produce mediante sensores sensibles a los cambios en la biomasa. En el segundo, la infomasa se muestra a través de un medio con un grado de virtualidad concreto que activará la biomasa. El origen del vínculo que habilita el nexo entre la infomasa y la biomasa es técnico. Los sistemas de posicionamiento, o de referencia, ya sean locales o globales73 permiten ‘anclar’ información en cualquier coordenada física del ámbito donde opera dicho sistema. La percepción de la infomasa se realiza mediante dispositivos electrónicos que procesan su señal en una interfaz digital. Por tanto, dada una hipótesis de precisión absoluta sin tolerancia alguna del sistema de referencia, un punto de biomasa y otro de infomasa, de idénticas coordenadas de referencia, quedarían localizados en el mismo lugar físico. Este desdoblamiento de la realidad resulta inexplicable desde el punto de vista de la física clásica de Newton, pero se alinea con las hipótesis de las leyes de la Física Cuántica, establecidas en las décadas de los años 20 y 30, las cuales regulan las partículas a nivel subatómico. Uno de sus principios básicos es el Principio de Incertidumbre o Indeterminación de W. Heisenberg (descubierto en 1927) según el cual: ‘es imposible medir simultáneamente, y con precisión absoluta, el valor de la posición y la cantidad de movimiento de una partícula’. Es imposible conocer simultáneamente la velocidad y la posición, o lo que es lo mismo, una partícula puede estar en dos sitios diferentes a la vez. La nueva extensión digital de la realidad 72 Véase El fin de la mano mecánica y el advenimiento de la ergonomía post-digital, Cap. IV. 73 Véase ‘Locative Media’ en Topología del Entorno Aumentado, Cap. IV. 32 convierte al planeta -por acotar el territorio a la escala de los satélites- en un entorno dual donde la información y la materia se solapan. Así lo corroboraba Vlatko Vedral, Profesor de Teoría de la Información Cuántica Universidad de Oxford, el 15 de febrero del 2011: ‘ya no debemos pensar en las unidades más elementales de la realidad como fragmentos de energía o materia, sino que deberíamos pensar en ellas como unidades de información’. Esta incertidumbre física ha tenido una gran influencia en muchas disciplinas. La Action Painting de Jackson Pollock, las propuestas de extensión infinita del Neoplasticismo de Mondrian o de la Casa de ladrillo de Mies van der Rohe, o la obra del propio John Cage comparten este fundamento. En la disciplina arquitectónica, este discurso vinculado al cambio a menudo ha supuesto la negación del edificio como ‘objeto acabado’ o incluso, la negación del programa en tanto que particular y temporal uso del edificio, más relacionado a una abstracción proyectual que a la realidad fluctuante. El imperativo de la generación Archigram (Sadler 2006) era crear ‘finales abiertos’, como afirmaba la editorial del grupo en Archigram nº8; una arquitectura que expresara el supuesto deseo de sus habitantes de cambio continuo o como quedó registrado en el film para la BBC: ‘los edificios que no tienen capacidad de cambio solo pueden convertirse en tugurios o monumentos antiguos’. Fig.8. Sobrecarga informativa: panel de información de una cabina de avión, postes de señalización de tráfico, Las Vegas de noche. La penetración creciente, e inédita hasta nuestros días, de altas dosis de información en el entorno físico (fig.8) alcanza una dimensión escalar global. La afluencia de mensajes audiovisuales o la sobrecarga aérea de herzios procedentes de las comunicaciones entre terminales de telefonía móvil convierten los entornos urbanos en ciudades condensadas en términos de información. El término infobesidad (del inglés information overload) se define precisamente como patología de la sobrecarga de información74. Kwinter (1994) se refiere a la progresiva saturación y colonización del microchip y augura que todo aspecto del entorno material que hemos heredado quedará aparentemente intacto, aunque también computerizado: ‘lo dejará controlado por software, a distancia, con respuesta en tiempo real e intervinculado’. Asimismo, la ciencia evoluciona y enriquece los materiales sintéticos, activos, sensitivos o 74 ‘Es un verdadero sufrimiento. Pone a las personas en una situación de angustia constante y de frustración porque no logran seguir este flujo continuo que, en consecuencia, conduce a una sensación de impotencia y a un fuerte estrés’, explica Caroline Sauvajol-Rialland, profesora de la Universidad Católica de Lovaina (UCL) y de Sciences Po Paris. (ABC, 31 de Agosto de 2012). 33 programables como las aleaciones con memoria de forma (fig.11), cristales y geles (fig.9), cerámicas y polímeros, nuevos materiales híbridos con cristales piezoeléctricos integrados, moléculas orgánicas y ropa inteligente o tecnológica75. La morfología y la estructura del material pueden cambiar como respuesta a estímulos múltiples, por ejemplo ambientales. La computación ubicua76 se implanta como una de las características de las ciudades inteligentes, entendida como la integración de la computación en el hábitat, de forma que los dispositivos electrónicos no se perciban como objetos diferenciados. Frente a la proliferación de estos hiper-lugares de tecnología camuflada e inaccesible por el ciudadano, algunos -posición generalizada entre los hackers- defienden otro tipo de ciudad aumentada donde la computación sea visible, accesible y manipulable por el usuario. El debate estriba en la regulación del carácter público o privado de la capa digital que construye entornos aumentados en lugares físicos públicos. Fig.9. Aerogel,77 1981. Fig.10. Código QR78, Illmeanu. Bernd Hopfengärtner. Fig.11. Heatseat, 2001. Jürgen Mayer, SF MoMA, San Francisco, EEUU. 75 ‘Electrónica imperceptible. Fino y ligero como una pluma, flexible, virtualmente irrompible y, pese a lo anterior, portador de un circuito integrado que le permite ejecutar todo tipo de funciones electrónicas. El nuevo circuito tiene un espesor de solo dos micras (milésimas de milímetro), y si fuera posible mirarlo de canto resultaría literalmente invisible para el ojo humano (una célula biológica típica mide unas 10 micras). La comparación con una pluma no es gratuita: el circuito pesa tan poco que realmente flota por el aire como las plumas de los pollos. Lo puedes estirar –hasta el 230% de su longitud— y doblar sin que se rompa, también arrugarlo como un discurso fallido, y funciona bien incluso en condiciones tan calientes y húmedas como para amargar la vida a un ‘Homo sapiens’. No se trata de un anucio: se presenta con todos los honores en la revista Nature’. (El País, 24 julio 2013). Para más información véase Wearable Computing. In: Soegaard, Mads and Dam (Mann 2013). 76 Véase ubicitous computing en el Glosario. 77 Compuesto por un 2-5% silicatos y 95-98% de aire. Este ligero material poroso es conocido como ‘humo sólido’. Desarrollado por la NASA en torno a 1950; es un aislante térmico óptimo. 78 Un gigantesco código QR (Quick Response Barcode) de 160 x 160 metros de lado fue visto en un campo de maíz cerca del pueblo de Illmeanu en Alemania. El código QR consiste en 18 x 18 cuadrados claros y oscuros que de hacer spot en ellos, verás la frase ‘Hello, World!’. La razón de su producción fue la de ser capturado por los satélites de Google Earth. 34 Sostiene Kwinter (Ibíd.: 1994), entre otros, que ‘la propia idea de arquitectura como música congelada por fin se ha vuelto literal y, no solo ideológicamente, obsoleta’. El incremento de los grupos de expertos e institutos de investigación de vida artificial, en oposición a la inteligencia artificial, y el notable prestigio adquirido por las especulaciones de los ingenieros, antaño puramente teóricas, en nanotecnología, son asimismo señales de una transformación fundamental que nos aleja del Paradigma Mecánico clásico79. La dualidad híbrida característica del Entorno Aumentado acerca su naturaleza a los preceptos de incertidumbre de la Mecánica Cuántica y se aleja de la mecánica newtoniana. La afirmación de Kwinter se corresponde con la cualidad dinámica de los procesos digitales que proponen protocolos donde la variable ‘tiempo’ estructura la jerarquía de la información y la comunicación. Así, una imagen se entiende como un instante congelado de la acción. La capa digital ‘viva’, dinámica, conectada en ‘tiempo real’ a lugares distintos, puede mostrar su naturaleza en forma de instante ‘congelado’, como lo hace una sección planimétrica de un edificio mostrando un pedazo del conjunto. Fig.12. Iconological symbolic code, diagrams. Jencks y Baird 1970. Fig.13. Diamond code, 1954. George Gamow. ‘Posible relation between Deoxiribonucleic Acid and Protein Structures’. Fig.14. Microchip flexible y Wearable computing, 2013. Martin Kaltenbrunner y la Universidad de Tokio. Los presupuestos higienistas internacionales del Movimiento Moderno dejaron paso en la Postmodernidad a la recuperación del contexto como bagaje informacional del lugar, de tradición romana -genius loci-. En la década de los sesenta, el término ‘código’ formó parte del debate suscitado por la relación establecida entre la arquitectura moderna y la teoría de la información. El término fue adoptado de la Teoría general de la comunicación. Gillo Dorfles 79 Véase Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo, Cap IV. 35 (1971: 97) se refería en 1967 a un código iconográfico, si el edificio se erigía sobre la base de una ‘semántica estacionada e institucionalizada’ (fig.12). Al contrario que Dorfles, Umberto Eco miraba el ado pragmático de la arquitectura como mensaje construido. Eco (1969) asumía que la arquitectura juega un importante papel como vehículo en el proceso de comunicación cultural: ‘Formas significativas; códigos compilados derivados de los hábitos, presentados como modelos estructurales de relaciones estructurales dadas; significados denotativos y connotativos que pueden ser aplicados a los significantes del código base: este es el universo de la semiótica en el que una lectura comunicativa arquitectónica puede procesarse con rigor.’ La construcción del Entorno Aumentado vincula necesariamente el lugar con una memoria digital y con un contenido semántico que, además de poder señalar los condicionantes semióticos de Eco, pone a disposición del ciudadano la posibilidad de construir otra ciudad donde ya existe una. La asignación de información, como afirma Manovich (2002), es una cuestión tratada históricamente por los arquitectos. La tecnología debería mirar a la profesión para comprender sus cualidades: ‘(…) el diseño del espacio aumentado electrónicamente puede ser abordado como un problema arquitectónico. En otras palabras, arquitectos y artistas pueden dar el próximo paso lógico de considerar el espacio ‘invisible’ de los flujos de datos electrónicos como una substancia más que sólo como un vacío -algo que necesita una estructura, una política y una poética-.‘ La distinción entre la información asignada al espacio físico del edificio, o bien, al plano simbólico del significado -Umberto Eco, Robert Venturi y Denise Scott Brown,…etc.- y la que ocupa el campo electrónico del Entorno Aumentado es de cariz tecnológico, pero esta circunstancia no es óbice de que la tarea de la construcción de la nueva capa de información del Entorno Aumentado no sea accesible y proyectada por arquitectos. 36 Capítulo II Revolución Digital. La humanización del Entorno Digital (ED) 2.1. Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses 2.2. Cultura mediática de la Revolución Digital. El arquitecto comunicador 2.3. Arqueología del lugar aumentado 2.3.1. Computación y arquitectura. Metamorfosis del retrato de Jacquard 2.3.2. Videojuegos, paradigma arquitectónico del Entorno Digital 2.3.2.1. Cultura arquitectónica del videojuego 2.3.2.2. Un nuevo ámbito de estudio. Los videojuegos ingresan en la universidad 2.3.2.3. Jugador operador investigador. La paradoja del arquinauta 2.3.2.4. Metodologías de análisis del videojuego. Una propuesta metodológica para el análisis del Entorno Aumentado 2.3.2.5. La conquista dinámica de la dimensión digital del videojuego. Tras los pasos de Lara Croft 37 2.1. Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses. ‘Unamuno: Pues bien, la verdad, querido Augusto, que no puedes matarte porque no estás vivo, ni tampoco muerto, porque no existes. Augusto: ¿Cómo que no existo? U: No, no existes más que como ente de ficción; no eres, pobre Augusto, más que un producto de mi fantasía. A: Mire usted bien, don Miguel... no sea que esté usted equivocado y que sea usted y no yo el personaje de ficción, el que no existe en realidad. U: Tú no existes más que en mi fantasía, te lo repito, y como no debes ni puedes hacer sino lo que a mí me dé la gana, y como no me da la real gana de que te suicides, no te suicidarás. ¡Lo dicho!’ Miguel de Unamuno, Niebla, 1907. La disección analítica de la encrucijada digital que somete al individuo de nuestro tiempo1 presenta un cuadro complejo y cambiante. Las características del límite que dibuja y abarca dicho dominio digital se renuevan continuamente al dictado de las grandes empresas TIC. La interfaz que articula el campo digital y la realidad física es responsable del tipo de paisaje aumentado que ya se construye en la ciudad, una materialización de la capa digital que obedece a una jerarquía topológica reguladora del híbrido aumentado que pone en valor un tipo concreto de percepción relacionado con los sentidos. La reflexión acerca de las propiedades de este límite tiene su ascendente en los límites de la ficción del teatro o del cine, y en general, en la cultura de la imagen. A grandes rasgos puede afirmarse que ha tenido lugar un proceso de desmaterialización en el soporte y de síntesis en el contenido del mensaje. La desmaterialización del límite que separa la existencia física de la realidad alternativa propuesta por el dominio digital comienza a explorarse en una época lejana a la nuestra. Algunas propuestas escenográficas ya subvirtieron en el s. XVII la condición ubicua de la farsa. Aunque no pertenece esta realidad alternativa al ámbito digital, su aparición precoz se anticipó trescientos años al siglo que vio nacer las computadoras. A pesar de la ausencia de bits, la escena dramática fue siempre partícipe de su propia impostura dual de realidades: la ficción representada en el cuadro escenográfico frente a la presencia carnal del gran público. Dicho sea de paso que esta controversia ha sido objeto de interpretaciones múltiples, incluso las que señalan a la tribuna como el verdadero lugar en que habita la ficción. 1‘ No necesariamente el sujeto ha de pertenecer al Primer Mundo. En 2011, India sumó 142 millones de suscripciones de móviles, el doble que en toda África, y más que los Estados Árabes y Europa juntos. Al final de 2011, había 105 países con más suscripciones de telefonía móvil que habitantes, incluidos países africanos como Botswana, Gabón, Namibia, Seychelles y Sudáfrica. Los países donde la penetración del teléfono móvil aumentó más en 2011 son Brasil, Costa Rica, Kazajstán, Laos P.D.R. y Malí’. Fuente: ITU World Telecommunication/ICT Indicators Database. Disponible en: < www.itu.int >. (Consultada el 1 de junio de 2013). 38 En esta búsqueda arqueológica de los orígenes del Entorno Aumentado, William J. Mitchell (1999) data el origen en el Barroco. Retrocede a esta época para señalar a los arquitectos que se ‘enfrentaron a la tarea de armonizar el espacio para la acción dramática con el espacio para el público, y lograron tal combinación a través del proscenio’. En el afán de encontrar la primicia, Mitchell se fija en una figura particular entre todos aquellos arquitectos: Giovanni Battista Aleotti y su actuación en el Teatro Farnese de Parma. Fue en ese proyecto donde por primera vez se formalizó la presencia de la cuarta pared o plano que separa al público de la escena dramática, a partir de entonces, elemento característico del teatro ‘a la italiana’. Para articular las dos realidades, Aleotti dispuso una estructura de madera que integraba la iluminación así como un gran paño de tela. El cuadro escénico estaba servido. Este mecanismo permitía definitivamente ‘ocultar’ al público, habilitándolo para espiar desde la oscuridad de la tribuna. Fig.1. Teatro Farnese de Parma, 1628. Giovanni Battista Aleotti. Fig .2. Teatro de los Intrépidos, proscenio y escena trágica en 1606. Grabado de Oliviero Gatti, 1618. Colección Sciolla, Roma. El proscenio es además enmarcado por una arquitectura urbana que potencia la lectura de la cuarta pared, que interpreta la cávea como espacio exterior y el escenario como interior. Comparado con otro famoso teatro, el Olímpico de Andrea Palladio, cabe decir que en este último, el espacio perspectivo que se dispone detrás de la fachada frontal no es lo suficientemente grande para convertir el escenario en un proscenio. Si intentamos identificar esta relación topológica en otro escenario que no plantee una dualidad ontológica tan definitoria, encontramos ejemplos que aportan luz al análisis. La implicación entre sí de las dos realidades cabe reducirla a una relación geométrica que valida la siguiente casuística topológica. En palabras de Miranda (1999), pueden darse los casos de macla, articulación y yuxtaposición. La analogía establecida entre esta taxonomía y la que define el vínculo existente entre el exterior y el interior del edificio responde a una misma naturaleza. Si se valora la posibilidad de que el edificio construido sirva de soporte digital, por ejemplo de una fachada o envolvente mediática, resultan apropiados los tres casos como definitorios de la capacidad del soporte arquitectónico para asimilar y mostrar la capa digital. La realidad alternativa teatralizada del texto dramático y la presencia física de los espectadores permanecían yuxtapuestas en el teatro griego y romano. Ningún elemento constructivo entre ambas que las separase. El Medievo tampoco hizo uso del telón. El siglo de Oro de Lope y 39 Calderón tampoco dispuso articulación alguna. Esta ausencia física de un ámbito articulador deparaba situaciones dramáticas de difícil solución. Shakespeare recurría con cierta asiduidad a una figura retórica que consistía en incluir en el guión de algún personaje la frase ‘que alguien se lleve los cadáveres’, y acto seguido, un personaje sacaba los cuerpos calientes pero muertos, a hombros o a rastras. Como apunta Ivana Costa (1999), con la frase ‘¡Abajo el telón!’ el teatro moderno intentó desdibujar la presencia misma de la muerte, habilitando un espacio en la obra que ni pertenecía a la ficción ni pertenecía a la platea. La tercera y última relación topológica se produce en la macla. En el teatro de Bertold Brecht o en la nivola Niebla de Miguel de Unamuno se produce la ruptura de la cuarta pared2, comunicando directamente al público con los actores o al escritor con su personaje. Esta intersección topológica es idónea para representaciones que pretenden hacer al espectador partícipe del drama. De repente el espectador/lector se sitúa en medio de la acción. Unamuno riza el rizo: rompe la cuarta pared pero en vez de abrir el relato al lector hace que su personaje Augusto salga de la ficción, revelándose contra él mismo. La construcción en 19193 del Gran Teatro (Großes Schauspielhaus) de Berlín, firmado por Hans Poelzig, propuso una escena en tres partes y un proscenio que sobresalía ampliamente del escenario. Proyectado para el empresario y director teatral Max Reinhardt, es uno de los ensayos, junto al Teatro de la Confederación del Trabajo de Henry Van de Velde -Colonia 1914- y el Teatro de la Exposición de Oficios Artísticos de Perret -París 1925- que a juicio de Walter Gropius ‘han sido llevados a cabo con miras prácticas que han modificado el anquilosado problema de las construcciones teatrales’. Sin duda, el desarrollo del espacio teatral tiene un momento clave en 1927 cuando el propio Walter Gropius toma la cuarta pared como leitmotiv de su proyecto de Teatro Total (fig.3). La formalización de los tres tipos escenográficos tiene cabida de manera simultánea gracias a la disposición de un escenario triple móvil, un instrumento preciso para el drama4. La arquitectura del Teatro Total, en este caso de interior, articula su capacidad mediadora en el proceso de comunicación de un modo determinante para la transmisión concreta del mensaje. La figuración arquitectónica afecta al contenido del mensaje, pero también de a su condición relacional, según el modelo de comunicación desarrollado por Claude E. Shannon y Warren Weaver en 1949. 2 El término quinta pared se emplea como una extensión de la cuarta pared referida al público compuesto por la crítica, trabajadores del teatro u otras personas que se alejan del público estándar. 3 Demolida en 1988. 4 ‘Mi Teatro Total (patentado en Alemania) permitirá que el metteur en scéne del porvenir –gracias a la ayuda de ingeniosas instalaciones técnicas- realice en la misma representación escenas ejecutadas en el tablado alto, en el proscenio o en la arena circular; más aún, podrá trabajar simultáneamente en varios de esos escenarios.’ (Gropius 1931). 40 Fig.3. Teatro Total , Walter Gropius. Izq. Planta de la posición normal. Se puede utilizar como escenario no solo el escenario de la posición convencional, marcado en negro, sino también el anillo excéntrico que circunda la zona de butacas; Centro. El disco giratorio menor que está integrado en la zona de butacas se puede usar como proscenio; Derecha. Se habrían podido proyectar películas desde 14 posiciones. La vía de la exploración dramática recorrerá su camino a lo largo del siglo XX en paralelo a la experimentación de entornos generadores de ambientes virtuales, a partir de dos situaciones divergentes. Rodríguez (2012) distingue entre ‘la contracultura y su investigación en torno a nuevos formatos de experimentación sensitiva y de comunicación de recursos compartidos, y las Exposiciones Universales, como símbolo del capitalismo avanzado y banco de pruebas de todos los sistemas audiovisuales tecnológicamente emergentes’. Entre los ejemplos de las propuestas experimentales vinculadas a la contracultura norteamericana cabe destacar Movie Drome, construido en 1963 por el arquitecto norteamericano Stan Van der Breek. El proyecto se desarrollaba en torno a una cúpula geodésica metálica de unos 9.5 metros de altura construida sobre la cota del terreno a la que se accedía por el suelo. En el interior de la bóveda se podían proyectar imágenes simultáneamente, con un equipo de sonido que se utilizaba para happenings, cine experimental y todo tipo de Image-events o Expanded Cinema5. Movie Drome (Ibíd.: 2012) ‘fue concebido como un mediador, una herramienta de comunicación por imágenes no verbal, por el que cada comunidad podría construir su banco de imágenes y comunicarse con otras comunidades por medio de ellas, en lo que denominó como Culture Intercom6’. La superación de la cuarta pared en la ficción llevada a cargo en el teatro o en el cine supone un antecedente de lo que ocurrirá con este elemento del Entorno Digital. La tecnología digital permitía representar lugares tridimensionales que el usuario podía ver pero no entrar, como sucedía en la pantalla de televisión o en los videojuegos. 5 YOUNGBLOOD, Gene (1970) Expanded Cinema, New York: Dutton. (Ibíd., 2012). 6 VAN DER BEEK, Stan (1967) ‘Culture Intercom and Expanded Cinema, a proposal’, Battock, Gregory (ed.), The New American Cinema, New York: Dutton, p.173. 41 La minimización del marco que configura la pantalla digital de una tablet o de una televisión trata de hacer desaparecer la referencia, el límite, que articula la infomasa visionada por el espectador con respecto al contexto que lo circunda. Esto sucede también cuando se proyecta directamente sobre una superficie. El borde de la imagen se desvanece. Ya no hay ningún impedimento formal que impida la fusión perceptiva de lo proyectado y del soporte. La desmaterialización de los soportes que enmarcan la percepción visual del campo digital influye decididamente en el diseño industrial de objetos, por ejemplo, el parabrisas del automóvil. La eliminación de la estructura tubular del bastidor libera las esquinas de la cabina o la inclusión de techos solares panorámicos que mejoran la visibilidad, induce a los ocupantes a experimentar la sensación de viajar ‘flotando sobre la carretera’. El borde de la pantalla, la montura de unas gafas o la carpintería de la ventana son óbice de experimentar una disminución de su presencia física que produce la ‘desaparición’ del soporte a ojos del espectador. Pero la percepción visual del ojo humano impone su propio marco esfumado y borroso a todas las imágenes nítidas que enfoca la retina. La profundidad del campo visual influye en la óptica de nuestro encuadre. Por el contrario, la visualización de imágenes digitales no precisa de esta profundidad de campo. Piénsese en el zoom operado en la visualización de las cartografías de Google Earth o en cualquier visualizador de imágenes, donde no se enfoca el centro de la imagen y se desenfocan los bordes, sino que directamente centramos el contenido ocupando todo el campo visual enfocado por igual. Fig.4. L’Invisivile. Publicidad de carpintería oculta de aluminio. Fig.5. ‘Parlor Movie Screen’, Mechanix Illustrated, Marzo de 19477. Fig.6. Movie Drome, 1963. Stan VanderBreek, Stony Point, Nueva York. La interpretación del marco a lo largo de la historia del arte, no solo como armazón estructural para soportar el plano de expresión gráfica sino como frontera de la propuesta expresiva, ha sido susceptible de reflexión por parte del artista. El marco como articulación que afecta a una percepción nítida de la información por parte del espectador, metáfora del fondo mural de un 7 Transcripción literal: ‘Movie screen in the parlor need no longer be a problem with this new device known as the Pict-O-Screen. Concealed within the frame of a lithograph print, it can be pulled into place with a cord whenever your projector is ready. When the show is over, just tug the cord again and the screen disappears. It’s made by Radiant Mfg. Co., Chicago.’ 42 museo, la vajilla de un restaurante, el papel de este texto u otras circunstancias relacionadas con el fondo y la forma, afectan a la transmisión y al contenido del mensaje. La manifestación de ese límite en un fresco medieval mediante una franja de pintura o con una cenefa de teselas oscuras en el mosaico romano era práctica habitual del artesano del Mundo Antiguo. Los ejecutores de esta estrategia contrastaban así la expresión artística. A menudo resolvían el límite aplicando con otra técnica el mismo material que habían usado en la propuesta plástica. Los oficios involucrados en estas técnicas de representación masiva ejecutaban su trabajo directamente sobre el soporte construido, bien fuera el vertical de los muros de carga o bien el horizontal de suelo y techo. La información se adhería directamente al soporte físico. Gran parte de las propuestas pictóricas del siglo XX resultaron consecuencia de procesos, primero de desfiguración y después de desmaterialización, de la realidad pictórica. La ‘muerte de la pintura’, tantas veces proclamada por artistas como Jackson Pollock, situó al artista en el grado cero de la expresión. Muchos encontraron el camino valorando el soporte como auténtica expresión artística. Este grado cero presenta en los dispositivos digitales una condición anisótropa que permite desvincular en todo momento lo reproducido del reproductor. La condición isótropa del borde resultaría alterada de manera extensiva en la Europa de la Alta Edad Media. El deseo de los mecenas de poder portar las obras que poseían dio lugar a la aparición de un sustento pictórico con propiedades muy distintas a las masivas y pesadas de las construcciones inmuebles anteriores. Fue así como la pintura sobre tabla se popularizó. Si bien en muchas ocasiones el pintor resolvía el soporte con maderas locales, el nogal, el pino o abeto y el chopo italiano fueron por sus propiedades los más usados. Los retratos portátiles más antiguos de la Edad Media aparecen en esculturas funerarias y como parte de manuscritos iluminados, siendo un ejemplo de ello el autorretrato de la escritora mística Hildegarda de Bingen, datado en 1152 (fig.9). La portabilidad de una representación era directamente proporcional al tamaño del soporte, por lo que habitualmente se recurría a soportes pequeños y livianos como los camafeos grecorromanos y persas o la tabla. Javier Seguí (2010) señala este acontecimiento mecánico como ‘el surgimiento de la configuración con-sustancial al cuadro o recorte de una configuración teóricamente ilimitada. El encuadre de una expresión pictórica se produce casi siempre antes de que esta surja. Sin duda es una condición que en sí misma -y por cómo ha sido abordada por los pintores, incluso cuando la niegan- forma parte de la historia del arte’. Este es un hecho no compartido por muchas imágenes digitales que se proyectan sobre un soporte de tamaño y cualidad desconocida para el autor. La percepción de la capa digital del Entorno Aumentado plantea este mismo dilema acerca del soporte y del fondo sobre el cual se implementa la infomasa o ‘pintura de bits’. La visualización de información a través de un dispositivo electrónico que emplee por ejemplo la técnica de la realidad aumentada, se produce sobre un fondo y un contexto cambiante, circunstancia a tener en cuenta para la correcta interpretación de los signos lingüísticos. 43 Fig.7. Daraughsman Drawing a Recumbent Woman, 1525. Alberto Durero. Fig.8. Casco-pistola, 1916. Patente de Albert Bacon Pratt. Al reproducir una pintura a un tamaño distinto del original -por otra parte, circunstancia muy habitual hoy en día dada la condición editable del soporte- hemos de tener en cuenta que el autor probablemente hubiera pintado otra cosa diferente en ese nuevo recinto de perímetro distinto. A este respecto Javier Seguí8 especifica que ‘cuando el pintor entiende el cuadro como una autorreferencia impuesta se limita a ajustar trazos en esa trama plana (…). Completa la geometrización del marco, aparece la urdimbre de todo lo pictórico, la arquitectura de la pintura’. La aparición de los dispositivos digitales inalámbricos ha propiciado la desubicación de la pantalla que contiene la capa digital. A partir de entonces, la información viaja con el usuario -como en el caso de del portador de las Google Glasses9-. El espectador abandona su sedentarismo para desdibujar el sitio donde tendrá lugar el acto de percibir la información. En el museo de Sir John Seoane (fig.10) la disposición de la escultura y la pintura está condicionada por la arquitectura específica de la mansión londinense. Cada obra está dispuesta en una localización precisa y no se puede mover de ahí porque la luz distorsionaría la visión que el Sir quería regalar al invitado, además de alterar el orden y la jerarquía relacional de su casa-museo. La portabilidad de la obra permite cambiar el contexto perceptivo. No es difícil pensar en la sorpresa que pudo causar a muchos holandeses la primera visión de una tabla pictórica. Un objeto que ‘arrancaba’ la capa pictórica del muro para viajar a los salones privados y ser contemplada de mano en mano, o en el exterior de un palacio, donde la luz natural descubría los matices latentes en la pintura mural. La información incorporada al muro suma orígenes tan diversos como el grafiti de Bansky, el jardín vegetal vertical de la medianera del CaixaForum, las medianeras descubiertas tras una demolición o el cartel electoral. Todos comparten esa adherencia informativa parásita de otros soportes mayores. En este sentido parásito, Javier 8 Ibíd., 2010. 9 Véase Blended reality digital story: the world as I chose to see it en <http://www.iftf.org/ourwork/people-technology/technology-horizons/blended-reality/>. (Consultado el 1 de junio de 2012). 44 Rubio (2006) recoge experiencias de artistas que como Juan Carlos Rodríguez trabajaron en ese ámbito de la información: ‘Recuerdo (Juan Carlos solía hablarme de las paredes que tenía localizadas) que ellos esperaban a que el futuro soporte adquiriera una cierta consistencia: cada noche los pegadores de carteles añadían una nueva capa a la pared y llegaba un momento en que el espesor de la masa de papel era tal que tendía a caerse por sí sola; ese debía ser el punto optimo de grosor.’ El estrato digital del Entorno Aumentado incorpora en la materia una capacidad informacional que supera infinitamente a la existente antes de la era digital. Los mega-, tera-, giga-bits apenas guardan relación con la volumetría de la materia, al menos a nivel de usuario estándar. La capacidad informacional original de los muros de Juan Carlos Rodríguez se agotaba al rentabilizar las propiedades aglutinantes de la cola de contacto empleada en la pegada de carteles. La ‘amplitud’ informacional del campo digital del Entorno Aumentado, a escala de edificio o a escala urbana, cuenta con una capacidad casi ilimitada de asumir datos. Fig.9. Hildegarda de Bingen, 1152. Fig.10. Casa de Sir John Seoane. Londres. Fig.11. Arrancadas. Leandro Antolí ‘arrancando’. Tres obras. Autores como el arquitecto Keichi Matsuda10 (Augmented City, 2010) o el director de cine Ridley Scott (Blade Runner, 1986) exploran cierta capacidad urbana de implementar información, casi siempre en forma de propaganda, publicidad residual o publicidad muy invasiva. La información basura abandonada puebla el mundo de ficción de Augmented City, donde los personajes caminan por sus calles levantando a su paso remolinos de imágenes digitales, como si de polvo se tratara. El concepto de basura digital que se produce en la Red -a distinguir de la basura electrónica o e-Waste-, como el de basura espacial que se produce en las órbitas estacionarias, cuenta con poco tiempo de existencia pero resulta de gran interés por el debate que suscita, por ejemplo, en relación al carácter público o privado de su limpieza. 10 Véase en Cap. IV, Vanguardia de la vivienda aumentada. 45 Como en Alicia en el País de las Maravillas, las pantallas digitales superan el cuadro-ventana renacentista instándonos a introducirnos directamente al otro lado del espejo. Además, no solamente percibimos un reflejo11 óptico del otro mundo digital si no que resultamos invitados, obligadamente invitados, a convertirnos en Alicia y viajar. Si el cuadro -como decía MerleauPonty- nos muestra ‘cómo el artista percibió el mundo’, desaparecido aquél, es el mundo el que se convierte en cuadro; deja de ser un objeto autónomo y se confunde con nuestra forma de percibirlo12. A tenor de la dualidad planteada, Rubio (Óp., cit., 2006) se pregunta: ‘¿no se ha repetido hasta la saciedad, desde la publicación de las tesis de McLuhan en La aldea Global hasta las de Baudrillard sobre La guerra del Golfo, que sólo nos parece real el mundo que vemos reflejado en la pantalla?’. El interrogante alude a la cuestión contemporánea de la hiperrealidad generada por las redes sociales, cuestión por otro lado de máxima vigencia en el Entorno Aumentado. Algunos grupos sociales priman inmediatez de la realidad contada en la Red -Facebook, Twitter,…etc.- frente al ‘auténtico’ acontecimiento. La necesidad de comunicar el suceso, y de tomar previamente las instantáneas que lo ilustran e inmortalizan, distorsionan en muchas ocasiones la rutina del desenlace habitual del mismo. El contenido audiovisual interactivo que reproduce una pantalla digital difiere de la imagen no intrusiva reproducida en la televisión, o de una copia. El sentido de que el usuario no puede operar la información encapsulada de la imagen televisiva o de la copia, a diferencia de aquella información cuya cualidad interactiva permite ofrecer un documento sin finalizar, abierto a modificaciones. En el sentido de su interactividad, la imagen digital –por ejemplo un videojuego, un mapa interactivo o un hipertexto- trasciende el marco de una posible modificación de la conciencia original perceptiva que postulaba Husserl. La imagen interactiva de naturaleza digital, concebida en origen como imagen-copia, no llega a ser tal, al depender su integridad de la implicación del usuario, que la modificará. En lo que respecta a la realidad aumentada digitalmente, el soporte digital -pensemos por ejemplo en unas gafas digitales- procura en sí mismo el recinto donde se produce el solapamiento. Podemos tener más o menos conciencia de una única experiencia según dispongamos de referencias geométricas que configuren ese cristal-lente-pantalla, llegando incluso a experimentar un espacio (imagen) isótropo en que los límites de lo digital se diluyen de manera similar a como el ciudadano percibe el ruido cotidiano de la ciudad, sin perturbarle lo más mínimo. La expresión ‘apartamento con vistas’ es muy común en el mercado de la promoción inmobiliaria. El apartamento al que se refiere la expresión suele constituirse en un habitáculo proyectado desde el interior con ánimo de avistar el paisaje, a menudo enmarcado en la estancia 11 ‘Reflectere’ significa ‘enviar hacia atrás’, ‘reflejar’ y ‘reflexionar-meditar’. (Óp. Cit., 2006). Paul Klee: ‘El arte no reproduce lo visible, hace visible’. En su epitafio dejó escrito: ‘De este lado no podéis atraparme’. 12 46 principal. Las ‘fascinantes vistas’ desencadenan el proyecto ocupando el primer lugar de la jerarquía de las atenciones proyectuales, por encima de presupuestos bioclimáticos, cuestiones programáticas o planteamientos sobre eficiencia energética. Fig.12. Slow house, 1990-1994. Long Island, New York. Dillier y Scofidio. Los arquitectos Elizabeth Diller y Ricardo Scofidio proyectan la Slow House en base a la percepción visual del usuario. Concretamente, afrontan la transición que éste experimenta desde la aproximación en su medio de transporte, el automóvil, hasta que atravesando el largo corredor se acomoda en el estar, donde puede disfrutar de un paramento-pantalla que proyecta y recoge las vistas electrónicas a demanda del usuario. La sucesión de pantallas tiene su origen en la imagen especular del retrovisor del coche. La Slow House propone un dominio visual sin marco alguno, como ocurre al divisar el horizonte en la playa. El gigantesco muro se convierte en pantalla electrónica cuyo límite lo confiere la propia arquitectura. La visión del paisaje pasa de ser contemplada a ser habitada. Se convierte en un dispositivo más al servicio del usuario que puede manipular su profundidad de campo, alterarlo con filtros fotográficos digitales o programarlo por control remoto, configurando múltiples secuencias. La ‘ventana con vistas’ asume en este proyecto neoyorquino una nueva cualidad social que la convierte en un dispositivo de entretenimiento. Las técnicas actuales han capacitado al proyectista y al usuario para pensar en fines no lúdicos. Desde las terapias fenomenológicas, a los dispositivos de comunicación o a las herramientas de trabajo, el control de la visualización de información confiere a la arquitectura posibilidades que se renuevan según evolucionan las TIC. Este tipo de interiorización visual arquitectónica tiene su contrapunto en el video mapping, técnica de proyección que permite solaparse a lo edificado, habitualmente en un formato lúdico practicado desde el exterior. Esta simbiosis entre lo digital y lo construido tiene lugar al adaptar la proyección de información a la geometría tridimensional de la fachada. Para ello, han de modelarse parcial o totalmente aquellos elementos construidos que el artista visual estime oportuno. El video mapping, como proyección animada, constituye un nuevo canal de comunicación que toma lo construido como soporte. Este tipo de arquitectura aumentada no precisa de marco alguno para encuadrar la visualización, es más, estas manifestaciones 47 audiovisuales a menudo explotan el límite entre lo digital y lo construido con el objetivo de lograr un mayor impacto perceptivo en el espectador, induciendo una ilusión óptica que transforma lo edificado en un objeto líquido. La integración del estrato digital en lo construido puede producirse, como se observa, a través de técnicas muy distintas. En la figuración del Entorno Aumentado, el proyecto de arquitectura se contempla como un proceso integral donde la importancia de lo digital y lo físico se sitúan a la par, en equilibrio con su naturaleza. La casuística de acoplamiento del híbrido se abre al avance tecnológico. Los arquitectos han sido llamados desde el Renacimiento13 a proyectar soluciones de fachada a menudo desvinculadas del interior del edificio y casi siempre dando respuesta a propósitos estéticos relacionados con estereotipos sociales. El oficio ha procurado tradicionalmente una imagen exterior acabada de la obra, nada más lejos que pensar en el edificio como soporte para otra cosa diferente de lo que se representa en el ‘proyecto’, que ha obtenido los permisos pertinentes de las administraciones y demás organismos profesionales. Actualmente este hábito se pone en crisis en la medida en que el proyectista incluye en la propuesta conceptos sostenibles como el de ciclo de vida del edificio o estrategias de proyecto relacionadas con el reciclado y la reutilización de elementos constructivos. Vincular el ciclo de vida de los elementos artificiales al ciclo de vida biológico (Braungart & McDonough, 2005) constituye la superación de la concepción renacentista de edificio ‘llave en mano’, para pensar en procesos con implicaciones posteriores. De alguna manera esta actitud tiene su réplica en los procesos audiovisuales interactivos que toman el edificio como escenario interactivo de propuestas artísticas. La Kunsthaus (2003) de Graz de Peter Cook y Colin Fournier, en colaboración con los arquitectos berlineses Tim y Jan Edler de la oficina Realities United, incorpora la BIX14 Media Façade como soporte de arte audiovisual –a diferencia del video mapping, no se proyecta- que operan artistas audiovisuales. La relación simbiótica entre la capa digital y el edificio masivo habilita la envolvente a los nuevos media. Tanto el video mapping como la piel mediática transforman lo edificado en soporte, aquél mediante proyecciones exteriores y ésta desde el propio tejido del edificio, trascendiendo los límites pictóricos de la enmarcación y asumiendo capacidades contemporáneas multidisciplinares. La humanización de la Realidad Virtual: prótesis y cibors. La génesis tecnológica del Entorno Aumentado. La materialización del Entorno Aumentado es factible gracias a la evolución de la tecnología que hizo posible el desarrollo de la virtualidad en la pantalla electrónica. El proceso ha sido 13 En 1456, León Battista Alberti sometió a exposición pública una réplica en madera de su propuesta de fachada para completar la fachada inacabada de la Iglesia de Santa María Novella. 14 Big + Pixels. 48 similar a la desmaterialización de tantas otras cosas. Las características de las herramientas que propician la comunicación del mensaje digital, así como su semántica y su sintaxis, han evolucionado aceleradamente. La tecnología ha mejorado su diseño abandonado su tosquedad primitiva, aplicando un criterio evolutivo que penaliza lo grávido y volumétrico frente a la ligereza, una suerte de desmaterialización tecnológica que afecta al software y al hardware, por otra parte, proceso similar al acontecido en otras disciplinas como la arquitectura. Inventada la computadora (fresco medieval) los técnicos se propusieron investigar en su portabilidad, objetivo que consiguieron cuando lograron disminuir las dimensiones de la máquina (cuadro). En torno a la portabilidad surgieron multitud de formatos electrónicos. El siguiente paso, inducido de manera lógica por la necesidad de transporte, fue la parasitación tecnológica del cuerpo humano como soporte (tatuaje tecnológico). En la década de los ochenta, las TIC comenzaron a colonizar el cuerpo humano, abandonando poco a poco su condición extracorpórea. La transformación del ser humano en cibor, explorada tanto por la ciencia ficción como por la ingeniería electrónica, fue descrita por Clynes y Cline (1960) como‘un organismo mitad animal mitad máquina’. Años antes, en 1947, Moholy-Nagy en su libro póstumo Vision in Motion (fig.14) se había referido a la tecnología como ‘parte del metabolismo humano’. La apuesta por una arquitectura híbrida (cibor) fue experimentada por Archigram a finales de la década de los sesenta. La figura 13 muestra una instantánea de Peter Cook con las gafas Info Gonk15, una propuesta de kit de enseñanza mediante televisión, cuya tecnología electrónica se adapta a la ergonomía humana. Construidas con unas mini-televisiones de una pulgada y media, las Info Gonk permiten estar permanentemente conectado con el exterior. Rodríguez (2012) ha reunido en su blog Arqueología del Futuro una profusa colección de ejemplos sobre arquitecturas ‘kit’ que resuelven la conexión tecnológica con el usuario. Además de las gafas, el casco fue otra tipología que integraba la experiencia audiovisual. Henry Colbert16 destacó por la construcción de varios prototipos (fig.14). Haus Rucker Co (Rodríguez 15 Peter Cook: ‘Gonks was Warren’s term for glasses. I designed the info-gonks, making a set of goggles from four cheap pairs of sunglasses, gluing them together and using a wire to connect them. It looked like the real thing, but of course it did not work. Then I took a photograph out of a magazine and drew and collaged a photo of the gonks on top of a girl. One often did things like that – the instant city over Bournemouth was a photo of Bournemouth out of a magazine and I drew on top of the photo’. Fuente: Entrevista a Peter Cook, disponible en: <http://www.australiandesignreview.com/features/20536-sir-peter-cook>. (Consultada el 1 de mayo de 2013). 16 ‘Casco para la enseñanza diseñado en 1968 por Charles Colbert. Interesante propuesta muy en la línea de los cascos sensoriales de Haus Rucker Co (y muchos otros). Este dispositivo lleva incorporado un sistema de televisión, altavoces e incluso su propio sistema de ventilación para que el alumno pueda aprender conocimientos de manera individualizada debido a la autonomía que el casco le otorga. Quizá un precursor de los portátiles aunque todavía objetualizado en un casco,...etc., que pesaba en torno a los 10Kg y que según Colbert sería sustituido en el futuro por unos electrodos implantados en el cerebro al nacer,...etc.’ (Óp. Cit., Rodríguez, 2012b) 49 2012c) se incorporó a la primera vía de investigación experimental sobre el ámbito interno a través de sus Environment Transformers desarrollados en 1968, una serie de máscaras y cascos transformadores que distorsionaban la realidad: Viewatomizer, una máscara que deformaba y pulverizaba la mirada del usuario; Drizzler, generaba un efecto óptico gracias a un gráfico fluorescente giratorio que ofrecía un efecto alienante de la realidad; Flyhead, un casco audiovisual que simula la visión fragmentada de un insecto y distorsiona la percepción auditiva del receptor. Todos ellos podían combinarse con una colección de vestidos tecnológicos o Electric Skins, diseñados en plástico transparente con adornos que aumentaban esa sensación de aislamiento de los dispositivos. La combinación de traje y casco fue utilizada en 1969 por Coop Himmelblau para desarrollar su White Suit, en la que utilizó un casco con imágenes proyectadas cuya percepción se intensificaba mediante una serie de olores y sensaciones táctiles generadas por el traje. Fig .13. Info Gonks Project. Peter Cook. Fig .14. Unidad de casco de aprendizaje, Henry Colbert. Architectural Design 9/12, Septiembre 1969. Fig.15.Vision in Motion, 1947. Moholy-Nagy. Las teorías de Marshall McLuhan sobre la nueva extensión tecnológica del hombre, interpretadas más tarde por McHale como ‘Man Plus’, se identificaron con propuestas como la de Julio Le Parc Lunettes pour une vision autre (fig.18). El proyecto fue desarrollado para la XXXIII Biennale di Venezia de 1966, y consta de doce modelos de gafas que distorsionaban la percepción mediante la fragmentación de la visión, coloreándola e incluso volviéndola retroactiva. De esta manera Le Parc (Rodríguez 2013) ‘experimenta en relación a la interactividad de la obra de arte, que hasta ahora era ajena al espectador y de la cual ahora el usuario es protagonista absoluto’. Superado el cibor de la década de los ochenta, la realidad virtual característica de la década de los noventa dejó unos cuantos hitos que conviene registrar para una mejor comprensión del origen del Entorno Aumentado. En este proceso, los dispositivos electrónicos intrawall se fueron transformando en extrawall17, proponiendo un control con un mayor grado de sensibilización hacia el cuerpo humano, dando pié a la construcción de los primeros prototipos de entornos aumentados donde el espacio físico se convertía en un campo digital receptor de la interacción del usuario. Ya en la contemporaneidad, el espectador se ha convertido en actor del Entorno Aumentado. El soporte digital abandona su constitución maquinista para constituir, por 17 Véase en Cap. IV, p.258, Intrawall vs Extrawall. Al otro lado del espejo. 50 ejemplo, prendas inteligentes que interpretan el cuerpo como si se tratara de un controlador electrónico (fig.16 y 17). Podría decirse que el usuario del Entorno Aumentado habita ya el interior del espejo de Alicia. La evolución de la realidad virtual hacía derroteros propios del Entorno Aumentado propició la construcción de numerosos prototipos que avanzaban la hibridación de la capa digital con el Entorno Físico. Esta tecnología tuvo en Tom Zimmerman y su primer guante de realidad virtual comercializado (1987) un hito singular. Por otro lado, Davidson trabajó en la producción de visores de bajo coste (1988) y VPL -después Autodesk- ensayó demostraciones de sus complejos sistemas de realidad virtual (1989), circunstancia de sumo interés para el desarrollo y comercialización de futuros prototipos. Un año más tarde surgiría la primera compañía comercial de software de realidad virtual, Sense8, fundada por Pat Gelband. Fig.16. Wearable computer evolution, Steve Manns. Fig.17. Sergey Brin, cofundador de Google, portando un prototipo de gafas Google en el metro. 2010. Fig.18. Lunettes pour une vision autre (Julio Le Parc), 1966. La carrera por la desmaterialización de la interfaz, con rumbo hacia la ruptura de la cuarta pared, continuó dando frutos. La compañía W. Industries desarrolló en 1991 el equipo Virtuality, unos cascos y gafas de visionado instalados en los salones recreativos norteamericanos que hicieron las delicias de los ‘gamers’. En este mismo periodo aparecieron numerosos modelos replicando cabinas de simulación de vuelo o conducción y también el primer programa destinado a los usuarios para la confección de ambientes virtuales 3D. Un año después, en 1992, SUN hizo la primera demostración de su Portal Visual, el ambiente VR de mayor resolución hasta el momento. En mayo de ese mismo año, el videojuego Wolfenstein se convirtió en el primero cuya perspectiva gráfica tenía lugar en primera persona, acercando al usuario un poco más al límite de la capa digital. Entre el jugador y el escenario digital ya no se interponía nada. Diez años antes de que Nintendo traspasara los límites de la cuarta pared comercializó en 1995 la primera consola de realidad virtual llamada Virtual Boy, con gráficos en 3D y en rojo y negro. A pesar del avance tecnológico, supuso un auténtico fracaso comercial de la industria del videojuego pues la máquina era demasiado grande y frágil, y su uso continuado durante varios minutos podía producir entre otros síntomas, dolor de cabeza. Electronic Visualization Lab (EVL) de la Universidad de Illinois, Chicago, desarrolló en 1992 el concepto de una habitación con gráficos proyectados desde detrás de las paredes y suelo, dando lugar a CAVE (Cave Automatic Virtual Environment), uno de los primero intentos de entorno aumentado en que el 51 entorno físico se adapta como un guante a la capa digital, y viceversa. Este formato de cave resultará a partir de entonces habitual en muchos departamentos de investigación de facultades y escuelas universitarias vinculadas al desarrollo digital. Inmediatamente después, Silicon Graphics (SGI) anunciaba un motor de realidad virtual (1993) y aparecía (1995) la primera formulación del VRML (Virtual Reality Modeling Language o ‘Lenguaje para Modelado de realidad virtual’). La compañía Stricom desarrolló en 1995 para la armada estadounidense un dispositivo que permitía caminar, correr y moverse en un reducido espacio en todas las direcciones posibilitando experimentar el movimiento real en una cabina hiper-sensibilizada. Con el cambio de milenio, los acontecimientos se aceleraron. La tecnología, preparada para producir dispositivos de gran calidad, sacó a la luz importantes avances. El célebre mundo virtual tridimensional Second Life vio la luz en 2003 por medio de un programa para ordenador personal desarrollado por Linden Lab. Los usuarios o residentes podían habitarlo con sus avatares, relacionarse, modificar su entorno y participar y alterar su economía. Sin tener un objetivo concreto, el entorno virtual de Second Life inauguró una plataforma social con altos niveles de interactividad entre los usuarios18. Google compró Earthview un año más tarde, un programa desarrollado en 2001 para crear el Google Earth, una representación cartográfica del mundo que combinaba la potencia del buscador Google con imágenes de satélites, mapas, topografía y construcciones en tres dimensiones. Fig.19. HUD (Head-Up Display). Fig.20. Augmented Reality prototype. Leonard Low. Fig.21. Bionic Contact Lens Display19.Baba Parviz, University of Washington. 2006 es un año importante en la historia de la construcción del Entorno Aumentado. Nintendo anunció el lanzamiento de WII, con el nombre en clave de Revolution, la videoconsola nació con 18 A mediados de 2007, el número de negocios en Second Life con flujo de caja positivo superó los 40.000 y más de 45 multinacionales tienen ahora presencia en el mundo virtual. Fuente: Wikipedia. 19 El sistema multicapa integrado en la lentilla de este prototipo, denominado Contact Lens Display (CLD), se compone de una capa de cristal líquido, filtros polarizadores para formar los píxeles y un microchip que transforma estos píxeles en letras o signos. Uno de los obstáculos es que no han logrado utilizar toda la superficie de la lentilla como pantalla y controlar de forma individual los píxeles proyectados. Fuente: <http://www.digitalavmagazine.com/>. (Consultado el 15 de abril de 2013). 52 la idea de conseguir una interacción antes nunca experimentada entre el jugador y el videojuego. WII supuso la ruptura de la cuarta pared y con ello la introducción del jugador en la escena de juego. En términos tecnológicos, fue el controlador o mando de la WII el dispositivo que permitió esta circunstancia. Comúnmente conocido como WII Remote, este aparato utilizaba una combinación de acelerómetros y detección infrarroja para registrar la posición en un lugar tridimensional. Su diseño permitía a los jugadores ejercer el control del juego mediante gestos corpóreos. El controlador se conectaba a la consola a través de una conexión Bluetooth. Además podía vibrar y alojaba en su interior un altavoz. El controlador convertía en tablero de juego el espacio tridimensional de la habitación donde se ubicaba el jugador, invirtiendo el proceso de la transferencia de información (fig.23). Así como Virtual Boy fue un fracaso, WII a día de hoy ha sido un éxito rotundo. En el Entorno Aumentado, la superación de la cuarta pared que convierte al espectador en su propio avatar se complementa con el solapamiento múltiple de datos digitales. Como sucede en el HUD20 (Head-Up Display), registro de la información digital de los aviones militares (fig.19) o en la visión del Terminator, la actualización de los datos emplea dispositivos con webcam y conexión a Internet para posibilitar la imagen en la pantalla en ‘tiempo real’. Matsuda21 data la aparición de la tecnología de la realidad aumentada hacia 2009, en el contexto industrial del juguete que incorporaba a una webcam22: ‘A finales de ese año pasaría a formar parte de los dispositivos de telefonía móvil. 2010 ha constituido un punto de inflexión para la Realidad Aumentada, incluida dentro de la lista Top Tech Trends de 2010 de la revista Time.’ La técnica de la realidad aumentada emplea habitualmente un marcador impreso -código de barras, código QR, BIDI…etc.- cuya localización registra un escáner y sobre la cual se referencian los datos digitales visualizados en la pantalla de un dispositivo electrónico. Una vez dispuesta la visualización aumentada, por ejemplo de un modelo arquitectónico en 3D, ‘la imagen digital puede rotarse con un movimiento del marcador de modo que la manipulación de la capa digital se opera de una manera intuitiva, como si fuera real (Ibíd., 2010)’. La realidad aumentada está siendo protagonista de numerosas aplicaciones, gran parte de ellas diseñadas para dispositivos de telefonía móvil: traductores instantáneos que funcionan tan sólo con el escaneado del texto desde la cámara de un teléfono móvil23; acceso a información turística georeferenciada en ‘tiempo real’ en la trama de la ciudad; visualización de modelos digitales 3D a 20 Véase definición en el Glosario. 21 Óp.cit., 2010: 7. 22 Véase Eyetoy para PlayStation 2. 23 Disponibles en: Word Lens, <http://questvisual.com/us/>; <http://www.wikitude.com/>; <www.layar.com>; <http://www.learnar.org/>. (Consultadas el 3 de mayo de 2013). 53 escala real sobre un lugar físico -replanteo de edificios, simulación de técnicas quirúrgicas,…etc.-; acceso a la información de un producto; pedagogías basadas en la visualización dinámica de datos, visualización de campos hertzianos -WIFI-,…etc. Fig.22. Kinect, 2010. Microsoft. Fig.23. WII Remote, Nintendo, 2006. Fig.24. Workshop: Being played, 23 de junio 2007. Axel Stockburger. La conexión con la capa digital plantea diferentes procedimientos técnicos. En vez de escanear un código impreso en 2D, se puede usar un escáner 3D que detecta y rastrea, por ejemplo, los movimientos tridimensionales del cuerpo humano (Fig.22). Las superficies geométricas del cuerpo se traducirán en una nube de puntos que se extrapola a la aplicación digital. El modelo capturado por un escáner 3D representa la posición en el espacio tridimensional de cada punto analizado. El protocolo que referencia los puntos del Entorno Físico en los sistemas digitales es objeto de continua evolución, mejorando las prestaciones de esta tecnología, por ejemplo, la capacidad de referenciar colores, sonidos y otras circunstancias relacionadas con la percepción, generándose nuevas vías de simbiosis y nuevas aplicaciones que aumentan el lugar tradicional24 con información adicional. La amplitud del espacio físico se ha convertido en un campo sensible registrado por el dominio digital (fig.24). 24 El procedimiento inverso tiene lugar en las impresoras 3D. Véase por ejemplo ‘Foster + Partners desarrolla una estructura impresa en 3D para la Luna’. Disponible en: <http://www.archdaily.mx>, (Consultada el 4 de febrero de 2013). 54 2.2. Cultura mediática de la Revolución Digital. El arquitecto comunicador. ‘Never predict anything that hasn’t already happened’. Marshal McLuhan25 El nacimiento y evolución de los nuevos medios de comunicación ha sido informado, analizado y criticado por multitud de teóricos en un intento de hacer comprensible una materia que cuenta hoy con más de sesenta años de antigüedad. El corpus teórico ha ido nutriéndose poco a poco hasta nuestros días, en que la proliferación de teorías y modelos filosóficos, sociológicos y políticos que integran la naturaleza mediática está a la par del acelerado desarrollo tecnológico. La solidez de este campo teórico complementa la naturaleza técnica de una disciplina mediática que a través de los avances tecnológicos ha influido en el devenir de la Sociedad Informacional de los siglos XX y XXI. La producción tecnológica y sus consecuencias en los modelos sociales, económicos, políticos, habitacionales,…etc., han inducido a la revisión de los modelos disciplinarios profesionales. El que corresponde a la arquitectura se encuentra actualmente trufado de influencias procedentes de otras disciplinas y por supuesto afectado por el desarrollo de las TIC. Al perfil o perfiles ortodoxos de arquitecto se ha sumado otro por influencia e injerencia de los nuevos media. El arquitecto comunicador emerge en la escena contemporánea como pieza relevante en la divulgación y crítica arquitectónica. Sin la eclosión de los nuevos medios de información y comunicación, la llegada del Entorno Aumentado habría sido inviable. La exploración de la literatura que describe esta evolución resulta necesaria para tratar de dibujar un modelo teórico de Entorno Aumentado desde la perspectiva de los medios de comunicación. La cultura de los nuevos medios es analizada en un enfoque global por expertos como Murray o Manovich en la publicación The New Media Reader, editado por Noah Wardrip-Fruin y Nick Montfort (2003); en The Digital Turn in Architecture 1992-2012, editado por Mario Carpo (2013); en Computational Design Thinking, editado por Achim Menges y Sean Ahlquist (2011); o en The Cybercities Reader, editado por Stephen Graham (2004), un compendio de artículos en formato reader que rememora el Reader’s Digest estadounidense. En respuesta a la popularización de la televisión en la década de los cincuenta y su expansión en los sesenta, tanto críticos como expertos e investigadores en comunicación dirigieron su atención hacia la propia experiencia mediática como materia de análisis, fomentando un nuevo interés hacia la comprensión de la propia experiencia mediática. Los nuevos medios, entre los que cabe destacar la fotografía, la radio, el cine y la televisión, fueron pronto entendidos como 25 Federman, M. (2006) ‘Memories of Now’, Receiver 15, April 2006, Vodafone. Disponible en: <http://www.receiver.vodafone.com/15/>. (Consultado el 12 de abril de 2012). 55 los herederos de la tradición oral y la escritura. Murray (2003: 3) afirma que los escritos de Marshall McLuhan suscitaron el interés mediático por otros investigadores. Mientras la tecnología articulaba las bases de Internet, McLuhan veía los medios de comunicación como ‘extensiones del ser humano’ que aumentaban su capacidad de percibir y comunicar. En estos años, el debate entre los detractores y los defensores de la televisión ocupaba la mayoría de las páginas de opinión. Esta coyuntura interesaba tanto a nivel de experto como al gran público y también se extendía a la cultura de la computación26, la cual poco a poco iba conquistando la necesaria perspectiva histórica para registrar y valorar su joven trayectoria. A lo largo de los setenta, las humanidades multiplicaron el vocabulario sobre esta materia tecnológica y formularon sofisticados modelos y teorías que abordaban el análisis de los medios de comunicación de masas o Mass Media. En esa década, la computación apenas comenzaba a vislumbrar la posibilidad de convertirse por sí misma en un nuevo medio de comunicación, complementando así su función primera de cálculo y procesado de datos. El cambio efectivo que supuso realmente el inicio de la expansión global de la Revolución Digital comenzó a producirse en la década de los ochenta con la aparición, ya generalizada en el mercado, del ordenador personal27. Para muchos teóricos, una de las piezas clave fue Deleuze y Guattari, los cuales sin pensar en computadoras, propusieron una metáfora para la construcción de un discurso intelectual que serviría a la postre de puente hacia el mundo de la máquina para muchos teóricos. Su propuesta de un nuevo modelo de organización textual reemplazaba las jerarquías ideológicas de un mundo desfasado basado en la impresión y proponía el rizoma como forma paradigmática de pensamiento. A principios de los ochenta, el rizoma conectaba directamente con la estructura organizativa en red de la computadora. Por otro lado se potenciaba en la universidad la colaboración entre humanistas y técnicos en computación. El desarrollo del hipertexto (rizomático) y de los videojuegos, en su afán de evolucionar la capacidad interactiva del espacio digital, supusieron grandes avances en la construcción del Entorno Aumentado. Las primeras comunidades on line aparecían en Habitat, de Lucasfilm. El conflicto entre los jugadores destructores y las comunidades constructoras tenía su réplica en Internet, entre aquellos que defendían una comunidad cooperativa que desarrollara abiertamente el código y posturas con influencias comerciales que pretendían estandarizar el desarrollo en sistemas cerrados y controlados (personalizados por Microsoft). Las utopías y distopías de la computadora afloraban a finales de la década. En los años ochenta, Apple evolucionó la interfaz gráfica del usuario mejorando la interacción con la computadora. A finales de la década, la computación había emergido como una herramienta diaria de trabajo, educación y entretenimiento, una especie de escritorio primario. Esta circunstancia cambiaría radicalmente con la llegada de la World Wide Web. Tim BernersLee supo resolver un problema técnico de flujo de información, cambiando un modelo basado en transporte de bits por otro que compartía documentos visuales, páginas web. Con la llegada 26 El genocidio nazi fue mucho más eficaz gracias al sofisticado proceso de censo. Véase ‘IBM, al servicio del holocausto’ (El País, 13 de febrero de 2001). 27 Resulta significativo la sustitución en ese momento de la ‘computadora’ (computar datos) por el ‘ordenador’ (ordenar datos). 56 en 1998 de las ‘www’ finalizó la Revolución Digital28. Las bases para el desarrollo del Entorno Aumentado quedaron sentadas y dispuestos los mecanismos de fusión de los entornos Digital y Físico. El arquitecto comunicador. El incremento de las habilidades tecnológicas, tanto para el diseño y manipulación de entornos aumentados como para el desarrollo de su propia actividad como usuario, constituye una de las características del perfil profesional de arquitecto comunicador, capacitado para incorporarse a la tarea de construcción del Entorno Aumentado. El arquitecto asume las nuevas reglas de juego del entorno mediático y global, fruto de la incorporación de los medios electrónicos y las tecnologías digitales al ámbito profesional, abrazando irremediablemente el papel de comunicador. No será suficiente ejercer la profesión técnica de arquitecto, además hay que hacerla visible, incluso ‘audiovisible’. El arquitecto mediático contemporáneo, divulgador de su obra o de la de otros, encarna un agente periodístico experto en Mass Media y en los nuevos géneros surgidos tras la eclosión de las redes sociales. Superada la posguerra, la arquitectura moderna tomaba referencias no tanto de la arquitectura construida, como de las publicaciones de revistas, exposiciones o concursos. La imagen a todo color constituiría una herramienta ‘internacional’ y propia a la disciplina. El posicionamiento táctico frente al cultivo de imágenes y su repercusión en los medios de comunicación fue ejercido con precisión por Le Corbusier, Charles y Ray Eames, Alison y Peter Smithson o el grupo Archigram. La difusión de la obra del arquitecto comenzó entonces a ser tan importante como la consecución material del proyecto29. Mies van der Rohe publicaba en 1921 los dos números de la revista G y las revistas Fruilich y Metz. Sus rascacielos berlineses imaginados de arquitectura vítrea fueron los que realmente le situaron en el mapa de la vanguardia arquitectónica, mientras tanto construía edificios ‘de estilo’ en su práctica profesional. El propio Le corbusier se hizo con su cartera de clientes al publicar Le Espirit Nouveau. Al llegar Loos a París le precedió la influencia de sus textos en Das Andere, publicación autofinanciada, antes que su obra construida, situación compartida por el colectivo Archigram cuyo magazine del mismo nombre fue el canal aglutinante de las propuestas del grupo. A este respecto, Colomina (2013) hace la siguiente precisión: ‘El mítico historiador Sigfried Gideon llegó a París buscando a Rob Mallet-Stevens porque quería escribir su historia de la arquitectura moderna. Solo por casualidad le hablaron de Le Corbusier porque salía más en la prensa, pero ¿quién se acuerda hoy de Stevens? Le Corbusier tomó ese espacio en los medios de comunicación 28 Negroponte, óp. cit., 1998. Entonces viajar resultaba complejo y caro. La gran mayoría de los arquitectos españoles de la posguerra conocía la obra de los maestros extranjeros por los ‘santos’ de las revistas especializadas. Apenas se hablaban otros idiomas. Este es el caso de Alejandro de la Sota; no de Miguel Fisac, que dio la vuelta al mundo en varias ocasiones. 29 57 convirtiéndolo en un lugar de producción de la nueva arquitectura. Los dos arquitectos más famosos del siglo XX, Le Corbusier y Mies van der Rohe, tardaron mucho en conseguir hacer algo que estuviera al nivel de lo que habían publicado como proyectos. Le Corbusier fue el primer arquitecto que realmente entendió los medios de comunicación y, al hacerlo, llevó la arquitectura al siglo XX’. La mediatización de la arquitectura cuenta con géneros que han dominado épocas. Es el caso del manifiesto, formato vinculado en origen a la estrategia bélica -igual que el término ‘vanguardia’-, que se consolidó como canal de información para los arquitectos y los artistas plásticos de la primera mitad del siglo XX. Esta comunicación unilateral imperativa trataba de dejar su impronta en la coyuntura del momento. Su sintaxis se trasladó a otras publicaciones más extensas como la revista. En conjunto, la doctrina del arquitecto se hacía pública a golpe de imprenta: el futurista, el surrealista, Le Espirit Nouveau, Das Andere, Werkbund, las comunicaciones de los CIAM, el Manifiesto de Doorn del Team X, el Manifiesto Situacionista, Complejidad y Contradicción,…etc. La versión construida de esta doctrina cristalizaba en una tipología: el pabellón como síntesis efímera de toda una declaración de intenciones. La naturaleza lineal y unilateral del manifiesto lo sitúa en los niveles básicos de comunicación. La aparición de las primeras teorías de la comunicación en los años cuarenta ya avisaban de que no eran éstos los canales de comunicación óptimos, ya que si bien si tenían en cuenta el destino del mensaje, el lector más o menos experto, no habilitaban ningún canal de comunicación que retroalimentara el mensaje. Las publicaciones de ese tipo constituían un claro ejemplo del determinismo positivista30 racional que erigía al arquitecto como único autor de la obra y canalizador a su vez de una lógica de causa efecto encargada de construir soluciones proyectuales óptimas. La incorporación de la retroalimentación en los medios de comunicación enriquece la transmisión del mensaje. La impostura del manifiesto se diluye en el feedback obtenido del usuario. Pensar en la comunicación desde el feedback, implica plantear la comunicación integrando estructuras informacionales que recolecten la información del público de modo que se produzca la interacción con la de la propia fuente original. Las ‘introvertidas’ revistas en blanco y negro (Sadler 2006) de los cincuenta y los sesenta tuvieron que adaptar su formato a los nuevos tiempos. Publicaciones británicas de gran tirada como Architectural Review o Architect’s Journal vieron disminuir sus ventas en favor de las nuevas revistas a todo color. La demanda de publicidad en color fue satisfecha por ediciones como Sunday Times Colour Magazine. Es fácil imaginar la trascendencia que tuvo el artículo sobre Peter Blake ‘Pioneer of Pop Art’en su primera edición de febrero de 1962, la publicación en la misma revista de Plug-in City de Peter Cook en la edición del 20 de Septiembre de 1964 o de Instant City de Archigram en el Daily Express Colour Supplement, el 27 de julio de 1970. 30 Impostura alejada del Paradigma de la Complejidad y de la apuesta por una disolución del arquitecto autor en favor del equipo multidisciplinar integrado por sociólogos, antropólogos, ingenieros,…etc. 58 En los años sesenta, el desarrollo de las TIC no supuso únicamente la llegada del color a muchas publicaciones de arquitectura, sino también la posibilidad de incluir nuevos géneros de comunicación en la labor profesional del arquitecto. La disciplina arquitectónica inauguraba una renovada vía de investigación. La arquitectura mediática emergía como una propuesta de configuración del lugar a través del lenguaje de la información: la representación de la información en detrimento de la configuración masiva (fig.1), y el auge de la simbología, de la iconografía y de la semiótica. Fig.1.Soft Scene Monitor, Axonometría. Peter Cook y Dennis Crompton para Archigram, 1968. Fig.2. Diagrama de la obra Pithoprakta, Xenakis, 1955-56. Los propios integrantes de Archigram cultivaron géneros tan poco ortodoxos como el cómic -Archigram nº 7- o el ‘News Digest31’ adulto -Archigram nº 9-. Asimismo, los Eames y los Smithson usaron estrategias y anuncios publicitarios en el proceso proyectual; incluso Dennis Crompton trabajó con Pink Floyd32 en el Festival de Brighton en 1967. La proliferación y combinación de los nuevos soportes audiovisuales influyó en el devenir de la producción de arquitectura de vanguardia. En este sentido, cabe señalar como pioneros al propio Le Corbusier y a Charles y Ray Eames. El suizo logró en el Pabellón Phillips de la Exposición Universal de Bruselas33 de 1958 una experiencia integral con el Poème Electronique. La colaboración con 31 Este género tiene sus orígenes en el Reader's Digest estadounidense, revista mensual con sede en Nueva York fundada en 1922. Propiedad de The Reader's Digest Association hasta marzo de 2007, fecha en que fue adquirida en su totalidad por Ripplewood Holdings en 2.400.000.000 de dólares. En formato de bolsillo e ilustrada, publica artículos originales, artículos resumidos o reimpresos de otras revistas, resúmenes de libros, colecciones de chistes, anécdotas, citas y otros escritos breves. Se edita en treinta y cinco idiomas y tiene una tirada de unos 30.000.000 de ejemplares. En diciembre de 1940 apareció la primera edición en español llamada Selecciones. Fuente: Wikipedia. 32 La banda de Roger Waters formó parte de Archigram Opera, conferencia impartida en la Architectural Association de Londres el 8 de mayo de 1975. 33 La de Bruselas fue tal vez la exposición más importante de la Guerra Fría. El hecho de haber sido la primera exposición de categoría mundial celebrada tras la Segunda Guerra Mundial, le dio una mayor trascendencia: los gobiernos aliados de Europa Occidental explotaron la coyuntura para mostrar sus 59 Xenakis fue determinante. Para el interior del impresionante pabellón, Xenakis y Le Corbusier encargaron la música a Edgar Varèse, quien compuso su archifamoso Poème Électronique. Como si esto fuera poco, el mismo Xenakis (fig.2) realizó Concret PH, una pieza intrigante que se escuchaba en los interludios de la obra de Varèse. Quinientos visitantes asistían a la vez a un espectáculo de luz y sonido que duraba diez minutos. Un año más tarde, los Eames lograron en Moscú un ritmo secuencial nunca visto en las proyecciones de las siete pantallas empleadas en la exposición Glimpses of the USA. El desarrollo de las técnicas de grabación audiovisual permitió una mirada diferente a lo establecido. Afirma Sadler (2006: 146) que frente al dinamismo de la vision in motion34 que había cautivado a generaciones anteriores, basado en un tempo mecánico lineal propio del s.XIX, la visión zoom representaba mejor el tempo moderno de la era postindustrial, vinculado a la tecnología de la información, televisión, consumo y también movimiento. El zoom servía al arquitecto el movimiento asociado al campo escalar. Esta circunstancia, resuelta en la tradición arquitectónica con la representación del objeto a escalas diferentes suscitaba una lectura intermitente. El zoom dinámico cinematográfico avanzó una cualidad propia de la representación del lugar digital. Esta herramienta habitual en cualquier programa de diseño asistido por ordenador, y propia del dominio digital, puede equipararse en trascendencia con la mirada cubista de Pablo Picasso, suma de múltiples puntos de vista como consecuencia de su atemporalidad. El proceso proyectual, en tanto que acercamiento a un lugar en potencia, ha visto modificado sus técnicas a consecuencia de este avance. Tanto el grupo Archigram, en la publicación de la edición Zoom en 1964, como Charles y Ray Eames en el corto documental Powers of ten, dispusieron esta mirada pionera y singular sobre el proyecto arquitectónico. El alcance de las nuevas representaciones fue puesto en común en una serie de publicaciones que marcaron el devenir arquitectónico de la década de los sesenta y el porvenir futuro de la profesión. La imagen de Daniel Borstin (1963) supuso una primera toma de contacto a la que siguieron otras. En 1964, un profesor de literatura inglesa, crítica literaria y teoría de la comunicación saltó a la fama en las universidades de prestigio norteamericanas con la publicación de Understanding Media, una reflexión sobre los medios de difusión masiva y la sociedad de la información. Understanding Media y El Medio es el mensaje (1967), sendas obras de Marshall Mcluhan, acreditaron la imagen como la herramienta clave de la sociedad occidental. Este reconocimiento fue elevado a la escena política por Guy Debord en La Sociedad del Espectáculo (1967), atribuyendo la imagen a la organización más avanzada del sistema capitalista logros de posguerra, mientras que los países del Eje -Alemania, Japón e Italia- la tomaron como una oportunidad de limpiar su imagen en el extranjero. 34 Traducido como ‘visión en movimiento’. MOHOLY-NAGY, L. (1947) Vision in motion, Chicago: Paul Theobald. 60 Cabe señalar que la inclusión de McLuhan en este capítulo obedece a la pertinencia de su lado visionario más que a su faceta teórica. Su posicionamiento respecto a los medios de comunicación social, acuñado determinismo tecnológico, ha sentado las bases para la comprensión de la naturaleza de la Revolución digital, sobre todo en lo concerniente al estudio sobre los medios. A su fallecimiento, en diciembre de 1980, el estado de la tecnología digital difería bastante del contemporáneo. La relación bidireccional hombre-máquina apenas superaba el teclado ‘digital’, el ratón y unos pocos controles periféricos para las consolas de videojuegos. Los dispositivos multimedia, la world wide web o los soportes digitales actuales diferían mucho de la tecnología de principios de los ochenta. Sin embargo, y a pesar que McLuhan no asistió a la caída del muro de Berlín (1989) y a la desintegración de la Unión Soviética (1991), sostenía ya en 1961 que los medios de comunicación electrónicos estaban induciendo una aldea global35. El pensamiento de McLuhan respecto a los medios de comunicación se inicia a partir de reflexiones como: ‘somos lo que vemos’, ‘formamos nuestras herramientas y luego éstas nos forman’ y ‘el medio es el mensaje’. La traslación de uno de sus aforismos más conocidos de McLuhan ‘somos lo que vemos’ al ámbito arquitectónico tuvo consecuencias múltiples y profundas. Por un lado, la supremacía de la percepción audiovisual –más visual que auditiva- frente a las otras percepciones ha sido la tónica dominante en el desarrollo de la arquitectura mediática del siglo XX. La incorporación paulatina desde finales del siglo pasado del paradigma sostenible a la disciplina arquitectónica y la puesta en valor de análisis precisos y simulaciones físicas del entorno habitable en base a unos estándares de confort óptimos ha deparado un cambio en esa tendencia audiovisual. El usuario del siglo XX sometido a la dominancia de lo audiovisual se sitúa frente al edificio aumentado del siglo XXI, envuelto por una membrana digital porosa. El proyecto de arquitectura toma decididamente en consideración al usuario osmótico, sensible a balances psicrométricos, a los efectos de la radiación solar y de la microventilación. La percepción sensorial en las arquitecturas atmosféricas de Phillipe Rahm, François Roche o Dillier & Scofidio confieren una mayor atención a percepciones distintas de la audiovisual, así como a las relaciones que se establecen entre ellas. Tal es el caso del sentido criostésico, vinculado a la naturaleza psicrométrica del interior arquitectónico. En referencia al perfil comunicador del arquitecto, su capacitación para desarrollar tareas de comunicación pasa por aprender el funcionamiento diestro de las herramientas multimedia: ‘formamos nuestras herramientas y luego éstas nos forman’36. Se entiende que el proceso 35 Nótese que la etimología de globalización deriva del anglicismo ‘globalization’, y que ‘global’ no equivale a ‘mundial’ en español. 36 Aserto de John Culkin (1967), compañero de McLuhan en la Forham University. Otra observación similar es la de Winston Churchill ‘damos forma a nuestros edificios, así que ellos nos dan forma a nosotros’ (Schools 1960: 76) y la de Henry David Thoreau sobre la construcción de las vías de ferrocarril: ‘no nos montamos sobre las vías, ellas nos montan a nosotros’. (Strate 2012: 64). 61 comunicador constituye un sistema reversible de divulgación y recolección de información producto también de la divulgación de otros- o ‘una polaridad entre el emisor y el receptor’ (Ibíd.: 62). Esta inmersión mediática ha transformado los procesos de diseño y la disciplina arquitectónica en general, induciendo nuevas metodologías de trabajo. La comunicación para el arquitecto ha dejado de ser una acción mecánica consistente en la publicación de algo ya terminado. La comunicación es en sí misma un medio, una extensión corpórea del usuario, no un fin. Como aventuraba McLuhan (1964) en el título del primer capítulo de su estudio más influyente Understanding Media: The Extensions of Man: el medio es el mensaje. En relación con el enfoque biológico implícito en propuestas de Füller y en los proyectos pneumáticos de Archigram, Frei Otto o Haus Rucker Co, Marshall McLuhan (Steiner 2009: 170) describe el ideal de arquitectura como el resultado lógico de la experimentación con cápsulas espaciales, cerramientos de chorro de aire y edificios con suelos y techos que pueden moverse a voluntad. Esa flexibilidad, continúa McLuhan, ‘tiende naturalmente hacia lo orgánico. La sensibilidad humana parece en sintonía una vez más con las energías universales que se transformaron al hombre tribal en un buzo de piel cósmica’. El entendimiento de lo arquitectónico como un sumatorio de tecnologías y de modelos biológicos, identificados por la metáfora hard y soft, resulta explícito tanto en la teoría de Robert Wiener Cibernética: o el control y la comunicación en el animal y en la máquina (1948) como en la posterior tendencia de atención metabólica en muchos proyectos arquitectónicos de la década de los años sesenta. 2.3. Arqueología del lugar aumentado. 2.3.1. Computación y arquitectura. La metamorfosis del retrato de Jacquard. Este apartado explora los orígenes del lugar aumentado y su evolución hasta nuestros días. Es por tanto, una cartografía de la percepción de la información digital, en relación con la práctica arquitectónica. El análisis se practica con especial énfasis en la transformación acontecida en torno a la visualización y simulación del ‘lugar digital’. Este no-lugar37 podrá ser comprendido y experimentado por el usuario en formatos diversos, desde escenarios textuales, gráficos interactivos de realidades virtuales, construcciones digitales de modelos arquitectónicos, a en última instancia, lugares físicos aumentados mediante el solapamiento de la capa digital. Los soportes tecnológicos que acompañan esta cronología digital son referencias fundamentales para la comprensión de las técnicas que han hecho posible esta evolución del ciberespacio38, hecho por otro lado central en esta tesis. Esta historia crítica comienza hace aproximadamente doscientos años, con algunos acontecimientos preliminares que desde disciplinas y situaciones completamente ajenas a la ciencia marcarán el destino de la máquina que está transformando la 37 No se toma el significado original del término acuñado por Marc Augé vinculado al lugar de tránsito sino a la ausencia de lugar físico, resultando tan sólo existente la representación visible de ese lugar. 38 Véase Glosario de términos. 62 naturaleza del ser humano: la computadora. Una de las imágenes más trascendentes de la temprana historia de la computación, y me atrevería a decir el primer render de la historia, es el retrato de Joseph Marie Jacquard (fig.2) tejido en fina seda en 1839, en un telar del propio Jacquard de Lion. Años antes, en 1801, el lionés Jacquard había inventado un telar operado con un automatismo de tarjetas perforadas (figs.1 y 3) que mecanizaba el patrón del tejido. El retrato precisó de 24.000 tarjetas perforadas que automatizaron la producción de la imagen. No sin cierta dosis de azar, una de las copias llegó tiempo después a manos del matemático británico Charles Babbage. El efecto inspirador que causó en el padre de la computación fue determinante para la invención de su Máquina Analítica (Analytic Engine), la primera computadora programable. La imagen de Joseph Marie Jacquard sentado en su taller, tomada como paradigma e icono de todas las imágenes digitalizadas, irá manifestando toda su realidad a lo largo del siglo XX en una escalada sensorial in crescendo, según soplen los vientos tecnológicos. La imagen de Jacquard irá tomando figuraciones distintas cada vez más precisas, sometiéndose a distintos lenguajes articuladores del plano digital. La acción de habitar el (no) espacio digital o ciberespacio se entiende necesariamente en relación con la interfaz, y ésta a su vez en relación a la aserción de Wittgenstein ‘los límites de mi lenguaje significan los límites del mundo’, ampliada y corregida (Alcalá, óp. cit., 45) por Peter Weibel: ‘no interactuamos con el mundo, sino sólo con la interfaz del mundo (…). El mundo cambia -entonces- a medida que lo hacen nuestras interfaces, siendo los límites del mundo los límites de nuestra interfaz’. Fig 1. Ilustración de la fabricación de las tarjetas perforadas empleadas en el telar de Jacquard. Fig 2. Retrato de Joseph Marie Jacquard (1752-1834), tapiz de seda, 55 x 34 cm. Fig.3 y 4.Tarjeta perforada de Jacquard (zoom) y tarjeta perforada IBM, 1930. Aunque el concepto de realidad virtual apareció en 1965 en el artículo de Ivan Sutherland The Ultimate Display, otras personas comenzaron anteriormente a sentar sus bases. En 1844, Charles Wheatstone inventó el estereoscopio (fig.5), fundamento de los primeros visores de realidad virtual. En resumidas cuentas consistía en obtener dos fotografías casi idénticas pero que se diferenciaban ligeramente en el punto de toma de la imagen; éstas serían observadas por cada ojo de manera separada y el cerebro resolvería la combinación en una sola, creando un efecto tridimensional. En 1891, Louis Ducos du Hauron patentó un instrumento conocido como 63 el anaglifo y realizó las primeras pruebas consistentes en una imagen estereoscópica en la que se eliminaba, con ayuda un filtro fotográfico, el color rojo -esta debía verse con el ojo derecho- y el verde y el azul para la imagen visualizada con el ojo izquierdo. A partir de 1915 se rodaron fragmentos de películas utilizando dicho sistema. El ajedrecista (del inglés, The Chess Player), un autómata construido en 1912 por Leonardo Torres Quevedo, es considerado por muchos como el primer videojuego. El ajedrecista hizo su debut durante la Feria de París de 1914, generando gran expectación en aquellos tiempos y repercusión en los medios con una extensa primicia en Scientific American cuyo titular apostillaba así: ‘Torres and his remarkable automatic device’. Fig.5. Estereoscopio de Wheatstone, 1844. Fig.6. El ajedrecista, 1912. Leonardo Torres Quevedo mostrando su invento. Fig.7. Ilustración del artículo ‘The ARMY BRAIN39’, Mechanix Illustrated, Junio, 1946. La transición contemporánea que experimenta el diseño ‘asistido por ordenador’ (CAD) hacia el diseño ‘computacional’ o algorítmico supone la sustitución de la representación gráfica por la simulación de sistemas generativos integrados. La simulación de los procesos naturales metabólicos, las operaciones de las leyes de la termodinámica, los principios generales de la biomorfología y otras tantas circunstancias vinculadas a la simulación de la naturaleza requieren de la práctica de la computación. La consideración de la interferencia del orden matemático en el natural y viceversa, se remonta a la primera definición de ‘morfología’ de 39 Transcripción literal: ‘A GIANT ‘thinking machine’ able to apply electronic speeds for the first time to mathematical tasks too difficult for previous solution, is now in use by the U. S. Army. It can compute 1,000 times faster than the most advanced calculating device previously known, can solve in hours problems which would take years on a mechanical machine and shows promise of revolutionizing longrange weather prediction and many other highly complicated sciences. Known as the ENIAC (Electronic Numerical Integrator and Computer), the revolutionary robot weighs 30 tons and occupies a room 30 by 50 feet in size. Temporarily housed at the University of Pennsylvania, the machine’s permanent home will be the Army Ordnance Proving Grounds at Aberdeen, Md. The first all-electronic, general purpose computer ever developed, it was designed and constructed for Army Ordnance at the Moore School of Electrical Engineering, University of Pennsylvania. The electronic robot is capable of solving thousands of technical and scientific problems so complex and difficult that all previous methods of solution were considered impractical, if not impossible’. 64 Johann Wolfgang von Goethe, descrita en el texto Formación y transformación40 (1806), de gran influencia tanto en El Origen de las Especies de Charles Darwin (1859) como en la referencia seminal que fue On Growth and Form (1917), del biólogo y matemático escocés D’Arcy Wentworth Thompson, cuya toma de conciencia de la influencia que los procesos naturales podían inspirar en la morfogénesis y con ello en los procesos computacionales resultaría trascendental para posteriores descubrimientos. Las matemáticas se interpretaron entonces como una herramienta que bien podía explicar la relación entre el entorno natural y la geometría. La ecuación paramétrica de variables y la homología componían la convergencia. Fig.8.Transformación de la estructura de un cocodrilo. D'Arcy Thompson. Alan Turing, autor de la conocida como Máquina de Turing, jugó un papel clave en el desarrollo del concepto de computadora. Tomó el testigo de D'Arcy Thompson mostrando interés en la morfología y en la simulación de los procesos morfológicos mediante modelos matemáticos basados en la computación (Frazer 2011: 149). La hipótesis central de Turing afirmaba que la máquina homónima podía replicar no sólo las funciones de las máquinas matemáticas sino también las funciones de la Naturaleza. Esta vía de inspiración que nace en las ciencias naturales del siglo XIX y principios del XX tuvo su contrapunto en el desarrollo tecnológico alentado y financiado en el periodo de entreguerras para mejorar la capacidad militar de los ejércitos. El ENIAC (fig.7), una de las primeras computadoras electrónicas de la década de los cuarenta -presentada en público por los aliados el 15 de febrero de 1946- podía resolver en dos segundos cálculos matemáticos para los que un humano tardaba 7 horas. Gramlesberger (Gleiger & Vrackhliotis 2010: 29) confirma que ‘a pesar de su tamaño y de contener unas 18.000 válvulas de vacío, su memoria sólo era capaz de procesar unos pocos cientos de símbolos. Este tipo de máquina computacional mecánica resultó especialmente útil, primero para cálculos de trayectorias balísticas y después para el lanzamiento de misiles’. Sobre esta base, John von Newmann y Herman Goldstine, que habían 40 VON GOETHE, Johann Wolfgang (1989) ‘Formation and Transformation’, Goethe’s Botanical Writings, Ox Box Press (Woodbridge, CT), p.21-4, University of Hawaii Press. 65 contribuido al desarrollo del ENIAC, acuñaron en 1947 en su publicación Planning and Coding Problems for an Electronic Computer Instrument, la primera definición de código: ‘La organización de una tarea en una serie de pasos y la traducción de estos pasos en una secuencia de comandos para una máquina’. Newmann y Goldstine anotaron en el texto un comentario de naturaleza arquitectónica, perfectamente válido para ser incluido en una posible metodología del proyecto arquitectónico, al recomendar un método gráfico que simplificara el concepto de la secuencia de comandos: ‘La programación comienza con el dibujo de diagramas de flujo. Esta es la dinámica o etapa macroscópica de la programación. (…) Esta ha sido nuestra experiencia invariable, una vez que el problema ha sido entendido y preparado (…), el dibujo del diagrama de flujos presenta ya poca dificultad41’. A mediados de la década de los cincuenta, John von Newmann comenzó a estudiar modelos matemáticos que simularan el comportamiento de sistemas no lineales (Vrachliotis 2008: 73). La coordinación recíproca de diferentes principios sistémicos fue decisiva en sus investigaciones. La intención pasaba por considerar (Kay 2000: 157) ‘a los organismos como computadoras y a las computadoras como organismos’. Esta concepción organicista del sistema -incluso de autómata biológico- se transformó en una estructura operativa gracias a la influencia del matemático polaco42 Stanislaw Ulam. La propuesta tomó la forma de un modelo que simulaba un tablero infinito de ajedrez, sobre el cual elementos individuales básicos (celdas) pudieran comportarse de acuerdo a un sistema regulador simple (fig.9). A pesar de que aún no utilizaba computadoras, John von Newmann concibió de ese modo un robot celular universal con la capacidad de auto-respuesta (réplica). Este robot era capaz de reproducir modelos opcionales, incluyendo a sí mismo. A pesar del avance, la emergencia del campo de investigación conocido como ‘Vida Artificial’ no vería la luz hasta años más tarde, en 1987, de la mano del matemático norteamericano Christopher Langton (fig.10). Desde entonces, la máxima de Langton ‘para tener una teoría de lo actual, es necesario conocer lo posible43’ se considera un precepto indiscutible. Desde la perspectiva del proyecto arquitectónico, la interpretación de esta teoría resulta una cuestión de gran vigencia contemporánea. Los algoritmos de programación generativa de morfología digital son operados por parámetros fácilmente intercambiables, siendo relativamente sencillo disponer de una vasta paleta de tentativas (variables) de proyecto que 41 GOLDSTINE, Herman H. & VON NEWMANN, John (1948) ‘Planning and Coding Problems for an Electronic Compiuter Instrument’, Parte II, vol. 1, en John von Newmann: Collected Works, vol. 5: Oxford, p. 80-85. 42 Como Von Newmann, Ulam emigró de su país natal a Estados Unidos. 43 ‘To have a theory of the actual it is necessary to understand the possible’. (Langton 1997: 10). 66 ayuden a elaborar una intuición de hacia dónde encaminar la búsqueda proyectual de ‘lo posible’44. Fig.9. Universal Constructor, 1947. John von Newmann. Fig.10. Simulación virtual de un gametofito del Farnes Microsirium lingüiforme (abajo el gametofito natural). La publicación en 1948 de A Mathematical Theory of Comunication45 de Claude E. Shannon articuló las bases de la teoría de la informática, predecesora de la ciencia de la computación. Shannon investigó el tratamiento exclusivamente matemático -sin contenido semántico- de la información. Curiosamente la difusión del artículo tuvo lugar en un libro publicado un año después, en colaboración con Warren Weaver, The Mathematical Theory of Communication cuyo título difería del anterior en la determinación del artículo, circunstancia que viene a resumir la transcendencia del volumen. Esta publicación a su vez influyó notablemente en la obra del físico alemán Erwin Schrödinger (1948) What is life? The Physical Aspect of the Living Cell, cuyo contenido exploraba los conceptos de herencia y código genético. El avance tecnológico definitivo en la computación de la década de los 50 no fue exclusivamente la automatización de la programación por los compiladores y el uso de los primeros lenguajes informáticos46, sino la introducción de nuevos modos matemáticos en la interacción hombre-máquina, esto es, el desarrollo de nuevos vínculos entre el software y hardware. La computadora ocupaba un ámbito disciplinario muy concreto bajo el reinado de científicos e ingenieros (fig.11). Hasta entonces, la función exclusiva de la computadora era la 44 Es el caso por ejemplo de Flamingo, el Plug-in de Rhinoceros, que ofrece al proyectista una progresión o serie de soluciones arquitectónicas a la hipótesis de proyecto inicial formulada. 45 C. E. Shannon (1948) ‘A mathematical theory of communication’, Bell System Technical Journal, vol. 27, pp. 379-423 and 623-656, July and October. 46 FORTRAN (Formula Translation) fue desarrollado en 1954 por John Backus. Aun se emplea en el campo de las ciencias naturales. 67 de realizar cálculos47, pero a partir de ahora tomaría otras capacidades de trabajo. A principios de los sesenta, las computadoras comenzaron a procesar datos, organizar operaciones lógicas y completar procedimientos48. De los 70 en adelante, el procesado de datos informáticos se volvió de suma importancia. Fig.11. Anuncio Launching Tomorrow’s Satellite, Enero de 1956. Fig.12. Anuncio del IBM 1001 Data Transmission System, Diciembre de 1961. El científico J. C. R. Licklider (1960) autor de Man-Computer Symbiosis, que a la postre se convertiría en uno de los textos claves del siglo XX, fue el primero en visualizar el concepto de una red de computadoras que permitía la comunicación de usuarios en distintas computadoras en una serie de notas que discutían la idea de ‘Red Galáctica’ y que incluían la mayoría de los aspectos que hoy contiene Internet. Una visionaria postura sobre la complementariedad del cerebro humano y las computadoras. ‘La simbiosis hombre-ordenador es una subclase de los sistemas hombre-máquina. Hay muchos sistemas hombre-máquina. En la actualidad, sin embargo, no hay simbiosis hombre-ordenador. Los objetivos de este trabajo son presentar el concepto y, con suerte, fomentar el desarrollo de la simbiosis hombre-ordenador mediante el análisis de algunos problemas de interacción entre el hombre y las 47 En 1964 se inaugura en la Universidad Politécnica de Madrid el Centro de ‘Cálculo’, no se le llama centro de computadoras o centro informático. 48 Véanse las figuras 12 y 13 y nótese la retórica del mensaje que transmiten. Frente a la iconografía típica de la Guerra Fría, incluso con alusión a la carrera espacial, que representa a la computadora como si se tratara de una inteligencia artificial, la imagen de la figura 12 anuncia una tecnología mucho más accesible al ciudadano. Transcripción del anuncio de la figura 13: ‘… new low cost way to send punched card data… by telephone. This IBM 1001 Data Transmission System lets you send business information in punched card form, from any office, plant or department to your central data processing installation at the cost of a telephone call’. 68 máquinas de computación, llamando la atención sobre los principios aplicables de la ingeniería hombre-máquina, y señalando algunas preguntas que necesitan de respuestas innovadoras. La esperanza es que, en no muchos años, los cerebros de humanos y las computadoras estén acoplados estrechamente, y que la sociedad resultante piense como ningún cerebro humano haya pensado alguna vez y procesado información de modo no abordado por las máquinas de manipular información que hoy conocemos’. En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. El primer mensaje49 enviado en ARPANET tuvo lugar a las 22.30 horas del 29 de octubre de 1969 entre la Universidad de California UCLA y la Universidad de Stanford. El 5 de diciembre del mismo año, toda la red inicial estaba lista. Un año después de la publicación de Understanding Media (1964), el cofundador de Intel Gordon E. Moore formuló una ley empírica cuyo cumplimiento se ha podido constatar hasta hoy. Cuando lo hizo, no existían los microprocesadores -desarrollados a partir de 1971-, ni los ordenadores personales cuya expansión tuvo lugar en los años ochenta. Con la intención de medir la velocidad de la evolución tecnológica, Gordon Moore (1965) afirmó que el número de transistores por unidad de superficie en circuitos integrados se duplicaría cada año50. Este vaticinio se ajusta, al menos cualitativamente, a las circunstancias del mercado actual. No solo las empresas fabricantes de tecnología hardware o software asumen esta voracidad evolutiva sino que los usuarios también asumen que un ordenador o una cámara fotográfica digital o una televisión quedan obsoletos en dos años (figs. 13 y 14). ¿Qué consecuencias tiene la Ley Moore para la disciplina arquitectónica? 49 ‘ En marzo de 1970 ARPANET cruzó hasta la costa Este cuando la propia BBN se unió a la red. En 1971 ya existían 24 ordenadores conectados, pertenecientes a universidades y centros de investigación. Este número creció hasta 213 ordenadores en 1981 con una nueva incorporación cada 20 días en media y llegar a alcanzar los 500 ordenadores conectados en 1983’. Fuente: <http://www.lk.cs.ucla.edu/internet_first_words.html.>. (Consultada el 10 de abril de 2012). Véase p.239 para profundizar en la información. 50 Moore actualizó su predicción en 1975 para señalar que el número de transistores en un chip se duplica cada dos años y esto se sigue cumpliendo hoy. Las limitaciones de esta ley fueron discutidas por el propio Moore y el famoso científico Stephen Hawking hace unos años, y éste último respondió que los límites dependían precisamente de los límites de la microelectrónica: la velocidad de la luz y la naturaleza atómica de la materia. Esos dos límites no están muy lejos según Moore, que ha afirmado que en 10 o 15 años su ley dejará de cumplirse. Y me temo que aunque lo haya dicho el mismísimo Moore, una y otra vez nos volvemos a encontrar con ingenios tecnológicos que se enfrentan a todo lo concebible en el pasado. Fuente: <www.theinquirer.es>. (Publicado el 19 de septiembre de 2007 por Javier Pastor). 69 La evolución acelerada de los procesadores, como dicta la ley de Moore, desembocará en la gran revolución tecnológica digital del último cuarto de siglo, activada con la llegada del ordenador personal51. El primer modelo comercializado en 1975, el Altair 8800 de MITS, se vendía como un kit por entregas en la revista Popular Electronics. Los diseñadores vieron multiplicada por diez su previsión de ventas solo en el primer mes. Sin duda Altair52 supuso la apertura de la primera puerta al mercado de los PC. Fig.13. Diagrama de Coste y Tiempo. Cuaderno de apuntes de Moore, 1964. Fig.14. Número de transistores / año. Ley de Moore vs Procesadores Intel. Uno de los acontecimientos más señalados en la historia de la convergencia de la computadora y la arquitectura fue la primera y pionera conferencia celebrada en Boston en 1964 bajo el epígrafe Architecture and the computer. El acontecimiento despertó un interés inusual, además de la temática novedosa, el foro contó con la presencia de Walter Gropius, que comenzó así su intervención53: ‘(…) ¿Será necesario formar a una nueva profesión de arquitectos asistentes con el propósito de articular la solución de los problemas en el lenguaje propio de la computadora? Según afirma Georg Vrachliotis (Gleiniger & Vrachliotis 2010: 75), tecnológicamente hablando ‘la computadora era un campo completamente nuevo para los arquitectos de los sesenta, y era vista predominantemente como un artefacto hecho por los técnicos y para los técnicos, excepto en firmas importantes de planeamiento urbano y construcción, donde estaba comenzando a ser empleada como una máquina de cálculo administrativo’. H. M. Morse Payne, presidente del Boston Architectural Center y asistente de Walter Gropius, dio la bienvenida al auditorio con 51 Kenneth Olsen, en 1977, director de Digital Equipment Corporation, no veía razón alguna para introducir el ordenador en los hogares 52 El primer lenguaje de programación del Altair 8800 fue escrito por Bill Gates y Paul Allen. Inmediatamente después fundarían Microsoft. 53 Discuso adjunto al Anexo. 70 las siguientes palabras: ‘Nuestro tema, la computadora, parece el más actual, el más urgente, la cuestión más seria que pudiéramos traer a la profesión (…). Así que deberíamos empezar a explorar la cuestión inmediatamente.’54 La respuesta de Gropius a la pregunta retórica inicial anticipa la función polivalente de la computadora en el estudio de arquitectura, no haciendo uso de ella como mera herramienta de cálculo: ‘Aun creo que, si miramos esas máquinas como potenciales herramientas que optimicen nuestros procesos de trabajo, podrían ayudarnos a liberar nuestro potencial creativo.’55 El origen de la computación reservó un lugar especial al arquitecto norteamericano de origen griego Nicholas Negroponte. Arquitecto por el MIT, realizó investigaciones en el campo del diseño asistido por ordenador. Sólo tres años después de la conferencia de Boston, lideró en 1967 la fundación del Architecture Machine Group o ArcMac en el MIT, con el propósito de estudiar la interacción hombre-máquina. Más adelante, en 1985, crearía el MIT Media Lab. ArcMac fue fundada para crear una ‘Máquina de Arquitectura ‘que ayudara a los arquitectos en el proyecto de arquitectura. Se inspiró hasta cierto punto en proyectos como el Sketchpad de Ivan Sutherland56 (1963), una interfaz de diseño asistido por ordenador. Negroponte esperaba que su máquina pudiera ayudar no sólo en complejas cuestiones técnicas si no también en situaciones triviales de la profesión. Sería un socio ‘activo, inteligente, capaz de aprender y capaz de comprender la idiosincrasia humana, como por ejemplo los gestos de las manos’. La máquina de arquitectura no se construyó, pero en el camino ArcMac desarrolló numerosas aplicaciones que hoy se siguen utilizando o que aguardan una evolución del desarrollo tecnológico para su construcción. El Sistema Espacial de Datos, Spatial Data System o ‘Dataland’ con la interfaz ‘Pon-eso-allí’ (Put-that-there) diseñado por Nicholas Negroponte y Richard Bolt fue pionera en el uso de iconos y herramientas gráficas en el escritorio. La enorme dificultad que para aquellos arquitectos supuso la investigación con computadoras tenía un sesgo múltiple. En la secuencia de imágenes incluida en el libro de The Architectural Group, Negroponte mostraba el alcance del reto. Mostraban las manos de un individuo sentado enfrente de una especie de máquina de escribir, gesticulando mientras escribía (fig.15), junto al comentario57: 54 H. Morse Payne, ‘Welcome’, ibíd., p.1. 55 Natalie Jaffe, Architects Weigh Computer’s Uses. (New York Times, 6 de Diciembre de 1964). 56 Estudiante doctorando con Claude Shannon, utilizó una nueva tecnología llamada ‘lápiz de luz’, desarrollada por la experimentación militar en radares, lo que hizo posible dibujar directamente en el monitor. 57 Ibíd., 2010, p.78. 71 ‘En esos pocos segundos, el usuario de esta terminal ha dicho más a la máquina con el lenguaje gestual que en ninguna línea de texto, pero no es escuchado. Esta persona concreta nunca antes había usado una máquina; no sabe que es un lenguaje sin gestos (Negroponte 1970: 13).’ En Europa, la investigación con gráficos computacionales difería en parte de enfoques como el de Negroponte y Coon. Los gráficos eran programados con código, no dibujados. La conjunción de cibernética, arte y filosofía desarrolló rápidamente una nueva cultura experimental de la programación. Los matemáticos Friederich Nake y Georg Nees, junto con el filósofo Max Bense, trabajaron en gráficos que integraban tanto aspectos estéticos como teóricos fundamentos filosóficos cercanos a la naturaleza artística conceptual. En 1965, esta producción fue expuesta en Stutgart en la Computergrafik-Programme Exhibition, donde cada imagen venía acompañada de su código (fig.16). El trabajo de Nake como el de otros muchos investigadores y arquitectos, como Christopher Alexander, interesados en la computación tuvo en la lingüística de Noam Chomsky un referente inspirador y motivador. Nake destacaba la lingüística de Chomsky (Vrachliotis 2009: 88) como esencial en el advenimiento de la nueva ola revolucionaria de inspiración que a finales de los cincuenta abriría el nexo sinérgico entre arquitectura y computación. Fig.15. Image series,Architectural Machine 1970. Fig.16. Graphic Schotter y código que genera el gráfico, 1968, Georg Nees. El Architecture Machine Group es autor del Aspen Movie Map, un proyecto de cartografía urbana desarrollado en 1978 que empleaba tecnología hipermedia para invitar al usuario a realizar un tour virtual por la ciudad. El Aspen Movie Map capturó con ayuda de cuatro cámaras de 16mm y un giroscopio montados en un coche imágenes de todas las manzanas de la ciudad de Aspen desde múltiples puntos de vista en un disco de video analógico –precursor de la óptica digital del DVD. El usuario podía recorrer las calles de Aspen eligiendo el camino. Cada click de ratón significaba un paso del peatón. Otro adelanto del proyecto fue la integración de una pantalla táctil que permitía el accionamiento manual de los botones de una sencilla interfaz. Además, el usuario podía tocar cualquier edificio que apareciera en pantalla e inmediatamente se 72 visualizaba el alzado. Algunos edificios disponían de información alternativa para visualizar interiores, reconstrucciones históricas, entrevistas grabadas en video, menús de restaurante,…etc. Otra característica de la interfaz del ‘viaje virtual’ era la integración conjunta de la perspectiva dibujada en tres dimensiones y la fotografía aérea. Además, los recorridos podían señalarse, como también se podía practicar zoom para acercarse o alejarse, igual que en la película Powers of Ten que Charles y Ray Eames habían grabado un año antes. La Realidad Virtual era reconocida a principios de los 80 como una tecnología viable. Heredero de esta propuesta es el proyecto A9 de Amazon, que fotografió en 2004 la cota cero completa de varias ciudades norteamericanas con idea de configurar un motor de búsqueda similar a unas páginas amarillas. Esta línea de mapas urbanos también la integra la aplicación peatonal de Google Maps Street View y constituirá una base de datos fundamental para complementar la capa digital urbana de muchas ciudades. La evolución del Aspen Movie Map supuso el desarrollo del proyecto Movie Manual. Enmarcado en el hipermedia, se le considera uno de los precursores de internet y de la interfaz del CD. El impulso del Architecture Machine Group fue precedido de un conjunto de singulares proyectos que realmente abrieron la puerta a la realidad virtual y consecuentemente a la construcción del ‘lugar digital’. Philco Corporation e Ivan Sutherland son autores destacados por el carácter pionero de sus produciones. En 1961, Corneau y Bryan, empleados de Philco Corporation, construyeron el que parece ser el primer casco de realidad virtual de verdad, un referente en la conquista del espacio virtual. Este dispositivo permitía ver imágenes en movimiento y estaba dotado de un sensor magnético que determinaba la orientación de la cabeza del usuario. Un año más tarde se desarrolla el Sensorama, el primer dispositivo que trataba que el cine fuese percibido por todos los sentidos utilizando para esto: visión 3D estereoscópica, dos imágenes ligeramente distintas para cada ojo, sonido estéreo, vibraciones mecánicas, aromas,...etc. Asimismo, en 1964, se creó el primer holograma (Emmett Leith y Juris Upatnieks) o imagen tridimensional. El concepto de realidad virtual surgirá en 1965, cuando en su artículo Ivan Sutherland sostenía que ‘la pantalla es una ventana a través de la cual uno ve un mundo virtual. El desafío es hacer que ese mundo se vea real, actúe real, suene real, se sienta real’. Sería él mismo el creador del primer casco visor de realidad virtual utilizando tubos de rayos catódicos, uno para cada ojo, y de un sistema mecánico de seguimiento. Posteriormente en 1968, creará junto con David Evans el primer generador de escenarios con imágenes tridimensionales, datos almacenados y aceleradores; un año más tarde, en 1969, Myron Krueger fue el autor del proyecto denominado Artificial Reality que permitía la interacción con elementos creados virtualmente. La utilización de gráficos a través del ordenador tuvo que esperar aún algún tiempo, y se debe al trabajo realizado en el MIT por Roberts y Sutherland. Roberts escribió el primer algoritmo para eliminar superficies oscuras y ocultas de una imagen, abriendo así el camino a la utilización de gráficos 3D (Ortigueira et alt. 2012). Por su parte, el trabajo de Sutherland consistió en el desarrollo de algoritmos que pudiesen realizar esta tarea de manera eficiente. Uno de los frutos de estos esfuerzos se encuentra en el desarrollo por Henri Gouraud, en el año 1971, de un algoritmo de iluminación que aún es muy utilizado hoy en día. Este algoritmo hace posible que una superficie formada por polígonos cobre el aspecto de una superficie suave y continua. Al principio el campo en el que tuvo una mayor aplicación fue el militar; de hecho, en 1971, en el Reino Unido comienzaron a fabricar simuladores de vuelo con displays gráficos, pero será un 73 año más tarde, en 1972, cuando General Electric desarrolla el primer simulador computarizado de vuelo. Éstos operaban en tiempo real, aunque los gráficos eran bastante primitivos. Pocos años después, en 1979, el ejército empezó a experimentar con cascos de simulación. En 1977, apareció uno de los primeros guantes documentados Sayre Glove, desarrollado por Tom Defanti y Daniel Sandin. Este guante, está basado en una idea de Richard Sayre, tenía en cada dedo un tubo flexible de fibra óptica con un emisor de luz en un extremo y un receptor en el otro. En función de la cantidad de luz que llegaba al receptor se podía calcular la flexión de los dedos. El Centro de Investigación de Palo Alto, Xerox Research PARC, desarrolló en 1970 la primera interfaz gráfica de usuario o GUI (graphical user interface). Este entorno visual sencillo permitía la interaccion del usuario con el sistema operativo. A partir de entonces, en todo el mundo se empleará está metáfora: carpetas que contienen archivos dispuestas sobre un escritorio. Es el primer síntoma de domesticación de la computadora. El usuario tenía la ocasión de ‘amueblar con objetos’ el espacio de la pantalla, como si de una planimetría se tratara. Dos años más tarde, ATARI desarrolló el primer juego que convirtió la pantalla de un ordenador en un tablero espacial, el PONG, al que seguiría PACMAN58. Fig.17 y 18. Introducing Apple II. Publicidad de Apple, septiembre de 1977. Precio: $1298. Fig.19. What kind of man owns his own computer? Apple, mayo de 1980. La evolución de la computadora dispuso a finales de la década de los setenta y principios de los ochenta una serie de nuevos prototipos al alcance del usuario personal (figs.15, 16 y17). El PC o Personal Computer entraba en escena para quedarse muchos años. La cotidianeidad y la privacidad de los hogares vieron cómo estos dispositivos se incorporaban de modo análogo a como lo habían hecho antes la radio, tv y los electrodomésticos. La publicidad del Apple II presentaba el ordenador en 1977 como un kit con un teclado. Las grandes computadoras de los cincuenta y los sesenta caben de repente en la mesa de comedor de una vivienda de clase media. 58 Véase en Cap. II, p.78, Videojuegos, paradigma arquitectónico del la realidad digital. 74 Como dice el texto del anuncio (figs.15 y 16), el usuario59 tan solo tenía que limpiar la mesa y conectar al dispositivo una televisión en color y una grabadora de cassette: ‘The home computer that’s ready to work, play and grow with you. Clear the kitchen table. Bring in the color T.V. Plug in your new Apple II and connect any standard cassette recorder/player. Now you’re ready for an evening of discovery in the new world of personal computers.’ En el año 1982 en que se lanzan al mercado del personal computer los modelos Commodore 64 y el ZX Spectrum de Sinclair, el ordenador ya no es un ser ominoso y las cuestiones acerca del futuro se desplazan hacia el planteamiento de la condición de las personas en una sociedad en la que la tecnología ha hecho posible la vida y la inteligencia artificial (Waelder 2005). Esta nueva imagen del futuro en la que el género de la ciencia ficción se conoce como ciberpunk, describe una sociedad super-urbana. El vínculo entre el ser humano y la máquina se diluye. La analogía de este vaticinio en la tecnología electrónica implica necesariamente la revisión de la interfaz que une a la persona y el ordenador. La interfaz60 permitirá al individuo operar de un modo más ‘natural’ la máquina, debido a que la visualización del código de programación se vuelve gráfica. Asimismo, habilitará una configuración a su gusto del usuario. La evolución de la tecnología que exploraba la realidad virtual tuvo otro hito en el primer simulador de la cabina de avión para entrenar a pilotos. En 1981, Thomas Furnes desarrolló la Cabina Virtual. El problema inicial consistía en la creciente complejidad instrumental de estos aparatos, por lo que Furness comenzó a buscar la forma de facilitar la interacción con los pilotos. La solución fue el desarrollo de una cabina que proporcionaba información 3D a los pilotos, quienes podían controlar el aparato a través de una representación virtual del terreno con campo de visión de 120º en horizontal. Este aparato funcionó por primera vez en septiembre de 1981, y ha constituido la base para el desarrollo de los sistemas de entrenamiento militar creados a partir de ese momento. Este mismo científico sólo un año más tarde presentó el simulador de vuelo más avanzado que existía, contenido en su totalidad en un casco y creado para U.S Army AirForce. El Dr. Gary Grimes, de los Bell Labs, patentó en 1983 el primer guante que reconocía las posiciones de la mano con la intención de crear caracteres alfanuméricos y poder sustituir los teclados por estos. Este guante tenía sensores de flexión en los dedos, sensores táctiles en las yemas de los dedos y sensores de orientación y posición en la muñeca. En 1985, Mike Mc Greevy y Jim Humphries junto con la NASA desarrollaron el sistema VIVED, Visual 59 El varón analiza unos gráficos mientras toma una taza de café, preparado probablemente por ella, que se afana en las tareas domésticas de la cocina. En otro orden, nótese la interesante polisemia de la expresión ‘grow with you’ en la publicidad. 60 Definiciones adjuntas al Glosario. 75 Environment Display System, las primeras estaciones de bajo coste dotadas de un campo de visión amplio, estéreo y con sensores de posición en el casco de realidad virtual, cuya utilidad estaba enfocada a los futuros astronautas en la NASA. Si mencionamos el acrónimo RIM correspondiente a la Red Informática Mundial, apenas habrá usuarios que se identifiquen con él. Si por el contrario hablamos de la World Wide Web o su acrónimo WWW estaremos nombrando unas siglas cuya proximidad es inmediata a todos los pobladores del planeta que tienen un conocimiento mínimo sobre tecnología. El padre de las tres ‘w’, Tim Berners-Lee, necesidado de transmitir información sobre sus investigaciones de manera más eficaz, desarrolló en 1989 un sistema de distribución de información fundamentado en hipertexto o hipermedios enlazados y accesibles a través de Internet61. Quedaban así definidas las bases para la aparición de la Aldea Global de Marshall McLuhan. Los ciudadanos del mundo desarrollado dispondrían, por fin, de un nuevo medio de comunicación independiente e instantáneo, una red diferente a los canales tradicionales. El desarrollo de las tres uves dobles supuso la creación del último elemento tecnológico que validaría la consecución de la Revolución Digital materializada en la década de los noventa primermundista. Una de las consecuencias de la red Internet es la aparición de colectivos independientes que desarrollan iniciativas propias, desarraigados del sistema tradicional de mercado. Tal es el caso de Linux, el sistema operativo desarrollado por Linux Torvalds en 1991. Un sistema operativo de código abierto que crece y mejora gracias a la aportación de usuarios individuales. Waelder (2005) nos recuerda el paralelismo de estos colectivos que anteponen el bien común al individualismo con los acontecimientos descritos en Un Mundo Feliz de Aldoux Huxley. La estructura en red de estos colectivos, entre los cuales cabe destacar el colectivo de hackers, resulta incómoda en el estándar mercantil capitalista. Nuevas metodologías de trabajo –alejadas de la Regla de San Benito-, nuevos objetivos, una ética diferente (Himanen 2005) a la que evidencia el sistema económico capitalista son características propias del hacker. Este modelo supone un referente para todas las disciplinas profesionales. En lo que atañe a la arquitectura, cabe señalar la proliferación de colectivos de jóvenes arquitectos organizados en torno a redes y plataformas que buscan entre sí alternativas académicas, sinergias profesionales, la optimización económica de los recursos y el efecto multiplicador de estas estructura62. La Carta Magna para la Era del Conocimiento (Gilder y Toffler, 1994) o la Declaración de Independencia del Ciberespacio (1996) constituyeron proclamas de un optimismo característico 61 Se denomina Lenguaje HTML (HyperText Markup Language) o lenguaje de etiquetas de hipertexto, el protocolo HTTP (HyperText Transfer Protocol) y el sistema de localización de objetos en la web URL (Uniform Resource Locator). 62 Véase Arquitectura Viva nº 145, Colectivos españoles. Nuevas formas de trabajo: redes y plataformas. 76 de esta etapa heroica de la Red. Giannetti (2006: 87) lo describe así: ‘(…) ciberactivistas, hackers defendían la apertura del código fuente, elaboraban protestas, sabotajes y movilizaciones sociales en y a través de la red. Estos años, desde 1995 hasta 1999, podrían ser considerados el ‘punto álgido’ de la experimentación creativa y también del debate sobre, con y a través de Internet’. Finalizada la Revolución Digital a finales de la década de los noventa63, los presagios futuristas acontecidos a lo largo de casi todo el siglo XX, casi todos en el seno de la literatura de cienciaficción, dejaron paso a las predicciones de los expertos tecnológicos. Los gurús de Internet, de la telefonía móvil, de la realidad aumentada…etc., elaborarán sus propias previsiones sobre el desarrollo del campo científico en el que son profetas. Unas previsiones más técnicas y menos utópicas. Una de las publicaciones más influyentes en los noventa fue Being Digital, de Nicholas Negroponte. En ella Negroponte analizaba las correlaciones existentes entre el mundo real, el de los átomos y el mundo informático compuesto de bits. Predijo muchas cualidades de la sociedad actual: ‘los nuevos límites de la privacidad, comunidades digitales, nuevos horizontes en la interacción y un escenario futuro en el que el dominio digital se mezclaba de manera ‘natural’ con el dominio físico –encaminado a desdibujar las diferencias entre el lado izquierdo y el derecho del cerebro’64. Entre otras consecuencias de la Revolución Digital cabe destacar el desarrollo de una nueva conexión del ciudadano con los objetos en el entorno alternativo que la capa digital. Barnatt (2010) afirma que el mayor esfuerzo llevado a cabo hoy en día es el proceso inverso: la ‘atomización’ masiva de los contenidos digitales o la relocalización de contenidos digitales en la realidad física. Barnatt se refiere a este proceso como Segunda Revolución Digital, que consecuentemente refleja una época en la que el creciente número de dispositivos electrónicos permite cada día el desarrollo de la informática ubicua, con acceso a Internet y otras tecnologías digitales casi constantemente disponibles. De la mecanización automática manifestada en el Retrato de Joseph Marie Jacquard se pasó, siglo XX mediante, a la construcción de una realidad alternativa basada en la conquista tecnológica de una percepción de la virtualidad ‘más real’. El proceso en sus inicios transportó al usuario de fuera a dentro de la pantalla, alcanzando la sensación casi plena de control del escenario digital, a menudo replicante de la realidad física de la naturaleza. La colonización del ciberespacio estaba servida, al menos en términos del control de la amplitud digital. El siguiente estrato tecnológico -que hoy vivimos- corresponde a un avance en la naturaleza de la cartografía del híbrido. El Entorno Aumentado propone volver a salir de la pantalla para localizar el nolugar del retrato de Jacquard en cualquier lugar del espacio cotidiano, en un proceso de territorialización o ‘atomización masiva’ de la capa digital. 63 Véase nota al pié de la p. IV de la introducción. 64 Negroponte, óp.cit., 1995. 77 2.3.2. Videojuegos, paradigma arquitectónico del Entorno Digital. ‘Games are the most elevated form of investigation’. Albert Einstein. La industria del videojuego65 ha sido y continúa siendo un agente activo determinante en la evolución del Entorno Digital. Desde las primeras propuestas textuales hasta los proyectos contemporáneos que configuran el espacio de juego fuera de la pantalla hay un progreso efectivo que ha marcado los derroteros del Paradigma Digital. La transformación del espacio virtual o ciberespacio en entorno aumentado, acontecida a partir de la ruptura de la cuarta pared, ha sido posible gracias en parte al impulso tecnológico de esta industria, una de las pioneras en transferencia tecnológica a la sociedad civil. Desde la técnica de la realidad aumentada, a los locative media o a las sucesivas versiones mejoradas de la interfaz hombremáquina, el videojuego ha supuesto una vía prolífica de I+D+I. El videojuego se constituye en paradigma arquitectónico del dominio digital. Su formato, que asume como hipótesis de partida la interacción del usuario y con ello la introducción de la variable ‘tiempo’, ha propiciado una evolución sin parangón de la capacidad de movimiento habilitada en los escenarios digitales, no-lugares cuya hibridación con entornos físicos hace tiempo que se practica. En el dominio digital, es el videojuego el género que ha contribuido con mayor intensidad participativa a la construcción del Entorno Aumentado, como por ejemplo en el caso de la ruptura de la cuarta pared. Su formato ha pasado de ser una materia exclusiva de los programadores informáticos a interpretarse como un proceso creativo que comparte estrategias propias del proyecto arquitectónico y de otros proyectos enmarcados en otras disciplinas. El desarrollo del proyecto de un videojuego precisa de un equipo que integre cada vez más oficios. Es aquí donde el arquitecto interviene con mayor asiduidad y necesidad. El diseño de escenarios virtuales -fotorrealistas o abstractos- compete a profesionales expertos en el campo de las estructuras (¿cómo se rompen las cosas en el ciberespacio?), en el del planeamiento urbano, en la historia de la arquitectura, en la expresión gráfica arquitectónica y, por supuesto, en el proceso creativo proyectual66. Por todo ello, el trasvase interdisciplinar está asegurado, lógicamente también en sentido inverso. Algunos géneros del videojuego, lejos de constituir una mera propuesta lúdica, 65 Véase definición en el Glosario. 66 Nótese la diferencia entre proyecto edificatorio y proyecto arquitectónico. Éste último va mucho más allá del proyecto de un edificio que va a ser construido. Para profundizar en el sentido del sintagma arquitectónico véase MORALES, José Ricardo (1969) Arquitectónica (sobre la idea y el sentido de la arquitectura), Ediciones de la Universidad de Chile. 78 ofrecen una estrategia retórica narrativa apropiada para campos disciplinares diversos y ajenos a la naturaleza lúdica original del género. Es el caso de los Serious Games67y de la aparición del concepto de gamificación 68 o ludificación como el empleo de técnicas y dinámicas propias del videojuego en actividades no recreativas. Esta circunstancia inaugura un campo naciente que está ganando de forma rápida la atención de múltiples disciplinas. 2.3.2.1. Cultura arquitectónica del videojuego. Los videojuegos forman parte de nuestro presente cultural tanto por la influencia de su estética, como por la trascendencia de los procesos de interacción hombre-máquina que proponen. Todavía no hay forma de jugar a un videojuego sin ubicarlo en un lugar. El espacio específico de juego nace del acto de jugar. El espacio digital habilitado en representaciones gráficas de muy diversa índole ha sido frecuentado por los jugadores; ha cambiado -y lo sigue haciendonuestra noción del espacio y el tiempo digital, igual que el cine y la televisión fueron transformando su naturaleza a lo largo del siglo XX. Fig.1. Escena de Hábitat, 1986. Fuente: Lucas Arts Entertainment Company. Fig.2. Heavy Rain, 2010. Quantic Dream para Sony. Fig.3.Intellivision: Game/teacher69. Anuncio publicitario, junio 1979. Mattel Electronics. Los cambios notables que ha experimentado el cine han sido casi todos operados en el soporte incorporación del sonido, del color, de las tres dimensiones70- y en el guión. Este último menos dependiente del avance de tecnológico y más de la retórica que ordena la historia que se pretende contar. Pero el guión no resulta la piedra angular en la gran mayoría de los 67 Véase p.261. Véase Glosario de Términos para la etimología. Más información en:<http://www.gamificacion.com/>. (Consultada el 2 de diciembre de 2013). 69 Transcripción literal: ‘Hook Intellivision to your color TV and its preprogrammed software lets you do everything from play games to learn a language. It has 60-by-92-line graphics in 16 colors. With keyboard, it’s $499’. 70 A pesar de que Avatar se visionaba en 3d en 2010, la visión estereoscópica que introduce las tres dimensiones perceptivas se remonta a 1920. Véase portada de La Sociedad del Espectáculo (fig.3 en Topología del Entorno Aumentado), p.230. 68 79 videojuegos. Los fabricantes de videojuegos venden escenarios digitales. La arquitectura del juego se ubica en gráficos que permiten sobrellevar la acción. Los inventores del séptimo arte, los hermanos Lumière, nunca sospecharon la posibilidad de que un espectador interactivo visionara sus películas. Más allá de un individuo receptor de estímulos visuales -que más tarde también fueron sonoros, y más aún coloreados-, el espectador contemporáneo está decidido a abandonar una estática ausencia de interactividad de un siglo de duración. La integración total de las dos disciplinas se pone de manifiesto en videojuegos como Heavy Rain71, donde la trama se solapa al espectáculo de la acción mecánica provocada al percutir los botones de forma impulsiva: tiroteos pirotécnicos, sangre, vísceras,…etc. Andrew Darley (2000) plantea en Cultura Visual Digital la relación establecida entre el espectáculo y los nuevos géneros en los medios de comunicación: ‘¿De qué manera el marco estético, que sirve como fondo de la cultura contemporánea, condiciona la idea de que las expresiones visuales digitales constituyen formas espectaculares? ¿En qué sentido se encuentran relacionadas las nuevas técnicas digitales72 con la naturaleza particular de la cultura visual digital contemporánea?’ Esta disyuntiva, cuyo debate prolifera también en el género cinematográfico, plantea una lectura de la escena del videojuego como un acontecimiento que reiteradamente se repite aunque con pequeñas variaciones. El videojuego, formato audiovisual que necesita al jugador como parte activa desencadenante del proceso para el que fue diseñado, ¿puede producir obras de arte o se considera un producto de la cultura del ocio y el entretenimiento? Ya en sus primeros trabajos, como en el caso de Réquiem for the Media, Baudrillard expresa su preocupación fundamental por la forma y el formato, en referencia a la aparición y a la influencia de los sistemas modernos de significación y de representación. En este sentido, la evolución del concepto de obra de arte o sencillamente de artefacto que va a ser fabricado para ser utilizado por un número ingente de personas tiene su punto de inflexión en los años treinta, cuando Walter Benjamin (1971) comenzó a estudiar el concepto de reproductibilidad. Este atributo, característico de los videojuegos y de la infomasa que compone el Entorno Aumentado, resulta de gran interés en la consideración del potencial arquitectónico del mismo. La cualidad reproducible del videojuego permite una experiencia lúdica múltiple abierta a la subjetividad de diferentes percepciones. La experiencia del jugador en el espacio digital, en relación al recorrido que explora y a los diferentes ‘ensayos’ del juego, es intensificada por la repetición de la acción. Los tiempos de visionado, diseñados en función de la frecuencia de 71 Del director David Cage, fundador de los estudios Quantic Dream que empezaron a realizar investigaciones en este sentido en juegos como Fahrenheit. Han empleado las mismas técnicas de captura de movimientos que en Avatar. 72 Véase ‘Lenguaje digital’ en el Glosario. 80 reproducción y el cansancio generado en el jugador, determinan la escala y la dimensión del escenario digital que el diseñador gráfico desarrollará. Lugares, por un lado, donde el usuario puede recrearse, y por otro, lugares ligeramente o rápidamente consumidos por el jugador -los cuáles no necesitan tanta precisión en el diseño de su detalle-, componen el puzle topológico del videojuego. Esta cualidad escalar del entorno virtual digital forma también parte de la naturaleza del Entorno Aumentado. Si bien el Entorno Físico se muestra siempre en toda su naturaleza, esté o no esté delante el espectador, el Entorno Digital y por extensión el aumentado, puede valorar la posición del (jugador) espectador para la activación de las dinámicas informacionales. En palabras de Jean Baudrillard (1981), ‘la obra reproducida mediante la técnica se ha convertido paulatinamente en la obra que se concibe para ser reproducida’. La reproductibilidad tecnológica, primero mecánica y después electrónica, implica la idea de repetición entendida como réplica. En este sentido, Baudrillard suscribe la afirmación de Marshall McLuhan 'el medio es el mensaje'. Así, lo relevante parar comprender correctamente el actual estado de las cosas es la naturaleza o la forma del propio medio -como se comunica-, más que su propio contenido -lo que comunica-. La Revolución Digital ha favorecido la vigencia de nuevas estructuras de pensamiento más transversales y relacionales que verticales e independientes. En detrimento del reduccionismo lineal positivista, el proceso creativo de proyecto asume como nunca esta cualidad que estructura el medio líquido. La mirada analítica del estudiante de arquitectura contemporáneo ordena y jerarquiza la sobreinformación no de un modo taxonómico si no rizomático. De este modo, se pone en valor el talante relacional de las atenciones proyectuales capaz de descubrir sinergias implícitas en el proceso, frente a otras imposturas propias del proceso creativo deductivo que cercenan la complejidad a implementar en el proyecto arquitectónico. La experiencia dinámica del videojuego y otros formatos audiovisuales aportan éstas y otras capacidades características del Entorno Aumentado. Baudrillard, Jameson y Eco consideraron los adelantos que se han producido en el campo de las tecnologías de la reproductibilidad como determinantes del proceso de desarrollo por el cual se ha llegado a una situación de preponderancia general de la forma sobre el contenido: la era del significante, frente al significado73. Este concepto vinculado a la sociedad del espectáculo es clave para comprender el papel desempeñado por los videojuegos en los 80’ y 90’, momento en que el carácter mecánico casi automático de la acción del juego convertida en una sucesión de etapas a conquistar, relegaba el guión a un segundo plano. Como se observa tras obtener la experiencia de jugar -por ejemplo, al Heavy Rain- parece que esta dinámica de abandono de la primacía abrumadora del significante frente al significado del juego, el videojuego toma una dimensión mucho más próxima al cine. Al significante del videojuego se asocia el término jugabilidad74, un parámetro exclusivo del género pero cuya traslación al Entorno Aumentado da lugar a planteamientos interesantes. En 73 Véase definición en el Glosario. 74 Del inglés gameplay. Tal vez el lector quiera buscar su equivalente en el campo de lo arquitectónico. 81 palabras de Montagnana (2008), la jugabilidad ‘hace referencia a la accesibilidad y capacidad de disfrute de un juego en virtud de sus gráficos, la fluidez de movimientos o la interacción de personajes. A grandes rasgos, designa todos aquellos elementos que permiten que el jugador disfrute’. Puede entenderse también como suma de ‘jugar’ y ‘habilidad’ o ‘capacidad de ser jugado75’. El diseño de la interfaz formal del juego debe permitir siempre una jugabilidad óptima y el despliegue plástico de los espacios donde transcurre la acción también debe apoyar este carácter ‘jugable’. El concepto de reproductibilidad se subordina al de serie76 o seriales. Sin duda es esta forma de producción la que domina el mercado del videojuego. Los juegos más populares han desarrollado auténticas sagas de episodios a partir de la entrega del original. La repetición queda alterada por cambios generalmente insignificantes en las réplicas o secuelas (clones). Esta clase de repetición resulta semejante, en ciertos aspectos, a la que Bruno Latour (1985) atribuyó en su breve estudio Visualization and social reproduction: opening one eye whist closing the other…a note on some religious paintings a las pinturas religiosas prerrenacentistas. Sin embargo, a diferencia del lenguaje de representación prerrenacentista, en el que según Latour se incluían las pinturas religiosas, hoy en día lo importante para el espectador no radica en lo que se repite en determinados números de una serie sino más bien en las diferencias. Esta circunstancia conviene tenerla en cuenta en el proceso de proyecto del pasaje urbano que integra entornos aumentados. Un instante de vida en el trabajo, en el bar, en un tren, implica la interacción de varios canales sociales que compiten de forma legal por hacerse con la exclusividad de la atención del usuario: suena el móvil, se enciende el testigo de ‘e-mail recibido’, alguien ha escrito en tu muro de Facebook, tu hermano aparece disponible en Skype,...así hasta llenar la agenda. La tecnología proporciona el soporte de todos estos sistemas informacionales, reinventándose a sí misma y transformando nuestros hábitos de conducta. En la realidad alternativa desarticulada de los videojuegos no se produce esa fricción entre espacios heterogéneos; no existe diferencia alguna entre lo físico y lo electrónico. La experiencia electrónica acapara la atención del jugador de forma tan intensa que se experimenta físicamente77. El cuerpo somatiza fácilmente los estímulos que percibimos de la pantalla del ordenador. Paradójicamente, los videojuegos constituyen un recinto electrónico amurallado dónde poder refugiarse. De este modo lo describe Wrigley (2007): ‘el espacio del videojuego es el único espacio donde los móviles y los e-mails no te encuentran. No hay mensajes del otro mundo porque no existe el otro mundo; los únicos mensajes vienen de otros jugadores. Las únicas noticias surgen del interior.’ 75 Este sentido de capacitación se encuentra también en la expresión ‘la película es poco visionable’, refiriéndose a una película confusa o dura de ver. ‘Solo los visualmente cultivados pueden elevarse por encima de las modas y enjuiciar con criterio propio lo que consideran apropiado y estéticamente placentero (…)’. Donis (2007) La sintaxis de la imagen, MIT. 76 Véase definición de serie y serial en el Glosario. 77 Véase definición en el Glosario. 82 El jugador inmerso78 en el videojuego no precisa caprichos materiales, relaciones sociales o arquitectura. El juego diluye la realidad física en la que vive, igual que diluye el resto de construcciones del contexto físico. El acercamiento al concepto de inmersión resulta de especial interés al abordar los efectos sociales derivados de la emergencia del Entorno Aumentado. ¿Cuáles son entonces los parámetros de estos nuevos espacios? ¿A qué prioridades prácticas y funcionales deberían apuntar? ¿Qué estrategias de diseño se derivarían de ello? Los lugares que nos propone la realidad alternativa del silicio son creados con vocación de resolver un problema no tanto plástico como de orden táctico. La premisa incondicional que han de cumplir es dar forma legible a una interfaz que permita al jugador avanzar en el desarrollo de la acción; vestir el lenguaje informático ingrávido con una envoltura digital que lo haga inteligible a los ojos -a veces oídos y a veces tacto- del jugador. La arquitectura ficticia proporciona un soporte, organiza la información que recibe el jugador y a la vez registra los estímulos de éste. La traslación de esta figuración de la información al Entorno Aumentado apunta sin duda a una experiencia compleja. A diferencia del videojuego, éste no comparte la dimensión plenamente lúdica, pero sí participa del concepto de inmersión. La siguiente analogía se refiere al orden jerárquico informacional del proceso de comunicación que se establece en un videojuego y en una comunicación telefónica. La reflexión se produce a propósito del orden geométrico de la información que pueda hibridarse en un entorno aumentado. El proceso de selección del individuo con el cual se quiere comunicar telefónicamente ha dependido históricamente del formato de la agenda de contactos. En tiempos de las centralitas telefónicas, la codificación numérica manual conectaba a los interlocutores a base de luz roja y el telefonista, procedimiento que daría paso más adelante a la transferencia automática (fig.4). Cuando el teléfono pasó a formar parte del ámbito doméstico, el ‘listín’ ordenó la información alfabéticamente. Poco a poco fueron apareciendo en el mercado artefactos que ordenaban mecánicamente las listas de contactos79. Años después, el diseño de la agenda de contactos de los teléfonos móviles aún replicaba el modelo lineal de lista alfabética, cuya estructura inhabilitaba vínculos de otra naturaleza que no fuera la letra inicial del nombre del contacto -el orden gramatical sobre el social-. La evolución de las estructuras de visualización de datos ha deparado recientemente la aparición en el mercado de agendas de 78 Nótese a propósito de este concepto de inmersión la aparición de nuevas prácticas comerciales como el Goldfarming (literalmente, ‘granjear oro’), acción prohibida por las compañías de videojuegos, que consiste en canjear moneda fantástica ‘virtual’ por divisas reales para potenciar avatares en videojuegos. Este mercado negro mueve 800 millones de euros anuales. Véase Playmoneyfilm, de Julián Dibbel. Fuente: <www.playmoneyfilm.com>. (Consultada el 2 de enero de 2010). 79 En una famosa escena del largometraje El Apartamento (Wilder 1959), el protagonista interpretado por Jack Lemmon tiene en su mesa de trabajo uno de estos artilugios que ordena fichas en torno a una rueda que éste manipula con destreza (fig.5). 83 contactos que ordenan la información mediante otras geometrías80, facilitando la posibilidad de introducir nuevos parámetros visualizados simultáneamente y de modo interactivo81 (fig.6). La opción de poder acceder a una mayor cantidad de información de forma simultánea multiplica las posibilidades de uso de la agenda y aumenta la capacidad de control y relacional de la información, lo cual influirá en la operatividad de la agenda telefónica, de la red social o del entorno aumentado en cuestión. Asimismo, la evolución del hardware en la computadora o del soporte físico que constituye el instrumental telefónico ha logrado optimizar el manejo de la información y la velocidad de la comunicación (fig.4). Fig.4. Her Biggest Job Is War, Mayo, 1945. Bell Telephone Systems. Fig.5. El Apartamento, 1959. Billy Wilder. Fig.6.Videoesphere. Bestiario. El aumento exponencial de la cantidad de información vinculada a los dispositivos electrónicos contemporáneos requiere necesariamente de nuevas estructuras informacionales que supere el colapso de las antiguas. Adaptando la expresión de De Certeau (2007), se podría afirmar que en relación al orden geométrico de la información ‘se ha pasado del recorrido (lineal) al mapa (transversal)’. Este avance geométrico supone la ganancia de un grado de libertad o una nueva dimensión, y se traduce en una herramienta más precisa que optimiza mejor la información. Actualmente, la venta de televisiones 3D en USA y la incorporación de manera definitiva de las tres dimensiones en las salas de cine, deja patente la asimilación de esta nueva tecnología por el mercado. En poco tiempo, el cliente potencial tipo del arquitecto estará familiarizado con la tecnología 3D o con el video que ahora se emplea en el modelado de arquitectura simulada, accediendo a una mayor cantidad de información que con la planimetría. 80 Véase Agenda Esférica (fig.6) Videoesphere, de Bestiario. Fuente: <www.bestiario.org>. (Consultada el 10 de julio de 2012). 81 La especialización en las categorías de la formación, por ejemplo la pertenencia a un grupo de ‘trabajo’, ‘amigos’...etc, resultan más sencillas en las estructuras tridimensionales y/o en las estructuras dinámicas que adaptan la visualización de la información al formato que precisa el usuario en tiempo real. 84 La representación de la información ya sea en un videojuego, en un medio de comunicación, en el proyecto arquitectónico o en un entorno aumentado incrementa su capacidad informativa al optar por soportes que incluyen la variable temporal (dinámicos). La visualización de la capa digital del Entorno Aumentado incluye representaciones simples como la textual o la propuesta por el GPS de un automóvil, pero también puede darse el caso de una fusión de escenarios virtuales avanzados, como los propuestos por algunos videojuegos y un lugar físico determinado, de modo que se produzca un grado de inmersión tal en el usuario que su percepción sea incapaz de distinguir sendas realidades. En ese caso, la hibridación sería plena y se podría empezar a reflexionar sobre el significado de ‘vivir (en) un videojuego’. 2.3.2.2. Un nuevo ámbito de estudio. Los videojuegos ingresan en la universidad. ‘Anyone who tries to make a distinction between education and entertainment doesn't know the first thing about either.’ Marshal McLuhan El formato del videojuego resulta apropiado para explorar el proceso de construcción del Entorno Aumentado. En sus orígenes estuvo vinculado a la investigación experimental militar y académica; hoy en día, también compete a la investigación docente. No es intención de este texto analizar el campo de la vanguardia del videojuego desde el estudio de sus fundamentos, sino más bien indagar en la emergencia de un marco teórico crítico de análisis del videojuego y su aceptación en el ámbito universitario. La oferta de programas académicos que abordan esta materia como un acontecimiento que va más allá de la novedad tecnológica o del entretenimiento presenta un crecimiento exponencial. Esta reflexión se suma a las ya realizadas sobre análisis teórico de videojuegos por otros expertos como Janet Murray (1997), Hamlet on the Holodeck; Gonzalo Frasca (2006), The Players Realm; Espen Aarseth (2001), Computer Game Studies; Mia Consalvo & Nathan Dutton, Game analysis: development a methodological toolkit for the qualitative study of games; James Newman (2004), Videogames; o Ian Bogost (2007), Persuasive Games. The expressive power of videogames. El análisis puede ser planteado desde enfoques muy distintos, dependiendo del área de interés específico que se pretenda explorar. Así, los expertos en gameplay (jugabilidad), en género, en gráficos, en psicología, en pedagogía, en sociología, en tecnología, en gamificación, en lingüística…etc., investigan desde intereses concretos la materia genérica que es el videojuego. Los videojuegos y la trayectoria de la industria que los produce están ligados a los avances tecnológicos; dependen de ellos para subsistir. Un error grave de planificación en el desarrollo de la próxima plataforma puede llevar a la empresa fácilmente a la quiebra. Esta dependencia atemporal, inmediata e innegociable de la vanguardia tecnológica (siempre pendiente del futuro 85 inmediato) derivó en una pérdida manifiesta de perspectiva histórica, por otra parte, tan necesaria para la reflexión autocrítica del sector. El interés público está en conocer los nuevos avances tecnológicos; al consumidor no le interesa merodear en el pasado. PONG, videojuego referencia de la primera generación de videoconsolas, se remonta a 1972. Hoy PONG queda incluido en la categoría de clásicos y desde su aparición han surgido numerosas secuelas. Ya pueden encontrarse ejemplares vintage en tiendas especializadas. Esto señal de que ya es posible echar la vista atrás porque hay perspectiva suficiente para articular un modelo crítico que trate de teorizar la trayectoria de este género. A diferencia de las teorías de juegos desarrolladas por matemáticos y estadistas o de las ciencias sociales (Huinzinga 1938; Caillois 1958), los videojuegos según observa Aarseth (2001) se convirtieron en objetos de estudio para las humanidades ‘sólo cuando éstos se volvieron populares82’. Hoy es habitual encontrar estudios de grado y posgrado en este campo lúdico, vinculados a ámbitos disciplinarios tan diferentes como los que conciernen a las ingenierías, al diseño audiovisual, a la psicología, a la economía o la informática. Probablemente, las dimensiones económicas y culturales del fenómeno han provocado su inclusión en estudios superiores y en el sector de la crítica de la cultura visual. Algo parecido ocurrió anteriormente con la aceptación del video como soporte-canal de obras de arte. El debate entre arte y tecnología fue especialmente fructífero en los 60 y70, con la llegada de los nuevos soportes audiovisuales. Espen Aarseth (Ibíd., 2001) añade una causa adicional basada en la naturaleza no efímera del videojuego, en tanto manifestación audiovisual o información almacenada que se puede reproducir. El videojuego tiene un comienzo, un desarrollo y un final, constituye una propuesta digital con una estructura lúdica no transfigurable ni editable83 que puede ser teorizada como ya lo es la producción en video, televisión u otros medios. Por otro lado, el videojuego construye una infraestructura fenomenológica cuya naturaleza se fundamenta en la acción de ser jugado. Su dimensión objetual no está acabada, como puede estarlo si acaso un cuadro de Rothko, sino que contiene en sí misma un proceso incubado a desarrollar. Los escolásticos dirían que la dimensión objetual del juego es la potencia de un procedimiento a activar y experimentar por el jugador. Esta expresión audiovisual ‘enlatada’ puede ser objeto de análisis como sucede con un largometraje cinematográfico o una escultura. Del mismo modo que ocurre en la obra de arquitectura, la experiencia del videojuego no es instantánea sino que requiere de una experiencia que sucede a lo largo de un tiempo determinado. El jugador podrá construir su opinión sobre el juego al final del ensayo subjetivo al que somete al mismo, que además es consecuencia de una cadena de decisiones que trazan una particular interacción y percepción. 82 Circunstancia que se produjo cuando encontraron una plataforma de distribución que permitía además compartir en tiempo real la experiencia de jugar. Estamos hablando obviamente de la aparición de Internet. 83 Naturalmente se aborda el concepto de editabilidad desde un escenario general tipo alejado de la cultura del hacker y de los movimientos de código abierto y licencias Creative Commons (Himanen, óp. Cit., 2001). 86 El reto supone asumir la paradoja de explorar un objeto de estudio no efímero en cuanto a su estructura, pero cuya razón de ser, es decir, la experiencia propia del acto de jugar, sí lo es. La partida nunca se juega dos veces de la misma forma, lo cual supone un invariante compartido por la arquitectura. El edificio y el videojuego participan de esta rutina efímera, pues también aquél debe ‘ser jugado’ si se quiere alcanzar a comprender completamente su naturaleza. El jugador de videojuegos y el arquitector84 de arquitecturas tienen experiencias personales múltiples desde una percepción sensorial que depende del movimiento del sujeto, representado en la pantalla en el caso del videojuego. El propio desplazamiento del espectador aleja este tipo de experiencia de la que se puede tener al contemplar un cuadro, un audiovisual o una pieza cinematográfica, aunque resulta análoga a lo que sucede en la escultura o en la arquitectura. Janet Murray (1997) se pregunta en Hamlet on the Holodeck85, si los ordenadores pueden ofrecer nuevos modos de expresión narrativa del mismo modo que la imprenta contribuyó al desarrollo de la novela o el cinematógrafo al de las películas. A este propósito, Murray señala cuatro propiedades esenciales del artefacto digital (computadora): procedimiento (del inglés procedurality), participación, espacialidad y enfoque enciclopédico. En el texto Murray da una respuesta positiva a la cuestión planteada a partir del análisis de las propiedades del ordenador como medio expresivo. La computadora es procedimental, participativa, espacial y enciclopédica, y ofrece tres tipos de placer particulares -aunque no exclusivos-: inmersión, actuación y transformación. Murray define la interactividad como ‘la combinación de lo procedimental y de la propiedad participativa, los cuales conllevan el placer de la actuación’. La tesis fundamental del libro atribuye a los ordenadores la capacidad de ampliar sus posibilidades de expresión narrativa. Además de ser el videojuego un género de interés académico, su inclusión en el ámbito museístico supone una tendencia global en las metrópolis primermundistas de validación del videojuego como área de interés cultural. Actualmente las capitales del ocio y la cultura exhiben, a veces de manera precipitada, sus museos neonatos. Ejemplo de ello son el Musée du Jeu vidéo Paris, el Computerspiele Museum de Berlin, el ICHEG International Center for the History of Electronic Games de Rochester en Nueva York, o el Museo de las Máquinas Recreativas Soviéticas, donde se guarda una colección de aparatos desarrollados secretamente en fábricas militares, desde los años setenta hasta la Perestroika. Estos museos específicos del videojuego han surgido casi siempre como iniciativas privadas, con fondos procedentes de colecciones privadas. Con carácter temporal, el género del videojuego se encuentra también en el punto de mira de los conservadores de los museos, como el British Science Museum, o de curadores de salas de exposiciones que organizan muestras temporales sobre este género. 84 Término análogo a ‘lector’ o ‘tele-espectador’, entendido como el consumidor de arquitectura que experimenta la obra con una predisposición tal que tome esta experiencia como fin en sí misma. Estaríamos hablando de una suerte de meta-usuario. 85 Traducido como Hamlet en la holocubierta: el futuro de la narrativa en el ciberespacio. 87 Fig.1. Evolución de ‘Mario’, personaje principal del videojuego Super Mario Bros, desarrollado por Shigeru Miyamoto. Lanzado el 13 de septiembre de 1985 y producido por la compañía Nintendo para la consola Nintendo Entertainment System (NES). La diseñadora gráfica Eileen López, del Columbia College, en Chicago, ha elaborado una línea del tiempo de los videojuegos más vendidos en EEUU a lo largo de 32 años de historia, desde Space Invaders (Atari 2600) in 1978 a Halo Wars (XBox 360) en 200986. Más de veinte prototipos de consolas y más de cien videojuegos componen una buena muestra para ser clasificada y analizada por los investigadores. La inauguración de estos lugares contenedores de videojuegos supone un claro indicio de que ya es efectiva la existencia de una perspectiva histórica que permite distanciarnos lo suficiente del origen del fenómeno como para disponer de una visión crítica necesaria para el análisis inteligible del presente de este género cultural. Asimismo, la continuidad y persistencia de la industria a lo largo de los últimos cincuenta años ha generado una producción de tal calibre que el corpus museístico demanda ya nuevos lugares para su exhibición. ¿Podemos entonces considerar el videojuego como acontecimiento cultural? James Newman (2004: 5) cita dos razones por las cuales históricamente se ha rechazado el videojuego como referente cultural: la primera, se debe a que el videojuego ha sido percibido como un medio infantil ‘fácilmente denigrado por trivial y sin favorecer investigación alguna’, algo parecido a lo que ocurrió con el comic; la segunda, responde a la extendida percepción de no servir a una función cultural o social y sí prioritariamente a la distracción, el videojuego como expresión ‘trivial’ de un juego recreativo. Al menos desde el punto de vista de la sociología, nos enfrentamos probablemente al género cultural de mayor impacto social del siglo XXI. Cuando una manifestación artística forma parte de un museo significa que es ‘aceptada’ -aunque algunos dirían ‘sacrificada’- como auténtico acontecimiento cultural. A pesar de su éxito comercial en la industria del entretenimiento, el objetivo del videojuego por tratar de conseguir la etiqueta cultural parece que se ha logrado. Hoy por hoy, cierto tipo de videojuegos como los llamados Serious Games o los Pervasive Games se han convertido en un instrumento utilizado por diseñadores, políticos, arquitectos, sociólogos,…etc., por su enorme potencial retórico en la comunicación. 86 Véase Línea del tiempo de los videojuegos más vendidos en EEUU. Desde Space Invaders (Atari 2600) en 1978 a Halo Wars (XBox 360) en 2009. Autora: Eileen López. Disponible en: <http://eileenlopez.net/videogametimeline.html>. (Consultada el 20 de junio de 2012). 88 2.3.2.3. Jugador operador investigador. La paradoja del arquinauta. El videojuego y su naturaleza efímera procedimental (Murray 1997; Bogost 2007: 3) condiciona la metodología de análisis empleada por el jugador-investigador. Este texto propone una reflexión sobre la paradoja que afecta al investigador de videojuegos, en tanto que debe encarnar a la vez los personajes de ‘jugador’ y ‘operador’ en su labor de análisis. Parece ineludible tomar la acción de jugar en primera persona para asimilar la percepción que se tiene del juego. Al mismo tiempo, resulta infructuoso que el jugador olvide su condición de investigador, coyuntura que habrá de mantenerse dentro de un alto índice de inmersión para procurar una crítica analítica completa y compleja de esta manifestación audiovisual. Es sabido que la buena o mala predisposición de un enólogo para la cata puede condicionar su crítica de manera no deseable. Está claro que el jugador-investigador adoptará una estrategia encaminada a la asimilación del juego en la variante que más le interese para su investigación. Así, el investigador-psicólogo ‘operará’ el videojuego para comprender su efecto psicológico, probablemente muy diferente al ocasionado en una partida de amigos o en un entorno distinto al lugar de trabajo del investigador. El investigador-diseñador adoptará una forma de jugar donde las decisiones que tome sirvan para obtener una experiencia que explique la circunstancia que investiga lo mejor posible, ¿Cómo debe ser la inmersión del investigador-arquitecto para que el juego sea operado de la manera que más interese a la investigación? ¿Busca el investigadorarquitecto entender el juego de la manera más neutra posible para dar así cobertura a un mayor número de perfiles de jugador, o por el contrario, siendo consciente de su percepción subjetiva, parcial y sesgada, la asume con todas sus consecuencias? En el caso de esta investigación, el análisis está vinculado intencionadamente y en todo momento al campo arquitectónico. En su condición de experto en arquitectura, y por tanto en el campo de las imágenes, el arquinauta87 habrá de buscar sinergias entre estas dos disciplinas. Para la construcción de una actitud o disposición crítica de cierta dimensión y rigor parece necesaria la exploración tanto de las propuestas más comerciales como de aquellas consignadas como independientes o ‘de autor’. Del mismo modo que el crítico de cine supera el horizonte del Hollywood más comercial y de menos calidad cinematográfica para interesarse por producciones menos populares pero desbordantes de ingenio, el investigador-arquitecto habrá de acercarse al género en toda su diversidad de especies. Este discurso sobre el perfil del investigador arquinauta asume una dificultad añadida cuando nos referimos a videojuegos donde hay jugadores que comparten simultáneamente en un entorno virtual. El control sobre el juego que el diseñador puede inducir desde la fase de proyecto es menor o al menos mucho más complejo, dadas las múltiples interacciones que en cualquier momento pueden surgir de manera insospechada. Así lo confirman los creadores del proyecto Habitat88, pionero del género MMORPG, desarrollado en 1985 por Lucasfilm y Quantum Computer Services para el 87 El término ‘arquinauta’ toma su etimología de ‘internauta’o individuo que navega (-nauta) por Internet. El arquinauta navega por la arquitectura de Internet. 88 Véase definición en el Glosario de términos. 89 Commodore 64. En boca de sus creadores Chip Morningstar y F. Randall Farmer (1991), la lección magistral que abstrajeron de su experiencia en Habitat estima que el ciberespacio queda definido por las interacciones entre actores, más que por la tecnología que lo ha desarrollado: ‘Los arquitectos del ciberespacio se beneficiarán tanto del estudio de los principios de la sociología y la economía, como de los principios de la informática’. Esta aseveración se puede trasladar al ejercicio de la arquitectura. Es más, ya se hizo treinta años atrás. En la década de los sesenta, como consecuencia del auge de las ciencias sociales en la década inmediatamente anterior (reacción frente a la tríada ciencia-máquina-razón precursora de la II Guerra Mundial), los arquitectos del Team X apostaron por repensar el contenido de la acción frente al continente arquitectónico (fig. 1). El flujo de usuarios y su circunstancia, frente a la impostura de la envolvente construida. Las distorsiones que se producen forman parte del fundamento de la dinámica de juego. El control de las interferencias establecidas entre las conductas de los jugadores de videojuegos on line o masivos comienza con la definición en la fase de proyecto de los patrones de interacción. Esta circunstancia aproxima al proyectista a los presupuestos de la Teoría Cibernética de Wiener y su concepto de feedback, introducidos a su vez en proyectos como el Fun Palace de Price, Littlewood y Pask89. Fig.1. Small Pleasures of life. Peter Smithson. 89 Véase Fun Palace en p.183. 90 En cuanto a la definición del mundo virtual, Chip Morningstar y F. Randall Farmer abogan por un enfoque agórico, una aproximación evolutiva que vaya marcando progresivamente las pautas de la construcción virtual. Esta postura se aleja de la concepción hierática, hermética y jerarquizada que habitualmente toma el arquitecto como único responsable creador de la obra. Esta metodología agórica integradora de métodos colaborativos de participación surge en oposición a la inercia histórica del proyecto unilateral, lineal y deductivo. Forma ya parte de la paleta metodológica proyectual de estudios de arquitectura como Ecosistema Urbano, cuyos proyectos Dreamhamar90, para el diseño de una plaza en un pueblo escandinavo, o One thousand square (fig.2) proponen lugares que se refundan mediante un proceso dinámico de diseño en red que suscita la reciprocidad proyectual entre los agentes participantes residentes y otros actores urbanos involucrados de la mano de los proyectistas-. El proyecto está abierto a la integración trasversal de profesionales expertos en el espacio público: arquitectos, sociólogos, ingenieros, psicólogos, geógrafos, paisajistas,…etc. Dreamhamar acoge también a una comunidad virtual en red. Fig.2. One Thousand Square, Ecosistema Urbano y Lluis Sabadell Artiga. 90 Disponible en: <http://www.dreamhamar.org>. (Consultada el 10 de junio de 2012). 91 La diferencia entre los proyectos de Habitat y Dreamhamar estriba en que este último se desarrolla en una plaza urbana real, aunque los dos nodos sociales asumen su condición virtual de forma integral el primero o parcial el segundo. El distintivo lúdico de Habitat es fácilmente trasladable a Dreamhamar. La transferencia de las técnicas lúdicas propias de entornos recreativos a situaciones que carecen de la idiosincrasia ociosa, también denominada gamificación91 o ludificación, es una práctica emergente en nuestra contemporaneidad. No resulta por tanto descabellado pensar que algunas de las actividades propuestas desde su comunidad superen en intensidad los procesos inmersivos de un videojuego. El proyecto noruego tiene una clara sintonía con el género de videojuegos Serious Games, diseñados de manera que trascienden su condición lúdica para abordar temas no relacionados con la canónica industria del videojuego: pedagogía, economía, política, medicina, etc. De cualquier manera, la acción de juego forma parte de la condición humana del operador del videojuego digital y del proyecto Dreamhamar. triunfadores exploradores sociables ejecutores Fig.3. Clasificación tipológica de usuarios de MUDS. Richard Bartle. La casuística compleja suscitada por la interacción que se produce en los videojuegos de multijugador, o de modo análogo en los proyectos urbanos colaborativos92, añade un grado de dificultad al análisis operado por el crítico desde la paradoja que acompaña a su labor de investigador-jugador-operador. Ésta dinámica interactiva puede dar lugar a un sistema objeto de ser teorizado, lo cual plantea la hipótesis de una posible simulación desde el dominio del videojuego de modelos de interacción social producidos en entornos aumentados. Veamos a continuación qué depara el estudio del comportamiento del jugador y cómo podemos aplicarlo a situaciones características del Entorno Aumentado. Con la intención de instituir un procedimiento que permita al administrador del juego dotar de estabilidad a la interacción colectiva, Richard Bartle (1996) propone una clasificación de tipos de jugadores de videojuegos MUDS93 o MMORPG en base a su conducta en el devenir del juego: triunfadores, exploradores, 91 Véase definición en el Glosario de términos. Véase El proyecto procedimental: arquitectura opensource y proyecto colaborativo en p.287. 93 Véase definición en el Glosario de términos. 92 92 sociables y ejecutores. Tal vez pueda tener validez una clasificación similar que describa la naturaleza del ciudadano en base a su atención interactiva con la capa digital del Entorno Aumentado. Una quinta categoría apuntada por Aarseth (2007) responde a la figura del jugador tramposo. La interacción de estos cinco tipos en juegos de varios jugadores en red determina la deriva lúdica del juego. Los triunfadores tienen como objetivo subir niveles de juego, ganar. Todo lo que hacen -explorar, socializar,…etc.- debe conducirles a esa meta. Por el contrario los exploradores tratan de descubrir, comprender y recorrer la operativa interna. Para los socializadores el juego es un mero telón de fondo pues lo que les interesa realmente es conocer e interactuar con otros jugadores. Los ejecutores tratan de imponerse a los demás para obtener su ración de adrenalina. A su vez el perfil del jugador responde a unas cualidades específicas relacionadas con su experiencia en el juego. En función de éstas, podemos obtener perfiles de jugador novato, ocasional y jugón. Además, Aarseth añade otras categorías como el género de juego, la base teórica, la motivación y los distintos estratos de vinculación que permite el análisis de juegos. El perfil que debería encarnar el analista de videojuegos es sin duda el de explorador. Los otros persiguen metas que se alejan del interés cognitivo primero. Esta elección puede proyectarse al perfil de usuario-investigador del Entorno Aumentado. Resulta interesante el quinto perfil de comportamiento aportado por Aarseth: el tramposo, el que se salta las reglas del juego. Aarseth critica la tentación por parte del investigador de usar guías de trucos o walkthrough que ahorren tiempo de dedicación al juego. Por un lado, la postura de conocer más y mejor el juego con ayuda de los walkthrough propone un conocimiento más profundo del mundo del juego y de la trama. Por otro, la apuesta por vivir una verdadera experiencia lúdica no contaminada por agentes externos, garantiza un análisis de la jugabilidad más certero. ¿Cuál de los dos caminos seguir? En esta investigación se propone elegir en cada caso la vía más cercana al análisis arquitectónico. El perfil de jugador que barajan los diseñadores de videojuegos ha cambiado con el tiempo. En la actualidad, ya no se guía al jugador por la escena digital de manera literal, si no que se utilizan sistemas de códigos más sofisticados, como el uso del color o la direccionalidad de escenarios, en perjuicio de la señalética o de los mensajes textuales de ayuda que orientaban al jugador al lugar deseado por el diseñador. Este modelo de comportamiento humano en entornos virtuales, ¿se puede reproducir en entornos físicos? ¿y en entornos aumentados? El usuario del Entorno Aumentado se enfrenta a interacciones con dispositivos sensibles, su comportamiento induce acciones que los activan. La figura del mediador resuelve pautas de conducta no contempladas en el diseño de escenarios interactivos. Pensemos en una sala de un museo donde se presupone que el visitante ha de acudir a un cierto punto señalado desde el cual se activa de forma automática un dispositivo, y finalmente no lo hace. Las experiencias en técnicas de orientación empleadas en los escenarios virtuales de los videojuegos proponen alternativas a considerar en la construcción del Entorno Aumentado. La visión del paisaje aumentado urbano propuesta por expertos como Keiichi Matsuda va unida a una sobre información textual característica de la capa digital (lo que vería un ciudadano que paseara por el centro de una ciudad vistiendo unas gafas digitales). Tal vez, la experiencia del videojuego sirva para replantear o al menos explorar nuevas formas de organización de la información 93 digital geo-referenciada. La percepción de la capa digital que compone el paisaje aumentado derivada de la multiplicación dimensional del lugar obliga a una reflexión profunda de la jerarquía informacional que la futura ciudad pueda ofrecer al ciudadano. 2.3.2.4. Metodologías de análisis del videojuego. Una propuesta metodológica para el análisis del Entorno Aumentado. El modo de acomodar la información digital que poco a poco comienza a modelar las ciudades del Entorno Aumentado implica estructurar la interacción del ciudadano para que su contacto con la capa digital sea intuitivo y eficaz. Esta labor que cuenta con más de cincuenta años de duración en el campo del videojuego, se encuentra en el Entorno Aumentado en una fase apenas iniciática. Las propuestas de los investigadores particulares, los artistas interesados en la fusión físico-digital, las empresas vinculadas a las TIC o el posicionamiento estratégico y reparto de competencias entre las administraciones respecto al diseño del planeamiento urbano de las Smart Cities son síntomas del proceso de construcción del Entorno Aumentado. Esta investigación llama la atención sobre la necesidad de una metodología de análisis que, desde la perspectiva de lo arquitectónico, explore la integración de la capa digital en el Entorno Físico. Con esta intención, la mirada se pone en la búsqueda de sinergias transdisciplinares entre lo arquitectónico y el Entorno Digital, entre lo arquitectónico y el género del videojuego, tomando éste como paradigma arquitectónico del tratamiento digital que implica el Entorno Aumentado. Una de las hipótesis que se propone versa sobre el tipo de espacio que puede albergar un lugar aumentado por la capa digital. En este sentido, la incorporación al Entorno Aumentado de la experiencia que el género del videojuego acumula sobre escenarios y mundos virtuales parece premonitoria o al menos digna de ser tenida en cuenta. A pesar de la reciente profusión literaria de metodologías de análisis de videojuegos, son escasas las aproximaciones metodológicas que abordan con rigor el estudio de los videojuegos desde un enfoque arquitectónico, entendiendo por metodología no sólo la extracción analítica que el investigador efectúa en el videojuego sino también el diseño del protocolo analítico del modus operandi. El interés académico por los videojuegos aparece mucho más tarde que la entrada en escena de los críticos o que las publicaciones de literatura a nivel de usuario o desde la propia industria. Algunos datan el comienzo de tal despertar académico en los albores del s.XXI (Aarseth, óp.cit., 2001). El corpus teórico metodológico cuenta con contribuciones que aportan un enfoque diverso. La metodología lineal de análisis de videojuegos significada en las siete capas del método de Lars Konzack (2002) distingue ‘siete capas distintas en el juego de ordenador: hardware, código de programa, funcionalidad, jugabilidad, significado, referencialidad y sociocultura. Cada una de estas capas debe analizarse individualmente, pero un análisis entero de cualquier juego de ordenador debe realizarse desde cualquier ángulo. De ese modo analizamos las perspectivas técnicas, estéticas y socioculturales’. Por su parte, Aarseth (2007) señala tres dimensiones que caracterizan a cada juego en los entornos virtuales: la jugabilidad (las acciones, estrategias y motivaciones de los jugadores); la estructura del juego (las reglas del juego, incluidas las reglas de simulación); y el mundo del juego (contenido de ficción, diseño de topología/niveles, 94 texturas, etc.). Por otro lado, la metodología textual de Mía Consalvo y Nathan Dutton (2007) propone un protocolo de análisis del mensaje comunicado por el videojuego. Todas ellas son indagaciones certeras desde otros puntos de vista disciplinarios que tratan de sistematizar la atención metodológica hacia este producto lúdico. El fenómeno videojuego, al igual que el planeamiento urbano u otras materias que abarcan un compendio complejo de saberes, necesita integrar a menudo muchos y muy diferentes oficios para generar una propuesta con un alto índice eficacia en la figuración de esa amalgama heterogénea. El profesor de ‘estudios de videojuegos’ Espen Aarseth aduce como razón primera de este carácter heterogéneo la intención de todo videojuego de convertirse en una simulación94 de la realidad, anhelo que convierte su proceso proyectual en una creación de naturaleza generalista. La definición de una metodología que pretenda el diseño de un protocolo descriptor del fundamento arquitectónico del videojuego deberá contar con métodos parciales que exploren las áreas concretas que construyen el formato. Dichas áreas no dejan de tener cierta similitud con las categorías de los saberes de la arquitectura ‘real’. Tal vez el análisis del proceso apuntado por los desarrolladores de videojuegos ayude en la confección de la metodología. Los desarrolladores constituyen un estrato importante de la cadena de producción de la industria. La IGDA (International Game Developers Association) propone un curriculum académico a implementar en las universidades con las siguientes categorías: 1. Diseño sonoro, un área descuidada durante muchos años y que actualmente gana en importancia. Todavía no está equiparada al área visual pero es un campo a explorar y mejorar. 2. Diseño –narrativa interactiva, escritura y guión-, es la profesión más deseada y la más creativa, aunque cada vez se va especializando más. Se encarga de la gestación del proyecto. 3. Producción, incluye a los tester o probadores de juegos. 4. Programación, los desarrolladores del código. 5. Artes Visuales, trabajo creativo que mezcla técnicas tradicionales y digitales. 6. Negocio y marketing. La clasificación que la IGDA hace del videojuego puede tomarse como base estructural sobre la cual desarrollar una metodología arquitectónica de análisis del videojuego. Materias técnicas como la acústica, el cálculo del comportamiento estructural de elementos figurativos, el trabajo de artes visuales o de diseño, o las disciplinas humanísticas vinculadas al análisis de imágenes como la retórica arquitectónica y la estética, la historia de la arquitectura o incluso el proceso proyectual creativo propio del arquitecto tienen cabida en los puntos de esta clasificación. Queda pues apuntada una vía de investigación que aunque excede del alcance de esta tesis, será seguro recorrida en otros foros por el autor. 94 Alan Turin, matemático inglés que intervino en la concepción teórica del computador -10 años antes de su invención práctica-, publicó en 1936 un artículo donde teorizaba la descripción de un autómata abstracto capaz de efectuar casi todos los cálculos inimaginables. En función de este principio de universalidad, un ordenador puede reproducir la mayoría de otros fenómenos. Sirva esta analogía para reflexionar sobre el videojuego universal. 95 2.3.2.5. Conquista de la dimensión dinámica en la escena digital del videojuego. Tras los pasos de Lara Croft. ‘Así comienza el espacio, solamente con palabras, con signos trazados sobre la página blanca. Describir el espacio: nombrarlo, trazarlo,..etc.’ Georges Perec, Especies de espacios. El videojuego incorpora los adelantos tecnológicos de hardware y software, pero también se sirve de otros instrumentos del proyecto creativo que han permitido conquistar estadios cenestésicos y cinestésicos95 más y más evolucionados. En un símil con la pintura, estaríamos refiriéndonos a mejoras en la técnica pictórica – de origen químico, óptico, geométrico,…etc.- o a nuevos planteamientos que, por ejemplo, revisen la manera del pintor de enfrentar el lienzo – expresionismo, cubismo,…etc.-. Sendas posibilidades no solo no son excluyentes sino que a menudo se complementan. La evolución en la representación del espacio virtual desde el afán figurativo96 de simular la realidad no ha sido debida tanto a los avances técnicos que matizan el dibujo de la envolvente de esos lugares digitales como a la conquista de un mayor número de grados de libertad de movimiento en recorrer ese escenario simulado. La figuración del ciberespacio ha transgredido la cuarta pared. Los sistemas digitales geo-referenciados permiten una interacción hombremáquina de un modo que el espacio físico -con sus cualidades arquitectónicas- quede conectado in situ con la capa digital. Imagine el lector que se encuentra delante de la pantalla de una consola de videojuegos y por un momento desaparecen las texturas que ‘visten’ las superficies por las que hacemos transcurrir a nuestros personajes avatares97. El resultado de esta simplificación es la representación de una trama alámbrica sobre el fondo neutro de la pantalla98. Esta forma de representación gráfica se empleó en muchos de los primeros 95 Véase definición de cenestesia y cinestesia en el Glosario. 96 Véase imagen figurativa en el Glosario. 97 Conviene recordar que el proceso de desmaterialización de la forma aconteció en la historia de la arquitectura cuando las vanguardias comenzaron a distanciarse de los movimientos románticos del s.XIX, tratando de buscar una interpretación de la naturaleza en base a un código alejado de la cualidad figurativa que ésta ostenta. Actualmente, la retórica gráfica arquitectónica acumula fotomontajes o renders con ‘motivos sombreados’ multiflorales, texturas de materiales constructivos, tipografías de líneas ondulantes o de ‘punto de cruz’, iconografías que recuerdan procesos y objetos artesanales, o evocadoras de oficios. Frente a la síntesis minimalista jaleada en años anteriores, cercanos al fin de la Revolución Digital, parece que cierta tendencia sugiere la puesta en valor de lo artesanal. 98 En The Matrix (Larry y Andy Wachowski 1999), Orfeo muestra a Neo el verdadero aspecto de la realidad líquida cuyo fin es conformar una escenografía de ficción. 96 videojuegos, cuando la técnica que permitía simular el movimiento en estos espacios era aún muy torpe. Battlezone99 (Atari 1980) puede considerarse el primer videojuego de realidad virtual, muy popular durante años. El juego proponía gráficos vectoriales en lugar de tramas sobre un plano horizontal en blanco y negro CRT -el verde y el rojo se superponían-. Una desmaterialización análoga tiene lugar en el largometraje Dogville (Lars von Trier, 2003), en la cual la representación del guión se acompañó de una puesta en escena prácticamente liberada de escenografía. La acción tenía lugar en un pueblo del lejano oeste que se mostraba tan sólo con el trazado de los muros de sus casas en la calle (fig.2). Lars von Trier prescindió casi por completo del soporte escenográfico, apostando por una interpretación del guión casi desnuda acompañada por una retórica fundamentada en los actores y en el texto. Este ejercicio de desnudez se ha producido también en la disciplina arquitectónica. En el artículo ‘The New Brutalism’, Alison y Peter Smithson (1955), en una apología de la condición ética de la arquitectura, declararon su escaso interés en la materialidad de sus proyectos: ‘(…) nosotros no hacemos edificios, quiero decir hay una diferencia fundamental. Lo que nosotros hacemos es algo para hacer con ello, podrías llamarlo crudamente espacio, pero no es un edificio. Es algo que es parte de la ciudad. Nosotros no hacemos edificios...lo cual resulta extraño decir de un arquitecto.’ Los Smithson entendían el edificio como un contenedor de flujos que optimizaba las interacciones entre sus usuarios, en una suerte de nodo de intercambio de la información individual y colectiva. Por ello, el diseño de las circulaciones que habilitaban el uso del edificio suponía un aspecto de vital importancia en sus proyectos. Su testimonio recobra vigencia en relación a la situación contemporánea que alienta la dislocación de los límites100 dicotómicos derivada de la emergencia del Entorno Aumentado. La vivienda ya no es un lugar limitado por un cerramiento constructivo infranqueable, sino una identidad abstracta que actúa de interfaz de todos los canales de comunicación real y virtual que dispone el individuo. La siguiente etapa de este proceso desmaterializador del escenario digital señala al simbolismo como estrategia retórica para representar la interfaz donde tiene lugar la acción. Muy utilizado en los primeros videojuegos, como en el caso del Pong101 (1972), el empleo de píxeles102 para dibujar imágenes que representaban objetos con una carga simbólica capaz de articular metáforas que relacionaban el juego con el mundo real. Sin el uso de estas metáforas (‘amigo’, ‘peligro’, ‘fuego’,...etc.) la práctica del juego podía ser ambigua y confusa para el jugador. Un ejemplo de aventura gráfica con gran apoyo de información textual fue Lords of Midnight, 99 El éxito abrumador del videojuego fue tal que su autor Ed Rotber recibió un encargo inesperado del ejército estadounidense para que elaborara una versión más realista que pudiera ser utilizada para entrenar soldados (Laing 2011). Véase fig.1, p. 98. 100 Véase Cap. IV, p.338, La disolución del entorno dicotómico. 101 Pong, 1972, Atari. 102 Véase en el Glosario la definición de Píxel. 97 desarrollado en 1984 por Mike Singleton (fig.3) permitía al jugador dibujar su entorno próximo desde su propia perspectiva. Fig.1. Battlezone, 1980. Ed Rotberg para Atari. Fig.2. Dogville,103 2003. Dirigida por Lars von Trier y protagonizada por Nicole Kidman. Fig.3. Lords of midnight, 1984. Mike Singleton. En este análisis gráfico del ámbito donde sucede la acción, la capacidad de la interfaz gráfica de usuario GUI para habilitar desplazamientos virtuales resulta determinante para comprender la evolución del videojuego. Los primitivos videojuegos basados en el uso exclusivo de la narración no habilitaban movimiento alguno. Tal es el caso de Dungeons&Dragons (1974). Más tarde se dio paso a juegos que proponían movimiento en dos dimensiones, en dos ejes. Pac Man (1980) y Asteroids (1979) hicieron desaparecer objetos en un lado de la pantalla para inmediatamente aparecer en el otro, logrando la impresión de que el espacio de juego era continuo. Trucos parecidos a éstos se emplearon en algunos juegos de plataformas para simular movimientos que la técnica todavía no podía integrar en el código. El punto de inflexión en la conquista del movimiento en el ciberespacio tuvo lugar al franquear la cuarta pared o pantalla, al conectar súbitamente la arquitectura de las dos realidades. Si llegamos a desestimar la dimensión gráfica para configurar el espacio digital, estaremos obligados a emplear el texto como único recurso para lograr la inmersión del jugador en el videojuego. El atributo narrativo de la arquitectura y la propia identificación de ésta con un lenguaje (Robert Venturi dixit) es un recurso empleado para comunicar un mensaje al usuario, tanto de la realidad física como en de la realidad alternativa. La adecuación sintáctica y semántica del texto –fonotexto vs genotexto- a las intenciones del diseñador de videojuegos o del arquitecto será el fundamento de esas representaciones espaciales que propicien la acción. La posibilidad que ofrece la dimensión inmaterial digital, sin gravedad, en su convergencia con el entorno tradicional, abre las puertas a un proceso de colonización parásita. Penetrar, prolongar o disolver el lugar material arquitectónico y la amplitud espacial que éste propone mediante la intromisión de la capa digital son operaciones topológicas que el entorno digital ejecuta asiduamente. Estas nuevas condiciones geométricas del lugar tradicional pueden tomarse como uno de los campos de experimentación del Entorno Aumentado. La conjetura alternativa sobre otra realidad comienza a tomar forma. El catálogo de las ciudades imaginadas Hiperbórea, Lemuria, Agarthe,…etc.- se digitaliza para incorporar las propuestas visionarias de los holandeses MRVDV desarrolladas en los proyectos Skycar City y Space Fighter, the 103 La escena muestra una vista aérea del trazado del pueblo a partir de la cual se sucede un movimiento de la cámara en zoom hasta un primer plano de la casa de Thomas Edison. Fuente: < http://www.youtube.com/watch?v=SItQ4MZc_Qw>. (Consultada el 20 de septiembre de 2013). 98 Evolutionary City104. Sendas experiencias en el ámbito del desarrollo urbano de ficción bien pudieran haberse presentado en formato de videojuego. El proyecto arquitectónico a menudo se plantea desde campos hasta ahora ajenos a la disciplina arquitectónica. El videojuego es un formato cada vez más y mejor utilizado como herramienta proyectual. Cronología cinética del lugar digital en el videojuego. Una visión comparada con el espacio arquitectónico. ‘Más y más rápido: mejores gráficos y acción más rápida; tan rápido trasciendes la barrera de la gravedad, tan vívido que es más real que la real’. Charles Bernstein (2003: 155). Konzack toma esta elocuente afirmación de Charles Bernstein (2003: 155) para explicar el vínculo inexorable que existe entre la vanguardia tecnológica y el videojuego. El desarrollo del movimiento digital está ligado al avance de las nuevas tecnologías. El videojuego pasó por etapas similares al cine. La conquista del color y la conquista del sonido se produjeron en etapas tempranas, pero la conquista del movimiento interactivo ha recorrido un camino mucho más largo y se mantiene viva en la actualidad. La expresión gráfica de la representación del lugar digital y la interacción que se produce entre ésta y el jugador constituye una circunstancia abordada por técnicos pero también por expertos en la comprensión espacial como arquitectos, escultores y otros oficios implicados en la habitación del espacio. La experiencia histórica de las bellas artes y de la arquitectura constata que desde imágenes estáticas se puede incitar o incluso llegar a simular movimiento. Como ya se ha observado con anterioridad, en una analogía con la historia del arte podría afirmarse que la expresión de la representación del espacio digital del videojuego ha evolucionado desde los primeros grafos en las cavernas hasta la disolución total de la representación figurativa propinada por el cubismo, simbolismo, expresionismo abstracto u otras tendencias plásticas. La manera de mostrar al jugador el camino a seguir en la escena ha experimentado también importantes cambios. El uso inteligente del color, la disposición correcta del orden geométrico y del topológico, la jerarquía apropiada de los elementos que componen la imagen o la significación del punctum, constituyen técnicas audiovisuales y herramientas retóricas que el diseñador emplea para inducir conductas deseadas en el jugador. Muchos videojuegos que buscan la simulación de un escenario real se ven abocados a emplear iconografía impropia, lo que disminuye la capacidad de inmersión que el jugador experimenta. Tintoretto no recurría a señalar con flechas los lugares más importantes de sus lienzos de gran formato para asegurarse atraer la mirada del observador. La técnica de su pincel le permitía llamar la atención del espectador hacia donde le conviniera. A las figuras retóricas empleadas por el veneciano, cabría 104 MVRDV-UWM (2007) Skycar City, Barcelona, New York: Actar; MVRDV-DSD (2006) Space Fighter, the evolutionary city, Barcelona, New York: Actar. 99 añadir también el empleo del claroscuro para acentuar volúmenes o la consideración en la composición del lienzo la posición que ha de ocupar el espectador105. El dominio el movimiento en el lugar ciberespacial supone la conquista del control que opera la interaccion hombremáquina. Desde la invención de la computadora, el ser humano ha ido inventando algoritmos que permiten introducir en la máquina la capacidad de movimiento que le es propia a nuestra especie. El análisis de esta capacidad dinámica se antoja imprescindible para explorar su capacidad de ubicar. A pesar de emplear recursos como la abstracción u otras técnicas audiovisuales, el fin último no es ni siquiera la representación del entorno físico, entendiendo el término re-presentación como el acto que supone dotar de nueva presencia a un tercero mediante recursos audiovisuales. La evolución de la tecnología conduce a los investigadores y a los desarrolladores de videojuegos hacia un propósito más complejo: la simulación. R.E. Shannon (1976) define ‘simulación’ como ‘el proceso de diseñar un modelo de un sistema real y llevar a término experiencias con él’. Se trata por tanto del diseño de un modelo, un sistema que habilite procesos dinámicos e interactivos alejados del carácter estático que caracteriza a la representación gráfica. Sostiene Shannon que el representante está obligado a vincular la representación con un momento concreto de la existencia de lo representado. Por el contrario, en la simulación el tiempo es reversible y manipulable. Fig.4. Types of possible camera movements, 2008. Michael Nitche La correlación entre espacio y tiempo dimensiona y condiciona el tipo de movimiento efectuado en el ámbito digital. La evolución del nivel de interactividad propuesto en los escenarios de los videojuegos puede analizarse desde la capacidad de representación simulada del espacio digital o desde la cantidad y tipo de movimientos permitidos106 (fig.4). Las tres dimensiones en el juego han ocasionado la aparición de dimensiones adicionales como el tiempo, el clima,...etc. Con la ayuda de Internet, el espacio que contaba una historia se ha convertido en un espacio que las acciones de otros jugadores pueden alterar, lo que dota al juego de un gran realismo. Se presenta 105 De manera similar a lo sucedido en la anamorfosis. En mecánica newtoniana se define la cantidad de movimiento lineal como el producto de la masa por la velocidad. En el ciberespacio el átomo resulta sustituido por el bit. 106 100 a continuación una descripción de la evolución del lugar digital atendiendo a su capacidad de generar o asimilar el movimiento operado por el usuario. a. Espacio textual Joseph Wiezenbaum, profesor de informática del MIT, creó en 1966 un programa de procesado del lenguaje en el que se podía mantener una conversación con la computadora gracias a un dispositivo de teletipo conectado en tiempo real a una de las primeras redes informáticas. El resultado fue un personaje llamado ELIZA que da nombre al programa de computación y representa el interés generalizado de esa época en crear una inteligencia artificial. ELIZA era capaz de entablar una conversación coherente con el usuario a modo de terapia psicológica. La rutina del programa se fundamentaba en los principios desarrollados por el psicólogo Carl Rogers: ‘empatizar con el individuo para que se sienta escuchado’. Se empleaban tres tipos de respuestas: frases hechas, a partir de las palabras claves que detectaba en la intervención del usuario; frases de continuidad, en caso de no hallar palabras clave; y frases empáticas del tipo ‘Háblame más de eso’. ‘Men are all alike. IN WHAT WAY? They’re always bugging us about something or other. CAN YOU THINK OF A SPECIFIC EXAMPLE? Well, my boyfriend made me come here. YOUR BOYFRIEND MADE YOU COME HERE He says I’m depressed much of the time. I AM SORRY TO HEAR YOU ARE DEPRESSED It’s true. I am unhappy DO YOU THINK COMING HERE WILL HELP YOU NOT TO BE UNHAPPY? I need some help, that much seems certain. WHAT WOULD IT MEAN TO YOU IF YOU GOT SOME HELP? Perhaps I could learn to get along with my mother. TELL ME MORE ABOUT YOUR FAMILY My mother takes care of me’ Eliza, funcionó en el MAC del MIT a mediados de los sesenta. (En mayúsculas las respuestas de la computadora). Eliza y otras propuestas posteriores consiguieron una inmersión espacial en el dominio digital mediante el empleo del texto como único recurso retórico, sin dimensión gráfica alguna. Tras Eliza, surgieron experimentos similares que tomaban la computación como una incubadora de inteligencia artificial donde el jugador sólo tenía que leer el texto y conversar con la máquina. El siguiente paso implicó interpretar un texto interactivo, navegando con el teclado por mapas imaginarios, como en el caso de The Oregon Train (1971) o Déjà Vu (1985). Fueron muy populares los juegos de 'elige tu propia aventura', como el caso del Dungeons&Dragons (1974). Este género resultaba idóneo para el formato de videojuego, o más bien librojuego, pues incorporaba al texto una condición interactiva que dependía de la decisión del lector-jugador. La configuración espacial con ausencia de representación figurativa inducía a éste a evocar lugares 101 y paisajes imaginados. El simbolismo enseguida entró a formar parte de la retórica del juego. Las representaciones simbólicas recuerdan a las pinturas rupestres que el ser humano prehistórico pintó en la superficie de las cavernas. Se sabe por ejemplo que dibujaban animales con una extremidad añadida para representar el movimiento. Aquella amplitud cavernosa tomaba un cariz doméstico gracias al potencial figurativo del simbolismo. La topología de algunos géneros del videojuego, como el personal shooter, recrea escenarios cuya geometría involutiva de espacio gusano -acuñado por Abraham Moles- ayudan a sobrellevar la acción y la orientación del jugador. b. Espacio 2D b.1. Espacio 2D hermético. El primer estadio en la evolución de la grafía del espacio digital propuesto por el género del videojuego corresponde al espacio 2D o de dos dimensiones. Dentro de la bidimensionalidad cabe señalar como pionero el espacio 2D hermético o representación de un ámbito estático que se agota con el plano fijo de la escena que aparece en la pantalla. No se producía concatenación alguna de pantallas, ni se permitía ningún movimiento ni acción que transgrediera ese plano fijo. Las primeras representaciones gráficas de escenarios virtuales empleaban píxeles para simular objetos con gran simbolismo y metáforas que relacionaban el juego con el mundo real. Sin el uso de las metáforas ‘amigo’, ‘peligro’, ‘fuego’,...etc., jugar podía ser ambiguo y confuso. Pong (1972), Combat (1977) o Space Invaders (1978) planteaban escenas con una movilidad que no excedía de los límites de la pantalla. En ese momento, aún no se habían desarrollado mecanismos que simularan otros tipos de movimiento. La geografía del juego constituía una sucesión de pantallas sin otra conexión que el guión o el argumento del videojuego. La abstracción de los conceptos planteados en aquellos ámbitos bidimensionales, obligada por la precariedad técnica del momento, construyó una estética pionera. El pixelado de la imagen, heredero de esa época pretérita, resulta aplicado como estrategia estructural traslada al proyecto de arquitectura. La geometrización de la traza del proyecto desencadenó la emergencia de propuestas como por ejemplo La Plaza Desierto de Barakaldo del arquitecto Eduardo Arroyo, donde se dispuso una rejilla de píxeles para organizar la intervención en el paisaje. El pixelado como un lenguaje que pauta a su vez un código estético, y algunas veces operativo como matriz informacional, define la piel de no pocos edificios contemporáneos. b.2. Espacio enrollado (Wraparound space). El wraparound space, o espacio que se enrolla sobre sí mismo, introdujo elementos que procuraban la sensación de continuidad en el transcurso de las pantallas del espacio 2D hermético. La interfaz gráfica de estos juegos permitía hacer desaparecer objetos del límite de la pantalla solamente para aparecer en el lado opuesto, dando la impresión de que el juego era continuo. Este hecho permitía al subconsciente del jugador extrapolar y viajar a través del espacio invisible. Tal es el caso de Asteroids (1979) o Pac Man (1980), que presentaban una representación de la escena en alzado frontal y en planta respectivamente. Este ‘truco’ para convertir en circular una trayectoria lineal ha sido empleado mucho antes en el espacio físico de la arquitectura. Una de las ocasiones más notables tuvo lugar en las iglesias de peregrinación del 102 Camino de Santiago, donde la necesidad de trazar una circulación eficaz que garantizara el acceso y la evacuación de los fieles llevó a romper la linealidad del fondo de saco de las plantas basilicales románicas mediante la inserción de una articulación circular o girola en la cabecera de la planta. b.3. Espacio apilado. La simulación de plataformas o apilamiento de espacios diferentes supuso otro avance a implementar en los primeros gráficos bidimensionales. Miner 2049er (1982) o Donkey Kong (1981) sistematizaban sus gráficos mediante una sección donde quedaba registrada la proyección de los forjados donde se apoyaban los personajes. La comunicación entre estos planos paralelos a menudo se resolvía con escaleras. El apilamiento de forjados, roto tan solo por elementos de circulación vertical, responde a un esquema básico de la arquitectura tradicional discontínua. Este hecho será superado a principios del sigl XX con la formulación del Raumplan por Adolf Loos. b.4. Espacio trampantojo. El tránsito de los gráficos que permitían el movimiento en dos dimensiones a otras propuestas que incorporaban el espacio perspectivo con una profundidad de campo ‘habitable’ estuvo precedido por la simulación de las tres dimensiones mediante geometrías planas (falsas) que insinuaban representaciones tridimensionales, de modo similar a como opera la técnica del trampantojo en elementos arquitectónicos, por ejemplo en las fachadas. Q*Bert (1982) contenía entre sus gráficos una pirámide construida con módulos cúbicos que recreaba esa sensación de profundidad. Otros videojuegos como Little Computer People (1985) planteaban sus escenas en secciones fugadas. Si bien resolvían la profundidad con acoplamientos perspectivos ciertamente torpes en algunos de sus componentes figurativos, es cierto que conseguían ese plus de profundidad. b.5. Simulación de la perspectiva central. La simulación del espacio resuelto mediante la perspectiva cónica, con el punto de fuga situado en el eje vertical de simetría de la pantalla, fue muy utilizada en videojuegos como Battlezone (1980) para simular espacios exteriores. b.6. Espacios desarrollados en torno a un eje (Scroll space). La conquista de la continuidad ciberespacial tuvo un punto de inflexión en este tipo de escenarios, donde se daba la impresión de permitir un movimiento continuo en un espacio de dos dimensiones donde el jugador podía avanzar ininterrumpidamente a través de la sucesión de pantallas. El eje del movimiento podía ser vertical u horizontal. La perspectiva estaba centrada en el personaje. El scroll horizontal fue muy común en los juegos de arcade de los 70 y 80, donde el protagonista debía lograr el avance de izquierda a derecha superando las pruebas oportunas. Junto a Kung-Fu Master (1984) y Ghost’n Goblings (1985), uno de los referentes de scroll horizontal es Super Mario Bros (1985), del japonés Shigeru Miyamoto, videojuego de 103 plataformas que marcó un auténtico hito en la industria. El scroll vertical fue menos común pero encontramos ejemplos muy conocidos como 1942 (1984) o Commando (1985). b.7. Espacio desarrollado en torno a dos ejes. Este tipo cinético aporta el movimiento en el eje 'x' e 'y' sobre un plano de dos dimensiones. Es el resultado de la combinación de un scroll horizontal y otro vertical. El uso de las sombras para dar sensación de profundidad es habitual en la recreación de estos lugares bidimensionales planos, como en los casos de Gaunlet (1985) y Sim City (1989), cuyos escenarios tapizados simulan la profundidad a partir del empleo del color y del contraste cromático. La vista aérea es la elegida habitualmente para esta representación perspetiva. b.8. Espacios adyacentes simultáneos. Esta solución de espacios adyacentes visualizados simultáneamente en una única habitación esgrimía situaciones que requerían de un esfuerzo grande por parte del jugador para creerse el escenario. Los jugadores tenían que imaginar que sus personajes eran ‘invisibles’ a los enemigos localizados en otras habitaciones diferentes a la que él ocupaba. La conexión espacial era operativa para la acción del juego pero no muy lograda en términos de simulación de entornos. Ejemplo de ello son los escenarios propuestos en Berzek (1980). b.9. Espacio multicapa. La acción acontecía en una perspectiva isométrica simulada mediante un fondo denso y profundo. El efecto de profundidad, por ejemplo en Shinobi III (1993), se lograba mediante la gradación del movimiento de las capas del fondo. El solapamiento de figuras que ocupaban diferentes planos para dar la sensación de profundidad fue una estrategia habitual en la pintura anterior al Renacimiento, por ejemplo, la obra del italiano Paolo Uccello. b.10. Espacio tridimensional limitado: el uso de la perspectiva en la escena. Responde a los primeros ejemplos de integración perspectiva parcial en la escena de la acción. c. Espacio 3D c.1.Espacio isométrico 3d. La construcción del movimiento en torno a tres ejes supuso un avance de calado similar al que significó el empleo del modulo tridimensional diseñado por el gran Filipo Brunelleschi para la configuración espacial del Hospital de los Inocentes. El videojuego Paperboy (1984) resultó ser muy popular al proponer ágilmente esta solución para sus gráficos, que se percibían desde una vista aérea del paisaje isométrico. c.2. Espacio 2.5d: un plano horizontal. Este tipo no contemplaba el movimiento en el eje 'x'. Doom (1993) fue el videojuego que puso en práctica las llamadas 2.5 dimensiones, donde el nivel del suelo variaba en altura y los 104 personajes eran mostrados de arriba abajo, aunque la mira del arma que ocupaba el primer plano se mantenía estrictamente horizontal. Si Wolfenstein 3D fue, por decirlo de alguna forma, el creador de este género, Doom asentó las bases para una nueva etapa tipológica en la conquista cinética del lugar digital. Además, encumbró a Id Software como referente de la industria. c.3. Espacio 3d completo: movimiento vertical/horizontal. Es en este tipo de escenario donde se consiguió la libertad plena de movimiento, en torno a los tres ejes de referencia. Quake (1996) significó la clave de tal avance, al ofrecer al jugador una secuencia de la acción que replicaba con garantías el tránsito del peatón a lo largo de los tres ejes. Como se ha visto, la configuración de una continuidad de lugares tuvo su predecesor arquitectónico en Adolf Loos. Rem Koolhas y otros miembros del expresionismo abstracto arquitectónico lograron revolucionar también esta movilidad introduciendo pliegues en la arquitectura que proyectaban, en detrimento del uso de comunicaciones verticales. La Terminal de Yokohama107, obra de FOA (1995), constituye por su trascendencia un claro ejemplo de este tipo espacial continuo. El sistema de circulación del edificio se definió en el momento del concurso como 'una serie de loops en los que las fronteras entre lo dinámico y lo estático han desaparecido’. Una variedad de rutas alternativas intensificarán la experiencia de cruzar el edificio. d. Espacio Aumentado d.1. Espacio aumentado. WII Sports de Nintendo habilitó el primer escenario de juego aumentado, logrado tras la ruptura de la cuarta pared. El controlador WII Remote fue la pieza esencial en la consecución de esta dimensión. A partir de este tipo de escenario se hace operativa la conexión entre el Entorno Físico y el Entorno Digital. d2. Espacio aumentado sin periféricos. Representa aquel espacio de juego donde el jugador opera el videojuego exclusivamente con el movimiento de su cuerpo, sin necesidad de llevar ningún dispositivo electrónico encima. Es el caso pionero de Dancing Stage, también conocido como Dance Dance Revolution o DDR, simulador de baile producido por la compañía japonesa Konami. Actualmente consolas como Kinect construyen espacio aumentado mediante el uso de un escáner 3D convirtiendo el lugar de juego, por ejemplo una habitación, en una interfaz operada por los movimientos del cuerpo del jugador sin necesidad de activar botón alguno. Kinect es un buen ejemplo de tecnología disruptiva. La apertura de su código y su posterior alteración por obra del colectivo hacker ha permitido desarrollos avanzados en campos ajenos al del videojuego108. 107 108 Véase sección cinemática del proyecto en p.218. Véase proyecto Openarch en p.327. 105 a. ESPACIO TEXTUAL The Oregon Trail, 1971. MECC. Déjà Vu, 1985. ICOM Simulations. b.1. ESPACIO HERMÉTICO Pong, 1972. Atari. Combat, 1977. Atari. Space Invaders, 1978. Taito. b.2. ESPACIO ENROLLADO Asteroids, 1979. Atari. Pac-Man, 1980. Namco. b.3. ESPACIO APILADO Miner 2049er, 1982. Big Five Software. Donkey Kong, 1981. Nintendo. b.4. ESPACIO TRANPANTOJO Little Computer People, 1985. Activision. Q*Bert, 1982. (Intellivision part of the orginal game by Davis and Lee) Arcade. b.5. SIMULACIÓN DE PERSPECTIVA CENTRAL Battlezone, 1980. Atari. Stars Wars, 1983. Atari. b.6. ESPACIO DESARROLLADO EN TORNO A UN EJE Super Mario Bros, 1985. Nintendo. b.7. ESPACIO DESARROLLADO EN TORNO A DOS EJES Sim City, 1989. Maxis. Gauntlet, 1985. Atari. b.8. ESPACIOS ADYACENTES SIMULTÁNEOS Berzek, 1980. Stern Electronics. 106 b.9. ESPACIO MULTICAPA Shinobi III, 1993. SEGA. b.10. ESPACIO TRIDIMENSIONAL LIMITADO Klax, 1989. Atari. c.1. ESPACIO ISOMÉTRICO Fairlight,1985. Sinclair Spectrum. Crystal Castles, 1983. Atari. Paperboy, 1984. Atari. c.2. ESPACIO 2.5D Doom, 1993. ID Software. Wolfstein 3D, 1992. ID Software. c.3. ESPACIO 3D COMPLETO Quake, 1996.Id Software. d.1. ESPACIO AUMENTADO. WII Sport, 2006. Nintendo. d.2. ESPACIO AUMENTADO SIN PERIFÉRICOS. Dancing Stage, 1998. Konami. Fig.5.Cronología cinética del lugar digital del videojuego. ¿En qué punto de la conquista del lugar digital nos encontramos en la actualidad? Dispositivos como Kinect recogen con precisión de centímetros el movimiento del cuerpo humano cuando éste no se desplaza. El problema que aún no se ha resuelto es el movimiento en dirección perpendicular a la pantalla, hacia la profundidad de la escena digital. Imaginemos una cueva alargada que pretendemos recorrer de inicio a fin. El movimiento natural del jugador para procurar este desplazamiento digital es el de correr o andar hacia la pantalla. Los sensores que 107 perciben el movimiento de la carrera están condicionados a que el jugador se sitúe en un punto fijo. Las piernas se mueven pero no debe haber desplazamiento real del cuerpo o chocaría con la pantalla. Para neutralizar el movimiento del jugador, el entorno debería generar un desplazamiento inversamente proporcional al que efectúa el propio jugador. Si se opta por la opción mecánica, la solución pasa por suspender al jugador en una esfera que permita el movimiento en los tres ejes. Una esfera que contenga tres diámetros con movimiento independiente unos de otros y que cada uno responda a uno de los tres ejes. Esta solución es realmente aparatosa y costosa si pensamos ubicarla en una vivienda convencional. En los simuladores de vehículos se impide el desplazamiento del cuerpo humano ya que dotan mecánicamente de movimiento a un habitáculo. La evolución de la interfaz en la industria del videojuego continuamente propone nuevas soluciones que aportan una mayor precisión al registro de movimientos y una mayor desmaterialización del hardware que conforma los dispositivos controladores. La narrativa en el videojuego: relato y repetición. El guión de Quake impreso en el libreto de instrucciones que acompaña al disco del juego es breve y extremadamente elemental. Invariablemente, en estos añadidos de atrezzo el texto se dirige directamente al lector-jugador, el cual se constituye en el protagonista de la acción del juego: ‘Recibes la llamada de teléfono a las 4 am', tu formidable reputación ha hecho que se te convoque a una instalación militar secreta en la que se experimenta con un dispositivo de transporte instantáneo. El pernicioso ejército de un enemigo extraterrestre, cuyo nombre en clave es Quake y que proviene de otra dimensión, se está infiltrando en esta instalación. Se te encarga la tarea de encontrarlo y detenerlo. Pero mientras estás fuera realizando un reconocimiento, los escuadrones de la muerte de Quake aniquilan a todos tus hombres. Ahora estás tú solo contra ellos.’ Resulta obvio que la historia de fondo se ofrece como justificación para el material del propio juego: una ficción que plantea un guión ilustrador de la representación gráfica y de los acontecimientos con los que uno se encuentra en el juego. Al final de un período de juego, independientemente de lo que haya durado o de cómo haya terminado con el jugador eliminado o 'guardando' la partida, resulta posible relatar lo que ha ocurrido hasta el momento, cabe contar alguna clase de historia. En este sentido, un juego del género Quake –y esto se aplica a la mayoría de los juegos- posee la capacidad de generar muchas historias de este tipo, muchos relatos retrospectivos, en su mayor parte similares aunque asimismo algunos diferentes, de lo que ocurrió en cada nueva partida. Los trabajos de Paul Ricoeur sobre los problemas de la configuración y la reconfiguración del tiempo por la narración, en particular su análisis de la distinción entre narración histórica y 108 narración de ficción (literaria), aportan luz sobre el papel de la narración en los nuevos géneros interactivos. El guión de un videojuego no tiene por qué condicionar la expresión gráfica. Habitualmente la narrativa pasa a un segundo plano, quedando prácticamente olvidada. Guiones simples, reiterativos, estándares repetidos hasta la saciedad pueden generar lugares digitales de gran calidad plástica. Este fenómeno es réplica de otro acontecido en la pintura. Las ‘últimas cenas’, las ‘naturalezas muertas’ o el género del retrato han supuesto una tipificación de la obra y la constitución de unos estándares muy demandados por el gran público. Es evidente que la retórica narrativa mejora el videojuego: ‘cuanto más se parece la narrativa del videojuego a la de las películas o a la de los libros, mejor es el videojuego’ (Konzack 2006). Cauces inmersivos desde el referente de lo arquitectónico. Poética de la inmersión en el Entorno Aumentado. ¿Qué es la inmersión? ¿Es ésta exclusiva de la realidad virtual o se produce también fuera del ámbito digital? ¿Qué cauces inmersivos corresponden a lo arquitectónico? La immersĭo o inmersionis es ‘la acción de introducir o introducirse algo en un fluido109’. Habitualmente se encuentra en la literatura la metáfora de la inmersión en una piscina para explicar el significado de la inmersión en un videojuego (Murray 1997). El origen latino del término corrobora el acierto de dicha metáfora. Ahora bien, el efecto que provoca una audición musical probablemente se acerca más al estado inmersivo. En una audición de las Variaciones Golderg de Johann Sebastian Bach, la atención primera del espectador recoge la percepción del tema principal o aria que se repite. Las sucesivas variaciones sincopadas que se incorporan a la melodía de manera armónica captan también una segunda cuota de atención del sujeto. A las variaciones subyace el tema como elemento organizador invariable. Un tercer paisaje sonoro abarca la relación polifónica entre las variaciones y el tema principal. Estas tres dimensiones melódicas provocan en el espectador la necesidad fenomenológica de integrar la percepción de las tres dimensiones para obtener una percepción de la pieza lo más íntegra posible. El desdoblamiento de la atención en varios focos de interés hace de la audición de esta pieza un momento realmente inmersivo para el auditorio. Frente a la distorsión uniforme de la realidad producida en la inmersión acuática, la inmersión polifónica compleja propone un paralelismo más cercano a la acción inmersiva acontecida en el videojuego. Esta última no es homogénea sino que se obtiene desde la integración sucesos de origen dispar, como el sonido o la visión. 109 Fuente RAE. 109 Las primeras investigaciones (Murray, óp.cit., 1997) en analizar los nuevos modos de expresión narrativa del ordenador argumentaban que el Entorno Digital es esencialmente procesal, participativo, espacial y enciclopédico. Las dos primeras propiedades se asocian con la interacción; las dos últimas con la inmersión en el ciberespacio, al trasformar éste en ‘explorable’ y ‘extensivo’. Queda aquí enunciada una vía de indagación que si bien puede desarrollarse en el marco de una Poética inmersiva del Entorno Aumentado, excede del corpus limitado de esta tesis. La persuasión arquitectónica en el videojuego. Hacia una retórica topológica. La retórica como disciplina transversal a los distintos campos de conocimiento se nutre de procedimientos estratégicos y tácticos propios de cada materia, que en ocasiones, se pueden hacer extensivos a otros campos de conocimiento. La sistematización del lenguaje –oral o visual- para persuadir proporciona analogías entre el lugar digital y el arquitectónico, ya sea en el campo proyectual de la representación o en el de la arquitectura construida. Las figuras retóricas empleadas en el diseño de videojuegos tratarán de dotarlos de una óptima jugabilidad, posibilitando una interacción intuitiva y sencilla al usuario. Esto es esencial para lograr una inmersión profunda del jugador, que debe asimilar y entender de manera inmediata el lugar digital donde se ubica. La aprehensión del escenario donde se suscita la acción lúdica evita que el jugador se pierda y aunque en ocasiones esto pueda estar pretendido por el diseñador, resulta complejo mantener el nivel de inmersión en el usuario. ¿Qué cualidades debe integrar el lugar digital para que éste funcione de manera óptima desde el punto de vista de lo arquitectónico que confluye en dicho lugar? ¿Tiene sentido plantearse una Retórica del Entorno Aumentado? Los aspectos retóricos del videojuego relacionados con el lugar digital participan del estudio de la narrativa y de la jugabilidad. Sendas áreas forman parte de la retórica estética propuesta por Konzack (2006). A pesar de que el estudio del lugar puede derivar fácilmente en apreciaciones de origen muy diverso, en principio, se dejan a un lado enfoques relacionados con la economía, la psicología, la pedagogía y el género, con el propósito de acotar la retórica exclusivamente al topos digital. Los lugares digitales que proponen los videojuegos han perdido las referencias de la geometría euclidiana en favor de la topología característica el Entorno Aumentado. Conocer las leyes topológicas del lugar supone conocer la estructura relacional de su naturaleza, y por tanto, alcanzar a saber cómo ha de ser diseñado para obtener el efecto que se pretende en la conducta del jugador. Sobre esta base cabría la reflexión acerca de los principios de una Retórica arquitectónica del videojuego y sus posibles implicaciones en la definición de entornos aumentados. 110 Capítulo III Revolución Digital. La impronta digital en lo arquitectónico, una cronología crítica. (EF) 3.1. Arquitectura y trasferencia de la información. Arqueología arquitectónica del edificio mediador 3.2. Presagios de la Revolución Digital 3.2.1. Influencias transdisciplinares. Arquitectura y ficción 3.2.2. Alteraciones cinéticas. Preludio de la simultaneidad y el dinamismo digital 3.3. Revolución Digital en la vanguardia artística. Cartografía de la emergencia cibernética 3.4. Revolución Digital en la práctica arquitectónica, 1945 -1970 3.4.1. Integración conceptual 3.4.1.1. Vía del lenguaje tecnológico 3.4.1.2. Vía del lenguaje retórico 3.4.2. Integración metodológica: proceso vs producto 3.4.3. Integración operativa 3.4.3.1. Computación y arquitectura mediática TIC. La arquitectura como estrategia de comunicación 3.4.3.2. Arquitectura cibernética. La materialización del diagrama 3.4.3.3. Interacción en la arquitectura sistémica del Estructuralismo 3.4.3.4. Del desenlace arquitectónico al patrón generativo 3.5. Postulados y visiones pre-globales, 1970-1998 111 3.1. Arquitectura y trasferencia de la información. Arqueología arquitectónica del edificio mediador. ‘Allí donde la tecnología alcanza su culminación, trasciende a arquitectura’. Ludwig Mies van der Rohe, Mensaje al Illinois Institute of Technology (1950). La evolución de los sistemas de comunicación ha traído consigo la aparición de tipologías arquitectónicas específicas que albergan y permiten la transmisión de la información mediante dispositivos de muy diversa naturaleza. La vinculación de la capa digital al Entorno Físico precisa de la incorporación de esa capacidad comunicativa e informativa al edificio y a la ciudad -si es que hoy sigue vigente la distinción-. El catálogo histórico de construcciones demandadas por las tecnologías de la información y la comunicación (TIC) incluye desde infraestructuras castrenses como el palomar, empleado por los diferentes ejércitos que establecieron la incorporación militar de la colombofilia a principios del XIX y sobre todo en la Primera Guerra Mundial, hasta infraestructuras propias de la ciudad como las estructuras ligeras que dieron respuesta formal a los nuevos métodos de cálculo del ingeniero-arquitecto ruso Vladimir Shukkov. De la mecánica newtoniana a la electrónica digital, un prolífico compendio de instrumentos mediadores ha dejado su impronta en la arquitectura. La ubicación espacial de las TIC en la arquitectura construida ha deparado tipologías singulares y ha traído consigo la adherencia de nuevos espacios no masivos, ajenos a lo edificado, pero de gran trascendencia en el orden del territorio. Estos no-lugares o lugares que reniegan de la masividad construida a favor del espacio hertziano son parte esencial de la historia de la Humanidad, y muy en especial de la del siglo XX y XXI, aunque en muchas ocasiones pasen desapercibidos o sea difícil referirse a ellos dada su ingravidez. El espacio radiofónico, los corredores aéreos de comunicación, el espacio de control del tráfico aéreo y marítimo, las comunicaciones submarinas, las trayectorias orbitales de los satélites…etc., componen geografías de origen TIC que modelan el paisaje y afectan los pueblos que lo habitan, a menudo, desde la ausencia impuesta de construcción. Esta búsqueda arqueológica se ocupa de la trascendencia arquitectónica de las TIC desde los orígenes a la contemporaneidad. Si bien no todos los avances tecnológicos en los campos de la información y la comunicación han afectado directamente a la construcción del edificio, la mayoría de los hallazgos relevantes sí han demandado de la arquitectura una adaptación específica a la nueva función tecnológica. Esta acepción arquitectónica del edificio TIC no ha sido documentada profusamente como sí lo han sido otras: arquitectura museística, religiosa, deportiva, del vino,…etc.-. Entre la literatura consultada para la elaboración de este texto cabe 112 destacar la publicación editada por la Fundación Arte y Tecnología1 ‘Colección HistóricoTecnológica de Telefónica’, junto a la cual tanto la publicación de Hook, D, Norman, J & M, Williams (2002), ‘Origins of Cyberspace: A Library on the History of Computing and Computer-Related Telecommunications’ como la de Norman (2005) ‘From Gutenberg to the Internet: A Sourcebook on the History of Information Technology’ aportan gran valor al registro documental de la evolución de las TIC en su vínculo con la disciplina arquitectónica. La transmisión de información, la comunicación de pensamientos, el conocimiento de la estrategia del enemigo, el envío de mandatos soberanos,…etc, son acciones vinculadas las TIC desde los orígenes del ser humano. La selección natural en la evolución de las especies está asociada a ellas y a tantas otras relacionadas con la posesión y el conocimiento de la información. Tanto la información acumulada en los genes como la asimilada durante la vida se encamina a un solo propósito: la supervivencia. La comunicación de información es inherente al ser humano; su evolución ha significado siempre la evolución de la especie humana. Los sonidos vocales amplificados por el cuerno de un mamífero o el exoesqueleto de un caracol marino o los percutidos sobre un tronco hueco, el tam tam, entre una larga colección de artificios mecánicos, fueron empleados en tiempos pretéritos para poder establecer comunicación. Entre todos ellos destaca el dominio del fuego, que significó la aparición de un nuevo sistema de comunicación que se mantendría hasta bien avanzado el segundo milenio. En el siglo IV a.c., el historiador griego Polibio hacía referencia en sus escritos a las señales de humo que Eneo el Táctico hacía mediante una clepsidra2. Durante la Edad Media las fortificaciones de castillos moros y cristianos fueron testigos del uso de señales de humo para trasmitir mensajes codificados. La ubicación de estos baluartes se disponía siempre en un enclave dominante. El alto de una loma, un risco, una colina, satisfacían los requerimientos militares defensivos a la vez que procuraba intesificar la ‘cobertura’ y eficacia de los dispositivos empleados para una correcta transmisión de ahumadas. Por lo que cuentan las crónicas reales (Villegas 1996), el método de las ahumadas fue utilizado en España y Francia hasta bien entrada la Edad Moderna: 1 Publicación a cargo de Rafael Romero (1994). Ya en la Edad Media, en el año 1405, se comunicaba a Enrique III de Castilla –sito en Castilla- el nacimiento de su hijo Juan en la ciudad de Toro (Zamora) situada a unos 200 km de distancia, por medio de ‘ahumadas’ o señales de humo que se hacían desde montículos, naturales o artificiales, situados sucesivamente (García de Cortázar, 1980). De la velocidad de transmisión de las ahumadas se sabe que entre Valladolid y Toledo, teniendo preparadas buenas resinas y pajas para las hogueras y una buena antorcha para el encendido, un mensaje tardaba dos horas en llegar, lo cual era un gran adelanto frente al método más lento de mensajeros a caballo. Estos sistemas no cambiaron mucho a lo largo de varios siglos, y así p.ej., la presencia de la Armada Invencible española, divisada en Plymouth (Inglaterra), fue señalada por medio de fuegos a Londres, donde la noticia llegó en media hora. (Fernández de Villegas, óp. Cit., 1996). 2 113 ‘Era una época en la que las comunicaciones eran lentas y dependían del estado de los caminos, de la fuerza y la velocidad de los caballos. Este método consiste en transmitir informaciones mediante el uso de señales de humo que se hacían desde montículos, naturales o artificiales, situados sucesivamente, a distancias de no más de 12 Km, y divisables unos de otros. Las noticias se iban sucediendo de una a otra ahumada hasta llegar a su destino, y su mejor cualidad era la velocidad de transmisión, y eso que aún no se contaba con la ayuda de catalejos. Por el sistema de las ahumadas se constituyó una importante red de comunicaciones en España, que enlazaba las principales ciudades del reino. Parece ser, a tenor de las investigaciones históricas, que hubieron unos cinco itinerarios generales que formaban una red que iba desde León hasta Sevilla, pasando por Valladolid y Zaragoza. El ‘centro de comunicaciones’ estaba en Medina del Campo (Valladolid).’ Dos milenios después de la Clepsidra de Tácito, concretamente el 19 de julio de 1794, la Convención Francesa recibió el primer telegrama de la historia. La noticia fue transmitida desde la ciudad de Lille hasta París a través de una línea de telegrafía óptica de 230 kilómetros, montada sobre 22 torres, la última de las cuales estaba ubicada en la cúpula del Louvre (Mazoyer 1902). El sistema de telegrafía óptica, deudor del código de señales en la navegación marítima, fue ideado por el francés Claudde Chappé en 1792 (fig.1). Tanto este sistema como el concebido por Murray en 1794, o el inventado por el español Agustín de Bettancourt y el relojero suizo Bregget, se basaban en un mecanismo articulado de madera o de metal, llamado semáforo (fig.2), instalado en una torre que permitía articular configuraciones diferentes de signos en base a un libro de códigos cuyo significado solo conocía el comandante de la línea. El semáforo de Chappé permitía 196 posiciones diferentes. Fig.1. Código alfabético de Chappé. Fig.2. Torre de telégrafo óptico de Chappé, 1792. Sección por el mecanismo desarrollado para Chappé por el relojero suizo-francés Abraham Louis Bréguet. Fig.3. Mapa de la red francesa de telégrafos ópticos (500 estaciones /5.500 kilómetros), en funcionamiento hasta 1853. 114 Los operadores del telégrafo óptico trabajaban de sol a sol apostados en el interior de las torres, con el rigor climático que esa posición elevada impone. Un rígido protocolo regulaba el proceso. De manera similar a como se ejecutaban las señales náuticas con banderas en la navegación marítima, los telegrafistas quedaban encargados de divisar el código de la torre precedente mediante un catalejo u otro aparato óptico. Las torres solían disponerse cada cincoveinte kilómetros aproximadamente, pero cuando se situaban en ángulo, la visibilidad era mínima. La climatología, la noche y otros factores mermaban la capacidad de comunicación de estos sistemas. El paisaje se pobló paulatinamente de construcciones que habilitaron las primeras líneas de comunicación mediante el telégrafo óptico3 (fig.3). En la actualidad todavía se mantienen en pie numerosas torres, aunque el tiempo ha desvirtuado su estado original. A ojos del viajero inexperto muchas pueden parecer restos de baluartes defensivos y no ruinas de la Internet del siglo XIX. De igual modo que sucede en la Red, también operaban entonces hackers que subvertían ilegalmente el sistema –el telégrafo óptico fue de uso exclusivo por la autoridad civil y militar-. Tal es el caso del Conde de Montecristo en el texto de Alejandro Dumas: el conde soborna a un telegrafista para transmitir un mensaje falso que haría perder una importante suma de dinero a su enemigo el banquero Danglars. Fig.4. Posiciones de los indicadores del telégrafo óptico de Mathé. Ilustración del propio Mathé. Fuente: ‘Del semáforo al satélite’. Fig.5. Torre del sistema de telegrafía óptica de Mathé. Fuente: ‘Del semáforo al satélite’. Fig.6. Telégrafo óptico de Murray y varias de las posibles combinaciones. Fuente: ‘Del semáforo al satélite’. La arquitectura civil de este sistema telegráfico es un claro ejemplo de cómo la arquitectura asume la capacidad mediática de comunicación de información. El objetivo era transmitir un mensaje, igual que lo hacen los faros de la costa o las fachadas mediáticas. La evolución de esta tipología edificatoria ha deparado varios modelos de transmisión, siempre construidos sobre un edificio pódium. El sistema Mathé o el semáforo del telégrafo óptico de Murray (Fig.6) destacaron especialmente entre otros. Este último anticipa una pantalla de seis píxeles, del mismo modo que el ‘raya-punto-raya’ de Morse antecede al código binario computacional inventado por Leibnitz. Estos ingenios técnicos debían salvaguardar la integridad del sistema de comunicaciones y dar cobijo a los telegrafistas. Como tantas veces en la historia, se repite la 3 La velocidad de estos instrumentos era de un símbolo cada veinte segundos (unos dos bits por segundo). 115 asociación simbiótica de espacio doméstico y espacio de trabajo, característico en la Edad Media de los artesanos, y muy frecuente en el tejido urbano anterior al ensanche de las ciudades; aún más frecuente en la ciudad contemporánea del Entorno Aumentado, donde la deslocalización del lugar trabajo y de la casa4 produce continuas hibridaciones programáticas. Entender lo arquitectónico como medio transmisor del mensaje –codificado o no- y a la vez canal de comunicación supone aumentar la interaccion del edificio con el contexto, a menudo la ciudad, añadiendo una capacidad instrumental adicional5 a lo construido. Tal circunstancia tiene lugar en el reloj solar instalado en la fachada del palacio renacentista, en el reloj analógico de la torre del ayuntamiento castellano, en los códigos QR que encriptan la información de la fachada mediática del edificio de oficinas N6 Building (fig.8), en la Torre de los Vientos de Toyo Ito o en la visualización de datos que propone la Estación Meteorológica Oskar von Miller Turm (fig.7), de reciente construcción en Munich a cargo de Deubzer König + Rimmel Arkitecten. Todos ellos, herederos de los baluartes telegráficos del XIX, proponen una arquitectura cambiante capaz de representar flujos dinámicos de información como los que subyacen explícita o implícitamente al dominio digital propio del Entorno Aumentado. Fig.7. Estación Meteorológica Oskar von Miller Turm, 2008. Munich. Deubzer König + Rimmel Arkitecten. Fig.8. Fachada del edificio N y usuario operando el scanner QR desde su terminal móvil. 2005. Tokio. 4 En La disolución del entorno dicotómico, cap. IV, se analizará la influencia de la Revolución Digital en los límites entre el espacio doméstico y en el espacio de trabajo. 5 Véase De la fachada mediática a la membrana aumentada, Cap. IV. 6 El edificio conocido como N Building, localizado cerca de la estación Tachikawa en Tokio, Japón, incorpora a su fachada con un código QR que puede leerse utilizando la cámara del celular. En su versión inicial el código QR del edificio únicamente codificaba la URL de su página web, pero ahora hace uso de la realidad aumentada para mostrar información digital superpuesta a la imagen real del edificio como los tweets escritos por sus inquilinos, información sobre las tiendas que hay en su interior, ofertas y promociones, etc. Fuente: <http://www.apolorama.com/>. 116 A bordo del vapor Sully de regreso a Nueva York, ciudad donde ejercía de retratista, Samuel Morse inventó en 1832 el sistema de telegrafía que lleva su nombre. A principios de 1838, Samuel Morse haría una demostración del telégrafo eléctrico, un sistema de comunicación mucho más eficaz que daría lugar a lo que se ha denominado como la ‘Internet Victoriana’. Esto supuso la paralización de los proyectos de nuevas líneas de telegrafía óptica, así como su obsolescencia y desaparición en toda Europa una década después. El punteo del telégrafo se tradujo con gran simplicidad en puntos y rayas, sistema binario como el digital de ceros y unos. Casi a la par que los trazados del ferrocarril7, el tendido del cable aéreo propio de la comunicación telegráfica cambió el paisaje urbano y suburbano de muchos lugares. Las estaciones de telegrafía se disponían a menudo junto a las estaciones de ferrocarril, configurando una suerte de nodo tecnológico. Aquel paisaje, hasta entonces únicamente cosido por caminos, se preparaba así para asumir los efectos de la primera y segunda etapa de la Revolución Industrial. Personajes como el minucioso telegrafista, con gafitas redondas y delantal, o la ágil telefonista8 pasarán a formar parte de los referentes tópicos del western de acción y de nuestro imaginario colectivo. William Mitchell (1999) recuerda en e-topía la precariedad de la tecnología telegráfica y lo poco económico y lento que resultaba transmitir puntos y líneas en un solo tono, sobre un alambre de hierro: ‘sus limitaciones nos han dejado la palabra ‘telegráfico’ para describir el estilo lacónico y abreviado del discurso textual que engendraba’. La gama de frecuencias necesaria para la retransmisión del habla requería un mayor ancho de banda. Años más tarde, el sistema telefónico utilizaría hilos de cobre para conseguirlo. En un intento de mejorar un ‘telégrafo armónico’ de modo que transmitiera mensajes múltiples por un único hilo y pudiera 7 La primera línea interurbana de ferrocarril se construyó entre Manchester y Liverpool en 1830. 8 Nótese la cuestión de género asociada a los nuevos cargos ligados al desarrollo de las comunicaciones: frente al telegrafista, la telefonista-patinadora. Pérez, Raya & Santos (2011) recuerdan en un excelente post que la tarea de programar el ENIAC fue asignada a seis mujeres expertas computers de la Moore School of Electrical Engineering. Debido al carácter secreto de los cálculos, primero describían las instrucciones para resolver un determinado problema sobre los planos de la máquina, y después accedían a la sala donde estaba instalado el ENIAC para configurarlo. Esta tarea podía requerir días, pero una vez realizada, los cálculos para describir una trayectoria tardaban tan sólo 10 segundos. Las chicas del ENIAC desarrollaron las bases de la programación de la computadora: crearon la primera biblioteca de rutinas y las primeras aplicaciones de software. Olvidadas por muchos años, fueron incluidas en 1997en el Women in Technology International Hall of Fam. Sin duda, el referente de las chicas del ENIAC fue la hija de Lord Byron, Ada Lovelace recordada por ser la primera programadora de la historia –analista, como se definió ella misma-. Destacó por sus notas sobre la máquina analítica de Charles Babbage –que no firmó con su rúbrica por miedo a la censura machista- y desarrolló instrucciones para hacer cálculos en una versión inicial del computador. (Más información en The Bride of Science: Romance, Reason, and Byron's Daughter (Woolley 2002). Sirva esta nota como homenaje a aquella generación pionera. 117 ser utilizado por sordomudos9, Alexander Grahamm Bell (1847-1922) percibió una vibración muy parecida al sonido de una armónica. Esta circunstancia derivó en el invento del teléfono. Desde entonces Alexander Grahamm Bell forma parte de la historia de las telecomunicaciones, y como se verá a continuación, de la arquitectura del siglo XX. Grahamm Bell destacó también en otras materias. Sus estudios sobre las estructuras tridimensionales basadas en la aplicación geométrica del tetraedro, e integrando en la construcción de sus prototipos el concepto de tensegridad10 acuñado años más tarde por Buckminster Fuller, produjeron resultados absolutamente extraordinarios. Bell desarrolló en 1907 estos principios en la construcción de una torre de observación en la isla del Cabo Bretón, Nueva Escocia (Fig.7). Esta línea de investigación será recorrida posteriormente por Shukhov o Fuller. De igual modo, antecesora de la Malla Espacial de Friedman y de las estructuras de Schulza-Fielitz o Watchman, supondría años más tarde un marco arquitectónico (hard-ware) sobre el que incorporar las primeras aplicaciones computacionales (soft-ware). Por ello Christoph Alexander, Cedric Price o el grupo Archigram tienen en Alexander Grahamm Bell a uno de sus auténticos referentes. La instantánea de la figura nº 8 registra el momento en que uno de sus modelos sale volando por un golpe de viento. Este acontecimiento resultaría inspirador para Bell. Acto seguido comenzaría a desarrollar prototipos voladores con esta técnica que tenía en el tetraedro su patrón base, llegando a construir varios modelos de aeroplano (Fig.9). Fig.7.Tetrahedral tower, 1907. Alexander Graham Bell. Cape Breton Island. Fig.8. Bell's Frost King Tetrahedral Kite, 1904. Alexander Graham Bell. Fig.9. Tetrahedral ring,1907. Alexander Graham Bell. La invención del teléfono fue tomada enseguida como un gran avance de la civilación11, en los Estados Unidos y en los países más desarrollados europeos de la época la extensión de está tecnología se produjo con gran aceleración. Supuso la aparición de nuevas necesidades que afectaban a la disciplina arquitectónica. Las compañías requerían una infraestructura que alojara máquinas y empleados. El nuevo avance tecnológico se enarbolaba como estandarte de las compañías telefónicas y de otras administraciones provinciales y nacionales. 9 Incluyendo en este colectivo al gran amor de su vida. 10 Del inglés, tensigrity. 11 Véase fig.14. 118 Empleando un modelo patentado cinco décadas atrás por Grahamm Bell, el monarca Alfonso XII mantuvo el 1 de diciembre de 1924 la primera conversación telefónica con Miguel Primo de Rivera, de viaje en Tetuán. El reportero destacó ‘que ambos se entendieron perfectamente’12. Con Stalin en el poder, Hitler redactando en prisión Mein Kampf y André Bretón presentando su Manifiesto Surrealista, España vive la dictadura de Primo de Rivera inmersa en una coyuntura cultural y tecnológica optimista. Ello unido a la mejora de las condiciones de los trabajadores emigrados del campo y al crecimiento económico genera un cierto sentimiento de modernidad. Así lo recoge Cañas (2005) en su artículo referido a esos años: ‘(…) la prensa, y seguramente también la ciudadanía, recibía como bellos iconos del progreso la instalación de postes, hilos y crucetas que anunciaban la revolución del mundo de la comunicación y, por tanto, de una sociedad que, en su conjunto, vivió transformaciones que fueron el preludio de la nuestra. ‘En los años veinte, la radio, el cine o el fútbol hicieron su entrada en las costumbres, convirtiéndose en distracciones generalizadas y en símbolos de modernidad’, explica Eduardo González Calleja en su estudio La España de Primo de Rivera13. Las fotos de la CTNE de sus telefonistas, bien atendiendo las centralitas, bien descansando en medio de su jornada laboral, muestran ese inicio de transformación social de los años veinte que supuso también la entrada masiva de las mujeres en el mundo laboral, ocupando, como destaca Sánchez Ron, tareas peor remuneradas, pero estables y pagadas, mientras el pantalón se abría paso como una prenda más del atuendo femenino.’ A los cuatro años de finalizar los estudios en la Escuela de Arquitectura de Madrid, el joven Antonio Palacios y su compañero Joaquín Otamendi se presentaron al concurso público dispuesto por Real Decreto para la construcción de la nueva Casa de Correos, un híbrido cuya intención era integrar el servicio de comunicación postal, telegráfica y telefónica. Palacios y Otamendi habían perdido recientemente el concurso de la nueva sede del Casino de Madrid, pero su empeño tuvo en esta ocasión un extraordinario premio. Pese a las dudas suscitadas por su juventud, el trece de noviembre de 1904 resultaron adjudicatarios del proyecto (Fig.10). El Palacio de Comunicaciones, en origen Casa de Correos y Telégrafos, se inauguró oficialmente el 23 de enero de 1919. Nacía uno de los hitos de la arquitectura madrileña14. En una época de 12 Escribe Cañas (El País, 30 de octubre de 2005) en su artículo ‘España Dígame’ que ‘el militar y aristócrata Antoni Magaz, entonces Ministro de la Marina, vaticinó con evidente falta de tino que en el futuro este tipo de conversaciones seguirían haciéndose con el sistema de conferencia telegráfica para que quedasen registradas por escrito.’ 13 La Modernización Autoritaria, 1923-1930. (Alianza Editorial). 14 Según relata García Mosteiro (2004: 29) se dice que León Trotsky, en su breve estancia en Madrid visitó con frecuencia el Museo del Prado. Al descubrir el Palacio de Comunicaciones se refirió a él como ‘Catedral de Nuestra Señora de las Comunicaciones’. 119 actividad afanosa en la construcción, la ciudad de Madrid incorporó a su catálogo arquitectónico de edificios emblemáticos los construidos por Palacios, que fueron muchos15. Pero la operatividad del flamante Palacio de Comunicaciones16 no contó con la acelerada hiperactividad de las TIC: los ocho locutorios ubicados en el vestíbulo principal se quedaron escasos ante la creciente demanda. La necesidad de un nuevo edificio que respondiera exclusivamente al nuevo medio de comunicación quedaba ya anticipada a principios de los felices años veinte. Fig.10. Maqueta en escayola del proyecto para la Casa de Correos y Telégrafos, 1904. Palacios y Otamendi. Fig .11. Thrills in Laying Deep-Sea Cable Across the Atlantic, 1924. Como sucedió con su antecesor, el telégrafo, la infraestructura que propiciaba la comunicación (telefónica) implicó cambios en el paisaje (urbano y rural). En los años veinte los caminos y carreteras nacionales quedaron flanqueados por miles de postes de madera con hilos que subvirtieron la barrera espacio-temporal de la geografía física. La tarea de cablear España fue documentada gracias a una acción corporativa publicitaria de la CTNE; se decidió contratar a un grupo de fotógrafos profesionales para mostrar la hazaña. Las imágenes de Alfonso, Vicente Barberá, Ramón Claret o Gaspar describen la actividad de celadores-conductores, peonesempalmadores trepando a los postes y mozos abriendo zanjas. Los fotógrafos contratados por Telefónica muestran, como indica Rafael Levenfeld, ‘los no lugares’, construyendo una visión no oficial de aquella época alejada de monumentalismos e inauguraciones17. 15 En palabras de Ricardo Aroca: ‘Palacios es a Madrid lo que Gaudí a Barcelona’. 16 Sirva como ejemplo la descripción que hace Pérez Rojas (1987: 99) del recorrido de las cartas: ‘Los buzones están situados en la fachada del Paseo del Prado, desde donde las cartas caían directamente a la mesa de sellar, continuando en línea recta todo el proceso siguiente hasta el patio de coches, con entrada por el pasaje de Alarcón. La misma fluidez presenta el correo de llegada desde el otro muelle del patio hasta la cartería.’ 17 La intrahistoria de Miguel de Unamuno. 120 La cabina roja telefónica K2 tomó identidad propia en Londres a partir de que en 1924 resultara premiada la entrada de Sir Giles Gilbert Scott en el concurso convocado por el Royal Institute of British Architects, convirtiéndose enseguida en uno de los iconos de la ciudad. Este cubículo urbano18 que constituía un ámbito acústico privado en medio de la gran ciudad, se encuentra hoy en vías de extinción. La causa, al menos en España, se debe a la competencia de la telefonía móvil y a la aparición de un lugar vinculado al desarrollo de Internet: el locutorio. Heredero del locutorio telefónico de la primera mitad del siglo XX, el locutorio19 de telefonía fija hacinado e insalubre de principios del siglo XXI resurge como unos de los lugares predilectos para realizar conferencias telefónicas internacionales, por sus tarifas económicas. Complementa otra tipología propia de las TIC, el cibercafé. La ausencia de conectividad a Internet ha sido remediada tradicionalmente por estos establecimientos, sobre todo en los orígenes de la Red. Lugares pioneros como la cadena Starbucks enseguida incluyeron la presencia cibernética en sus salones de café, convirtiéndose en lugares muy frecuentados por electronómadas y teletrabajadores20. Fig.12. Escuela de celadores de Barcelona, 1925. Autor: Ramón Claret Artigás. Fig.13. Edificio de la Telefónica, 1926. Fuente: Fundación Telefónica. Fig.14. It keeps faith with your needs21, anuncio de la American Telephone and Telegraph Company. Julio, 1930. 18 La cabina fue también protagonista de la película de idéntico nombre dirigida por Antonio Mercero en 1972, coescrita por este último junto con José Luis Garci y protagonizada por José Luis López Vázquez. 19 Véase Dispersion en Casa de America, instalación de Diego Barajas y Camilo García (2005) que recrea el ambiente de los locutorios de Holanda con imágenes y sonidos de todo el mundo. Disponible en: <http://freshmadrid.com/freshforward.net/proyecto.asp?Id_Proyecto=77&Id_Estudio=13&Orden=04>. (Consultado el 5 de mayo de 2012). 20 Véase Perfil antropológico de la vivienda aumentada. Del morador al electronómada [-11.000, +1998], Cap.IV. 21 Transcripción literal: ‘You have found a constantly growing use for the telephone. You have learned its value in business. You have found it helpful in keeping contact with family and friends. Its increasing use 121 El desarrollo de la telefonía en España y Latinoamérica ha estado vinculado a la Compañía Telefónica Nacional de España (CTNE). El auge de esta tecnología22 derivó en seguida en la decisión de construir su sede nacional en una localización tan emblemática como la recién estrenada GranVía madrileña. Entre 1926 y 1929 el proyecto de Ignacio de Cárdenas, basado en un estudio previo realizado por el arquitecto de la I.T.T (Internacional Telephone and Telegraph Coporation, compañía nodriza norteamericana) Lewis S. Weeks en Nueva York, se convirtió en referente del rascacielos europeo. De ahí proviene la inspiración americana del edificio, si bien, salpicada por Cárdenas en el proyecto definitivo, especialmente en el tratamiento exterior con añadidos barrocos. La estructura metálica roblonada fue calculada en base a los estándares neoyorquinos de los años veinte23. Además de contar con los vestíbulos públicos donde se exhibía la compañía, albergaba un extenso programa de oficinas y también ubicaba la central automática de telefonía con capacidad inicial para 40.000 abonados. La automatización de la conexión telefónica entre dos abonados supuso un avance tecnológico sin precedentes. La dimensión de los equipos de conmutación automática instalados en sus primeras has given the telephone its humanly important place in modern life and requires the expenditure of hundreds of millions annually for extensions and improvements. In 1929 the Bell System’s additions, betterments and replacements, with new manufacturing facilities, meant an expenditure of 633 million dollars. During 1930 this total will be more than 700 millions. Definite improvements in your service result from a program of this size and kind. They start with the average time required to put in your telephone—which in five years has been cut nearly in half. They range through the other branches of your service, even to calls for distant points—so that all but a very few of them are now completed while you remain at the telephone.In order to give the most effective, as well as the most economical service, the operation of the Bell System is carried on by 24 Associated Companies, each attuned to the part of the country it serves. The Bell Laboratories are constantly engaged in telephone research. The Western Electric Company is manufacturing the precision equipment needed by the System. The staff of the American Telephone and Telegraph Company is developing better methods for the use of the operating companies. It is the aim of the Bell System continually to furnish a better telephone service for the nation’. 22 El coste de un telegrama transatlántico era similar al salario de un obrero español. La diferencia de precio a favor de la conferencia telefónica significó la estandarización de esta tecnología. En 1931, a tan solo siete años de la fundación de la CTNE, el número de teléfonos por habitante estaba rondando la media europea. 23 En la publicación El edificio de la Telefónica, su autor Fernández (1984) se refiere a la torre como ‘un americano en Madrid’, haciendo alusión a su relación con los rascacielos norteamericanos coetáneos de New York y Chicago y a las concesiones barrocas de cornisas, coronación y retranqueos en fachada. 122 plantas (Rotary 7-A) comprometió la altura final del edificio (89.30 metros), que superaba ampliamente los treinta y cinco metros permitidos por la normativa municipal.24 La emisión de ondas por los dispositivos de radio o televisión supuso desde el principio un condicionante a tener en cuenta en la tipología de edicifio TIC, por la ubicación de las antenas. Para su óptima difusión se precisaba de edificios de gran altura y no necesariamente habitados, pues lo importante era lograr un ángulo muy abierto para la correcta transmisión. En este sentido uno de los edificios paradigmáticos en el género -en esta ocasión el de las antenas de radio- es la Torre Shabolovka (Fig.15), construida en 1922, en Moscú, por el ingeniero Vladimir Shukhov. La esbeltez y la ligereza estructural confieren a esta pieza un lugar especial en la historia de la arquitectura. Fig.15.Torre Shabolovka, 1922. Moscú. Vladimir Shukhov. Al aumentar la distancia de alcance de la señal de las antenas, las antiguas torres de comunicaciones fueron dando paso con los años a las torres de telecomunicaciones que ya no emitían señal de radio (como la antena de la RKO) sino que repetían la señal recibida de los satélites. Las capitales de los países desarrollados fueron incluyendo paulatinamente este símbolo icónico en su paisaje urbano. Las torres de telecomunicaciones de Berlin y Toronto (figs.17 y 18), por su altura, y la Torre de Telecomunicaciones de Collserola, en Barcelona (fig.19), por su diseño, constituyen ejemplos destacados. Otras tipologías vinculadas al desarrollo de las tecnologías de la información y la comunicación han destacado en la historia de la arquitectura. Los observatorios astronómicos construidos por Villanueva en el Retiro de Madrid o la Torre Einstein proyectada por Eric Mendelshon en Potsdam constituyen ejemplos relevantes. La industria aereonaval ha necesitado por su parte de estructuras de grandes luces para dar servicio a las aeronaves, los hangares de Konrad Wachsman o la Terminal de la TWA en el aeropuerto John Fitgeral Kennedy de Nueva York de 24 La compañía aludió a su carácter ‘monumental y artístico, así como contenedor de un servicio público cuyo beneficiario es el estado’ para obtener la preceptiva licencia administrativa. Casi un siglo después, la compañía promoverá la construcción de otro hito en la ciudad de Madrid. El ‘Distrito C’, firmado por Rafael de La-Hoz Castanys, constituye una sede-campus de fuerte identidad arquitectónica. 123 Erio Saarinen prevalecen como referentes arquitectónicos de esta tipología. Por su parte, la arquitectura aeroespacial hubo de inventar torres de lanzamientos, estaciones espaciales y envolventes especiales para las aeronaves. Los prototipos de los años cuarenta y cincuenta, y sobre todo, la producción espacial surgida a tenor de la carrera espacial causarían estupor e influencia en la arquitectura aerodinámica estadounidense y británica de la década de los cincuenta, y en las arquitecturas portátiles de kits y de ensamblaje en los sesenta. Fig.16. Skylon, Frank Newby (Felix Samuely Ltd.), Festival of Britain, 1951. Fig.17. Fernsehturm, 1965. Berlin. Fig.18 CN Tower, 1976. Toronto. Fig.19. Torre de Telecomunicaciones de Collserolla, 1992. Barcelona. Fig.20, 21 y 22. Estructuras metálicas para soporte de antenas. La acogida arquitectónica de la computadora estuvo marcada desde un inicio por las exigentes condiciones de seguridad. Para este fín, esta tecnología solía instalarse en edificios militares o en enclaves adscritos a la universidad. Los requisitos que precisaba su instalación eran dimensionales y de ventilación. El edificio 328 que alojó en Philadelphia al ENIAC (Electronic Numerical Integrator and Computer), desde su construcción en 1946, no destacaba por nada en especial (fig.23). Tampoco lo hicieron los innumerables sótanos que albergaron muchos de los primeros centros de cálculo. Todos ellos requerían una gran superficie con unas condiciones de ventilación que permitieran disipar el calor que emitían los aparatos25. Fig.23.ENIAC (Electronic Numerical Integrator And Computer) in Philadelphia, Pennsylvania. Glen Beck (al fondo) y Betty Snyder (en primer plano) programando el ENIAC en BRL Building 328. 25 Este generación de calor lleva al estudio Partenon ha proponer un híbrido termodinámico en base a la simbiosis establecida entre el centro de cálculo y el invernadero, aprovechando así las sinergias energéticas que se establecen entre sendas actividades. 124 Fig.24. El Centro de Cálculo de la Universidad de Madrid (1965-1982). Autor: Miguel Fisac. Especial relevancia arquitectónica cobran las propuestas de Miguel Fisac para el Centro de Cálculo de la Universidad de Madrid (1966) (fig.24) y para el Edificio IBM en el Paseo de Recoletos madrileño (1966-67). En el caso del Edificio IBM (fig.27), las directrices de la compañía de computadoras instaron al arquitecto a evitar el sol del poniente para lograr un confort lumínico idóneo que permitiera el trabajo con ‘fuerte iluminación artificial’. A pesar del vidrio Pittburgh-14 antirreflectante y anti-infrarrojo dispuesto en un origen en el proyecto, Fisac acabó diseñando ventajosamente la conocida y singular envolvente de piezas ligeras y huecas de hormigón prefabricado de 2cm de espesor. Frente a la opacidad del Edificio IBM, el Centro de Cálculo de la Ciudad Universitaria (fig.24) dispone la sala de máquinas en una planta baja vítrea que confía en un aclimatamiento artificial. Estos últimos ejemplos constituyen intervenciones introvertidas donde la influencia de las TIC no trasciende más allá del edificio. La consideración de adecuación material de la arquitectura en función de las características de las TIC que aloje tiene una casuística de enorme repercusión. Los requisitos técnicos necesarios para lograr una conexión óptima mediante ondas de radio o para conseguir un espacio WIFI definido pueden llevar al arquitecto a minorar el porcentaje de metal empleado en la estructura y en el cerramiento de un edificio. Fig.25.National Radio Quiet Zone, West Virginia, EEUU. Fig.26.The Robert C. Byrd Green Bank Telescope, National Radio Astronomy Observatory. Fig.27.Edificio IBM, 1974. Madrid. Miguel Fisac. Otros espacios aumentados por las TIC pueden pasar desapercibidos al ciudadano por la ausencia total o parcial de rastro construido26. El espacio de control del tráfico aéreo y marítimo 26 Para profundizar véase Las cosas no salieron como esperábamos de Jose Luis de Vicente. Fuente: < http://www.youtube.com/watch?v=WS5GBXlZJh4>. (Consultada el 3 de noviembre de 2013). 125 del Estrecho de Gibraltar dispone de unas antenas que definen una auténtica frontera virtual entre Europa y África. La demarcación que vigilan es enorme, pero su presencia casi invisible al ojo humano. Este tipo de lugar también puede aparecer por omisión de las condiciones cotidianas tecnológicas. Tal es el caso de la National Radio Quiet Zone, donde es efectiva la prohibición de transmisiones de señales de radio en un ámbito de 34.000km2, en West Virginia (fig.25). La razón de existencia de esta zona ‘en silencio’ es la de no perturbar las condiciones de observación y escucha de las antenas y recibidores de la US Navy, en concreto del Telescopio Robert C. Byrd Green Bank del National Radio Astronomy Observatory (fig.26). En 1970 se habilitó en Conil un espacio singular en relación a las comunicaciones submarinas (fig.29), un nudo de comunicación submarina que articula las líneas de comunicación de Europa, Asia y América. Esta enorme presencia de las TIC no se manifiesta físicamente en la superficie terrestre, pero Conill asume una gran relevancia en la cartografía subacuática de las TIC. Fig.28. Cobertura de Radio Liberty y vista de la instalación, Pals, Gerona. Fig.29. Cartografía del cable submarino TAT-5. Esta colección de no-lugares originados por las TIC cuenta con ejemplos que han ido trascendiendo a la luz pública con el paso del tiempo o que también a veces han ido desapareciendo cuando la razón de su construcción se ha vuelto obsoleta. Este es el caso de Radio Liberty. La idea de construir una emisora que introdujese las ondas de radio del bloque capitalista en la Unión Soviética, en plena Guerra Fría, requería una infraestructura con unas condiciones muy especiales. En el año 1955, tras exhaustivos estudios en diversos países y localidades realizados por el American Committee for Liberation (AMCOMLIB) se escogió la Playa de Pals, localizada en Girona, por sus características topográficas, que aumentaban la energía emitida de las ondas 126 radiadas27. Estas antenas emitieron mensajes y propaganda anticomunista, alterando las fronteras físicas de la Guerra Fría (fig.28) y configurando un espacio radiofónico sin igual. La caída del Muro de Berlín y la llegada de Mihaíl Gorbachov a la presidencia de la Unión Soviética de 1989 a 1991, junto con el cese de las interferencias hostiles y la ‘libertad’ de información, se cuestionó la utilidad de estas emisoras. En 2006, Radio Liberty fue cerrada y desmantelada. 27 ‘La CIA destinó un presupuesto anual al proyecto de más de 83 millones de dólares; además se requería infraestructura pues no había caminos y la instalación de 6 transmisores con 250 mil watts de potencia haciendo un total de 1 millón 500 mil watts de potencia, transmitía en 28 idiomas las 24 horas del día los 365 días del año’. Disponible en: <http://www.radioliberty.org/>. (Consultada el 3 de septiembre de 2013). 127 3.2. Presagios de la Revolución Digital. 3.2.1. Influencias transdisciplinares: arquitectura y ficción. ‘O wonder! How many goodly creatures are there here! How beauteous mankind is! O brave new world, That has such people isn't’. William Shakespeare, The Tempest, Act V, Escena I, ll. 203–206, 1666. La construcción del futuro tecnológico es producto de una condición dual: los avances producidos en el campo de la ciencia, logrados en gran parte con metodologías basadas en la razón lógica, y los avances producidos en el ámbito de la ficción con altos contenidos imaginativos. Sendos acontecimientos se retroalimentan y necesitan. Esta salvedad también forma parte del proceso proyectual arquitectónico y de cualquier proyecto creativo ex novo. El proyectista que se enfrenta a la tarea de proyectar lo hace simultáneamente por la vía de la razón y por la vía de la imaginación. En su Manual para la Crítica de Arquitectura, Antonio Miranda (1999) se refiere a ‘la paradoja escondida en la que la racionalidad más estricta -robótica- y la visceralidad más radical -bufonesca- son extremos que se tocan para dar origen a lo verdadero -lo poético- en arquitectura’. El propio Albert Einstein ya afirmó que ‘la imaginación es más importante que el conocimiento: el conocimiento es limitado, la imaginación rodea al mundo’. La búsqueda de los orígenes del Entorno Aumenado lleva a sondear aquellas propuestas visionarias, ficticias, que aportaron en el siglo que vio la luz de la dimensión digital, una visión de futuro anticipatoria del Entorno Aumentado, y cuya influencia contrastada resultó vital en el avance hacia la contemporaneidad. Propuestas que en mayor o menor medida avanzaron la coexistencia del dominio digital y la realidad física tradicional, en relación a su capacidad de implementar ratios adicionales de información que intensificaran su naturaleza. Propuestas que influyeron en el ámbito de lo arquitectónico y que supusieron, a menudo, auténticos ingenios para burlar la cualidad estática y lineal de la percepción del ojo humano y del Paradigma Mecanicista28. La investigación también pretende localizar y evaluar los orígenes de algunas técnicas actuales que hoy forman parte de la realidad alternativa del Entorno Aumentado y de la Sociedad de la Información (Castells 2002), así como tratar de dibujar en el caso de que exista su vínculo con 28 El término ‘mecanización’ indica el grado de implantación de las máquinas en la vida del hombre. Así en este sentido es estudiada por Giedion (1978). En relación a este título, cabe señalar la aportación oportuna del compendio de textos seleccionado por Javier García-Germán (2011) en La digitalización toma el mando. 128 la ficción. Como hace notar Strate (2012), ‘las decisiones acerca de la adopción de innovaciones no suelen ser producto de deliberación democrática, ni siquiera son decisiones que tomen ciertas clases dominantes, que sencillamente tengan fe en la tecnología’, sino que constituyen, como asegura Postman (1992), ‘una rendición de la cultura a la tecnología’. La perspectiva histórica que propone este capítulo trata dar un sentido relacional al mapa contemporáneo de las tecnologías vigentes de la información y la comunicación, de modo que pueda obtenerse un estado del arte más preciso que sirva de fundamento al análisis del Entorno Aumentado. Afirma Sterling B. que es enteramente posible hablar de ‘arquitectura ficción’ a la par que ‘ciencia ficción’. El propio Toyo Ito en Arquitectura en una ciudad simulada (1991) realiza la siguiente reflexión: ‘Debemos crear una arquitectura como una entidad duradera y permanente, pero a ello hay que añadirle un aire ficticio y provisional. (…). Lo mismo pasa con los materiales en arquitectura, para nosotros ya han desaparecido del todo las fronteras entre lo real y lo irreal. (…) Considero que el destino de la arquitectura desde ahora en adelante dependerá de cómo descubrir la estructura de la ficción.’ La propuesta paradógica de Toyo Ito al referirse a una arquitectura permanente pero provisional se comprende bien treinta años después. Hoy se hace difícil pensar en una arquitectura duradera que no asuma el dictado del cambio, fundamentalmente del cambio inferido por las TIC. En este sentido, gran parte de la trayectoria de Archigram dió luz a multitud de proyectos que se alejaban infinito de la ortodoxia profesional de los sesenta, y se acercaban a la propia del siglo XXI. A pesar de que sus miembros se encargaron de proclamar la veracidad constructiva de sus propuestas, no cabe duda de que superaban en imaginación la perspectiva de casi todos los profesionales coetáneos. Plug-in City, Living Pod, Instant City o Walking City se han anticipado a proyectos como el Centro Nacional de Arte y Cultura Georges Pompidou29 (1977) de Renzo Piano y Richard Rogers o la Kunsthaus de Graz (2003) del propio Peter Cook y Colin Fournier en colaboración con Realities United, encargados del diseño de la envolvente mediática-. En la cuarta publicación de Archigram, Amazing Archigram 4: Zoom (1964), el grupo londinense tomó como referencia la revista de género Amazing Stories or Astounding Science Fiction y adoptó el formato dinámico del cómic para la divulgación de sus proyectos30 (fig.2 y 2b). 29 Véase otras propuestas que concurrieron al concurso del Pompidou de 1972 en p.222. 30 Retórica empleada también por Rem Koolhas o Big. 129 Fig.1.ROCKET TO THE MOON? Mechanix Illustrated, Sep., 1945. Fig.2 (a y b). ‘Situation Architecture’, Archigram 4, página 1 y 4, 1964. Warren Chalk. El repertorio de imágenes empleado en la representación del espacio futuro ha sido fuente inspiradora de propuestas arquitectónicas y otras artes. Steiner (2009: 151) reflexiona sobre la ciencia ficción: ‘(…) asimila las disciplinas emergentes y los desarrollos tecnológicos más avanzados en el espectro cultural; identifica actitudes sociales hacia el cambio y ubica las nuevas ideas en contextos tradicionales; y, de modo significativo para una disciplina preeminentemente visual, proporciona una imagen memorizable allí donde no había ninguna’. La conexión sinérgica interdisciplinar que fluye entre el cine, la arquitectura, la literatura, la industria del videojuego y otras disciplinas procedentes del diseño, como el cómic (fig.2), deviene en un claro enriquecimiento del imaginario colectivo. El intercambio de referentes y vías de investigación es continuo y enriquecedor. Asimismo, la evolución que han experimentado las herramientas de representación gráfica arquitectónica, proponiendo interfaces cada vez más brillantes e intuitivas, así como la estandarización31 a nivel de usuario de los procesos de producción de contenidos digitales, hacen realmente prolífica la producción de arquitectura ficción32. La Sociedad Informacional incorpora con voracidad los avances tecnológicos con la intención de mejorar la producción en el ámbito laboral, doméstico, de ocio, etc. A menudo, la primera cualidad profesional exigida, como puntualiza Ellul (1964), es la eficiencia. Alcanzar ‘los objetivos’ o ‘ser rentable’ para la empresa en la medida que dictan los departamentos de 31 Diagramar, modelar, renderizar, maquetar y editar digitalmente proyectos es hoy más sencillo que nunca. La auto-producción de los estudiantes de arquitectura acaba en las redes sociales. 32 Es fácil imaginar el alcance que podría haber tomado la producción visionaria de Antonio Sant’Elia o Giambattista Piranesi si hubieran tenido acceso a las técnicas de producción actuales. 130 dirección y/o recursos humanos, inducen en el profesional altas dosis de stress que mal gestionadas provocan graves distorsiones en la salud. En este sentido, los efectos de la incorporación maquinista -en este texto, electrónica/digital vinculada a las TIC- a la sociedad, y sus consecuencias beneficiosas o adversas y alienantes para la especie humana podrían ser puestos en entredicho en una reflexión sobre el significado del progreso científico. De cualquier modo, existe un movimiento crítico de desconfianza y rechazo de ciertas prácticas que se aplica también a la Revolución Digital y a las consecuencias aparejadas que ésta ha provocado. Esta crítica contemporánea recuerda a otra que también desconfiaba de los efectos de otra revolución, la Primera Revolución Industrial originada en Gran Bretaña. En la segunda mitad del siglo XIX, un grupo de artistas e intelectuales británicos liderado por William Morris y John Ruskin encontraron solución a este conflicto tratando de preservar una herencia cultural que veían amenazada por la producción industrial. Este posicionamiento significó el advenimiento de las Arts and Crafts británicas y, posteriormente, el desapego general del Reino Unido hacia los preceptos del Movimiento Moderno -en relación trascendencia que tuvo en otros países-. William Morris (2011a) defendía entonces el empleo de la tecnología industrial al servicio del hombre: ‘Por tanto, cualquier labor que permita al hombre expresar su creatividad individual, pero sujeta siempre a una tradición, a una cultura, es por ello objeto de ser considerada artística’. A efectos de la disyuntiva realidad vs ficción que nos atañe, William Morris33 escribió dos novelas que refrendaban su punto de vista intelectual. En particular, dos textos donde él mismo era el protagonista: El sueño de John Ball (2007) y Noticias de Ninguna Parte (2011b), publicadas en 1888 y 1890 respectivamente (fig.3). La segunda expone un viaje a una ciudad utópica del futuro, donde una sociedad feliz y justa habita arquitecturas ‘materializadas con orgullo y placer por sus habitantes, que han depositado en ellas sus esperanzas y desvelos’. Morris (2011b) no rechaza la industria pero si el mal uso de las máquinas34: 33 Nótese la intención de traer aquí el movimiento Arts & Crafts como reacción surgida en una situación ciertamente similar a la que acontece hoy con respecto a la Revolucion Digital. Resulta también de interés el vínculo de J.R.Tolkien, autor de la conocida ‘El señor de los anillos’, con William Morris y las Arts&Crafts, en tanto que sus escritos de ficción han prorogado hasta nuestros días la filosofía aquellos. (García 2012). 34 En su investigación sobre esta novela, Marcelo (2009) afirma que ‘el romance utópico de Morris es un contrapunto de la novela de Edgard Bellemy ‘Reviendo el futuro’ de 1888, en la cual éste exalta los principios de la industrialización, la mecanización y la centralización muy en boga en ese periodo histórico. Al contrario, para Morris ellos representan anti-valores, en oposición al verdadero espíritu socialista y libertario que lo animaban a él y a sus camaradas de la Liga Socialista. En la utopía cockney 131 ‘todo trabajo que realizado a mano es enojoso lo realizamos con maquinas muy perfeccionadas, y se hace sin maquinas el que puede ser agradablemente realizado a mano’, 35 Tras la Primera Revolución Industrial, el siglo XX registra en su primer cuarto los dictados estadounidenses del taylorismo y el fordismo -versión más sofisticada de aquel-. El desarrollo del capitalismo en una segunda fase de la Revolución Industrial o Segunda Revolución Industrial depara la aplicación de las nuevas doctrinas a la disciplina arquitectónica36: la racionalización del trabajo en la construcción, la rentabilidad aplicada a los costes y salarios, entre otras consecuencias. Por otro lado, el creciente consumo de tecnología encaminado a alcanzar un estándar de vida más cómodo retrata al sobrestimulado ciudadano norteamericano como víctima de la publicidad masiva. Testimonio de ello es el largometraje dirigido por Buster Keaton The Electric House (fig.4), una parodia de las consecuencias a las que puede conducir la obsesión por una mecanización aplicada a todos y cada uno de los instantes y situaciones de la vida cotidiana (García JM., 2012: 43). Brown, Lauder y Ashton (2011) acuñan el término taylorismo digital en relación a la organización global del definido como trabajo de conocimiento propio de la Revolución Digital o Tercera Revolución Industrial, tradicionalmente realizado por las clases medias –profesionales y técnicos- que es reducido al mismo proceso de organización científica que en su día sufrieron los oficios artesanales –taylorismo-. La digitalización de los procesos de decisión, la deslocalización y competencia salarial mundial, y la reducción del trabajo y su deslocalización caracterizan esta organización37. de Bellamy, se llevan al extremo las tendencias mencionadas (industrialización y centralización) al tiempo que los ciudadanos se parecen más a soldados orientados para la producción industrial masiva o seres autómatas al estilo de ‘Un Mundo Feliz’ (Huxley)’. 35 García (2012) identifica a Oscar Wilde con la afirmación de William Morris: ‘¿Pensáis, acaso, que nos oponemos a la maquinaria? Pues os diré que la reverenciamos cuando cumple con su trabajo propio, cuando releva al hombre en tareas innobles o desalmadas, pero no cuando pretende hacer aquello que solo resulta valioso al der producido por las manos y el corazón del hombre’. 36 ‘Resulta constatable, si se hojean las publicaciones aludidas, que los métodos de organización del trabajo aplicados en USA, en concreto en la producción de las fabricas Ford, los adoptó (Martin Wagner, en su condición de gestor, consejero responsable del área de urbanismo de Berlin) y aplicó como guía de su actividad y le influyeron poderosamente en la labor que tuvo ocasión de desarrollar hasta 1933 37 Véase en Cap.IV Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo las precisiones de Mumford (1934) en su obra Técnica y civilización sobre la historia de la técnica humana. La tesis de Carlos Naya (1996) Arquitectura y técnica, profundiza sobre este tema. 132 Fig.3.Frontispicio de Noticias de ninguna parte, 1890. William Moris. En la ilustración aparece Kelmscott Manor, casa de campo de William Morris desde 1871 hasta su muerte en 1896. Fig.4.The electric house, 1922. Cortometraje mudo escrito y dirigido por Buster Keaton y Edward E. Cline. Fig.5.Metrópolis, 1927. Dirigida por Fritz Lang. Escena en la que el robot de Rotwang comienza a transformarse en María. La producción contemporánea de arquitectura experimental no construida tiene a menudo altas dosis de ficción –tómese en el sentido virtuoso y no peyorativo- y a menudo resulta espejo del porvenir profesional. Indistintamente, acontece en soportes diversos, destacando por su difusión y alcance el cine y el videojuego. La simulación de escenarios de otras épocas pasadas o futuras, resulta práctica habitual en esos géneros, a la vez que ocupa a un buen número de arquitectos y artistas gráficos. El cine, tan próximo en muchos aspectos a la disciplina arquitectónica estética, estructura narrativa, articulación del espacio escenográfico,…etc- ha propuesto escenarios de arquitectura ficción que ya forman parte del imaginario colectivo. La cinematografía señala El viaje a la Luna (1902) de George Méliès como la primera película de ciencia ficción. A pesar de que el género fuera concebido en esta obra pionera, es en Metrópolis (fig.5) donde emerge en toda su integridad. Esta capacidad de vislumbrar la evolución tecnológica tiene lugar en la arquitectura distópica de Los Angeles en Blade Runner (Ridley Scott, 1986), de Metrópolis (Fritz Lang, 1927) o de Gothan City en Batman. Todas ellas incorporan en sus planos simulaciones de mundos futuros donde la tecnología domina a la condición humana. La desmaterializada tecno-arquitectura de Matrix (Hermanos Wachowski, 1999) propone una visión impactante (fig.8) y también distópica sobre el entorno aumentado. En esta ocasión, la dimensión digital se superpone a la realidad física dando lugar a un mundo alternativo de arquitecturas construidas con bits. Los electrodomésticos de última generación que aparecen en Mi tío (Jacques Tatti, 1958) convierten la vivienda moderna en una pantomima tecnológica. De igual modo, Jacques Tatti advierte en Playtime (1967) de los excesos ocasionados por la superautomatización alienante para el individuo. La arquitectura de ficción de los Supersónicos, vinculada al fenómeno ovni de los cincuenta, incorpora dispositivos tecnológicos aún por inventar. Un momento a destacar en la historia del cine de ficción vinculado a la computación es la escena de persecución de Westworld (fig.6). Dirigida por Michael Crichton en 1973, el fotograma corresponde a la 133 primera vez que se usa una imagen generada por ordenador (CG) en una película; hecho absolutamente innovador para la época, constituye el primer pixelado en la gran pantalla38. La historia de la arquitectura-ficción ha reservado un lugar especial a la película dirigida por Steven Lisberger Tron (fig.7). Producida en 1982 por los estudios Walt Disney, alcanzó el status de película de culto del ciberpunk por ser una de las primeras cintas en emplear gráficos generados por ordenador -unos treinta minutos-. Además, la coincidencia del artista conceptual Syd Mead –trabajó también en Blade Runner y Alien- y el dibujante francés Jean Giraud (Moebius) aseguró un tratamiento estético pionero que describía un mundo alternativo digital39. El estrepitoso fracaso comercial de la película indujo a muchos estudios a desechar este tipo de imágenes, retrasando la incursión de la computadora en el cine. Fig.6. Fotograma de Westworld, 1973. Dirigida por Michael Crichton. Fig.7. Tron, 1982. Carrera de motos. Dirigida por Steven Lisberger. Fig.8.‘Lluvia digital’, Matrix, 1999. Dirigida por los hermanos Wachowski. Los gráficos tridimensionales 3D han alcanzado en la contemporaneidad un nivel de fotorrealismo tal que es difícil identificar en pantalla la realidad física grabada de la ficción digital. En el caso de la película Titanic, dirigida y escrita por James Cameron (1997); muchos extras fueron implantados ‘virtualmente’ en las escenas, operación repetida en El Cuervo. Tras el fallecimiento del actor Brandon Lee en pleno rodaje de El Cuervo, su personaje fue sustituido por una réplica digital para poder finalizar la película. Por otro lado, la arquitectura-ficción dispone de otro ámbito de experimentación prolífico en la industria del videojuego. La abundancia de escenarios digitales en mundos virtuales como Call of Duty, Second Life o Minecraft alimenta sinergias figurativas continuas y diversas en el proceso de proyecto de los estudiantes de arquitectura de todo el mundo. La aparición de la arquitectura aumentada, por ejemplo en forma de hologramas, plantea un escenario fotorrealista 38 El pixelado de la imagen responde al original. 39 La película narra las contingencias de un joven programador que se introduce, mediante un proceso de escaneado láser, en los circuitos de una computadora. En el sistema sobreviene un litigio que implica a los programas, personificados por sus usuarios, para acabar con el poder totalitario del control central. Es la primera vez en la historia que un personaje humano intercede en la realidad virtual. 134 donde la ficción y la realidad difícilmente se distinguen. Como asegura Banham40, ‘al final olvidaremos que hubo una diferencia’. Influidas por el totalitarismo estalinista de la Union Soviética, Un Mundo Feliz, 198441 y Fahrenheit 45’ describen visiones pesimistas emblemáticas que constituyen obras maestras del género de la ciencia ficción del siglo XX. Los ciudadanos de estas utopías negativas viven oprimidos bajo el control del Estado opresor que desautoriza los derechos humanos elementales. Aldous Huxley publicó en 1932 Un Mundo Feliz (del inglés Brave New World), cuyo título hacía referencia a un verso de William Shakespeare en The Tempest, Act V, Escena I, ll42. Huxley presagió los avances científicos en la tecnología reproductiva, neurocirugía, cultivos humanos e hipnopedia; circunstancias que sumadas a otros avances producen una sociedad artificialmente feliz que vive vigilada por el ojo del Estado (fig.10). Fig.9.1984, cartel de la adaptación cinematográfica del director Michael Anderson, 1956. Fig.10.Un mundo feliz, 1932, Aldous Huxley. Portada de la primera edición. Autor: Leslie Holland. Fig.11.Control.Burble.Remote. Usman Haque, Premier en Barcelona, Febrero de 2010. El escritor y periodista británico George Orwell redactó el grueso de 1984’ en plena Segunda Guerra Mundial, en su estancia en la isla de Jura, Escocia. Describió una sociedad en la que el Partido Unico sometía a los ciudadanos a un poder absoluto cuyas consignas eran: ‘La libertad es la esclavitud, la guerra es la paz, la ignorancia es la fuerza’. Los ideales del Partido estaban representados en el Gran Hermano omnipresente (fig.9), omnipotente y omnisciente que todo lo ve. 40 OTTS, Enn (2011) Decoding Theoryspeak: An Illustrated Guide to Architectural Theory, New York: Routledge. 41 A causa de a aparentes motivos comerciales, el título original The Last Man in Europe (El último hombre en Europa), fue remplazado a instancia de los editores británicos y estadounidenses por el de ‘Mil novecientos ochenta y cuatro’. 42 Véase cita introductoria del apartado. 135 La tercera obra que integra este análisis de presagios literarios es Fahrenheit 451, escrita por el estadounidense Ray Bradbury en 1953. Ni la publicación, ni la adaptación cinematográfica del paladín de la Nouvelle Vague François Truffaut han perdido un ápice de su fuerza original. En esta ocasión, el argumento respondía a la denuncia de un totalitarismo analfabetizador que persigue y castiga a los lectores. Tanto la obra de Huxley, como la de Orwell y Bradbury son referentes distópicos de la sociedad de la información. Representan, hoy por hoy, un discurso contemporáneo que describe el miedo frente al control del individuo por el Estado –u otros entes de ese orden-. Bradbury (1991: 18) se refiere la influencia de la ciencia ficción en otras disciplinas: ‘(Cience Fiction) is the history of towns and cities yet unbuilt, ghosting our imaginations and lifting us to rise up and find hammers and nails to build our dreams before they blow away. I dare suggest some architects who, if you asked, would say the same: that a Frank R.Paul cover painting on an October 1929 issue of Amazing Stories caused them to buy pens, pencils, rulers, and drawing boards to paper up a concept and create a living world. If you bombarded an audience with three minutes worth of covers from the old science fiction magazines, each screened for just two or three seconds, the effect would be stunning. For city after city, wall after wall, avenue, would strike the retina and stimulate the brain…Science fiction remains the architecture of our dreams, and science fiction illustration will continue to inspire our next generation of dreamers.’ 1984 dibujó una escena apocalíptica en la que las tecnologías de la información y la comunicación se constituyen en herramientas de manipulación social. En cierta medida anticipando los efectos que según ciertos sectores podría llegar a tener la globalización con la aparición de Internet, la telefonía móvil, la moneda virtual,…etc., en términos generales: la virtualización digital de la realidad física. La tecnología permite la conexión individual permanente con el resto del planeta, pero también dificulta cada vez más la libertad individual de ‘desconectar’ de la red y descansar en el ‘oasis’ tecnológico. En este sentido, cabe destacar la serie de proyectos Burble del arquitecto Usman Haque43. La figura 11 representa el vuelo de una nube de globos sobre Barcelona interactuando con los campos electromagnéticos que conforman el espacio hertziano (Haque 2010), ‘aquel por el que navegan las ondas de radio, telefonía móvil, televisión, etc’. En la nube, una red de sensores de 30 metros de diámetro 1.000 sensores y 6.000 leds, junto con algunos teléfonos móviles- va cambiando de color mostrando las diferentes texturas del espacio ocupado por la radiación de la telefonía móvil de los asistentes. 43 En una entrevista reciente, Haque (óp.cit., 2010) afirma ‘dedicarse a la parte blanda de la arquitectura’. Le interesa ‘cómo nos vivimos unos a otros y cómo vivimos el espacio que nos rodea’. Alison y Peter Smithson ratificarían la afirmación. 136 Haque realiza una reflexión política sobre las estructuras de participación, sobre el papel de los dispositivos de control remoto44, visualizando su condición privada y transformando en pública su condición individual mediante la orquestación de una performance interactiva. El espacio oculto de las comunicaciones se delata, como también lo hacen sus efectos nocivos sobre el cuerpo humano. El público se convierte en el ‘intérprete del espectáculo y la relación de personas a sus mandos a distancia y el uno al otro es externalizada, comunal y urbana’. 1984 anticipó al concepto de ciudad ubicua45. El diseño actual de las ‘Smart Cities’ o ‘Ciudades Inteligentes’ habilita para el ciudadano –y para la administración- una red de conexiones con el dominio digital, con posibilidad de actualización en ‘tiempo real’. El objetivo de la ciudad ubicua consiste en incorporar la realidad alternativa de la computación en el Entorno Físico, de manera que esta resulte invisible para los usuarios; una integración total de la realidad alternativa y la física: el Entorno Aumentado. La ciudad ubicua esconde los dispositivos al ciudadano que opera directamente las aplicaciones digitales y no tiene acceso al código generador de éstos. Hoy por hoy, existe un enfrentamiento entre los partidarios de la ciudad ubicua, diseñada por la administración local, gubernamental o intergubernamental y los defensores de una integración digital accesible y operable –incluso transformable- por el ciudadano, cuyo mayor exponente es el entorno hacker. A pesar de no hacer referencia explícita a la neurocirugía o la manipulación genética, dada la fecha en la que se escribió la novela, Huxley advertía en Un mundo feliz de los peligros de la clonación humana y la reproducción asistida. Hoy en día, la reproducción asistida es una técnica extendida y la clonación humana, tras lograr la clonación de otras especies animales, ve frenada su desarrollo por instancias éticas. No resulta descabellada la idea de pensar en la reproducción asistida del proyecto de arquitectura -la clonación ya cuenta con siglos de existencia-. Manuel de Landa (2002) se refiere a este particular identificando las estructuras arquitectónicas evolucionadas con el algoritmo genético y la idea de ‘criar edificios dentro de un ordenador’. Suyo es el concepto de ‘proyecto huevo’. El proyectista no tendrá que desarrollar el proyecto al completo sino que programará un desarrollo incubado que será activado por un usuario y, entonces, terminará de conformar el proyecto. La II Guerra Mundial supuso un punto de inflexión en la cronología de presagios de la Revolución Digital. El descubrimiento de la energía atómica y su aplicación en el desarrollo de armamento nuclear, así como el nacimiento de la carrera espacial alimento una escalada 44 ‘Los mandos a distancia son más familiares para nosotros como instrumentos de confinamiento: requieren que adoptemos las relaciones estrictas, confinados en sus hogares y orientados al consumo para nuestros dispositivos tecnológicos, electrodomésticos y gadgets. Son objetos individualistas, nacionales y atomizados que controlan más de lo que nos controlarlos. En Control.Burble.Remote, esta relación se volvió del revés. El público se convierte en el intérprete del espectáculo y la relación de personas a sus mandos a distancia y el uno al otro es externalizada, comunal y urbano’. (Haque, íbid., 2010) 45 Véase en Cap. IV, La ciudad aumentada. Domesticación de la ciudad. 137 tecnológica cuyo escenario fue la Guerra Fría. Las visiones apocalípticas de holocaustos nucleares y la ficción de hallar un lugar-refugio en otro planeta libre de amenazas, fueron el caldo de cultivo de innumerables sueños utópicos. Como consecuencia de ello, el género de ciencia ficción adquirió gran popularidad. La década de los 50 trajo la edad dorada del cine de ciencia-ficción (fig.17). En esos años los ‘flying discs’ o platillos volantes colonizaron no solo las primeras planas de muchos tabloides si no todas las propuestas cinematográficas de ciencia ficción y algún que otro proyecto de arquitectura. El autogiro de Frank Lloyd Wright para su proyecto de Broadacre City, la casa Malin de John Lautner (Chemosphere 1960) o las Dymaxion Houses de Richard Buckminster Fuller forman parte de la iconografía. Spacewars, el primer juego de ordenador creado por Steve Russell vió la luz en 1962. Inició el camino de la representación del lugar digital vinculado a lo lúdico, una senda que hará evolucionar el dominio digital en un ámbito ajeno al militar y al entorno académico, aunque con sinergias claras entre ambos. Desde su origen, la industria del videojuego formaliza auténticas predicciones de la Revolución Digital, convirtiéndose en un ámbito prolífico y propicio para exploraciones vinculadas a los efectos del avance científico en la convergencia digital. Arthur C. Clarke (1917-2008), escritor y científico británico autor de obras de divulgación científica y de ciencia ficción como 2001: Una odisea del espacio, escrita en 1968, formuló tres leyes relacionadas con el avance científico: ‘1. Cuando un anciano y distinguido científico afirma que algo es posible, es casi seguro que está en lo correcto. Cuando afirma que algo es imposible, muy probablemente está equivocado. 2. La única manera de descubrir los límites de lo posible es aventurarse un poco más allá, hacia lo imposible. 3. Toda tecnología lo suficientemente avanzada es indistinguible de la magia’. Estos postulados hacen honor a su trayectoria, una de las más preclaras en el campo de la divulgación científica y de la ciencia ficción, junto a Isaac Asimov y Robert Heinlein. En 1959, Frank Lloyd Wright (Trejo 2006: 1) afirmaba que ‘para entender los hechos sociales es preciso renovar la capacidad de asombro’. Comparando la capacidad de asombro de un ciudadano del primer mundo46 contemporáneo, un individuo que según el arquitecto de 46 Recordemos que el Primer Mundo está abriendo una brecha digital con el resto que crece de manera exponencial. El término procede del inglés digital divide, utilizado durante la Administración Clinton para referirse a la fractura que podía producirse en los Estados Unidos entre "conectados" y "no conectados". Según Internet World Stats, en el 2010, 16 de los 1966 millones de internautas conectados, casi el 63%, vive en los países industrializados, donde reside el 15% de la población mundial. 138 formación pero más conocido como fundador y director del MIT MediaLab, Nicholas Negroponte, ha sido testigo del final de la Revolución Digital, con la del ‘mismo ciudadano medio siglo anterior’, estaremos de acuerdo en que esta capacidad de asombro ha disminuido considerablemente; se ha entumecido. En la década de los sesenta-setenta el imaginario colectivo de la ciencia ficción bullía de manera intensa –bien es cierto que también lo hacía por otras causas como los reajustes político-sociales. Las misiones del programa Apolo de la NASA, la existencia de vida extraterrestre, la inteligencia artificial,…etc, llenaban cientos y cientos de páginas. Hoy suscitan mayor asombro las nuevas aplicaciones de la próxima versión del iphone que el descubrimiento de rastro de agua en Marte. Fig.12.The Whole Earth Catalogue, 1969. Portada de la revista con foto de la NASA, La Tierra vista desde la Luna. Fig.13. 2001: A Space Odyssey, 1968. Director: Stanley Kubrick. Fig.14. HAL 9000, Ojo-cámara de color rojo. Odisea en el espacio. Director: Stanley Kubrick. La intromisión de la crisis ambiental en la esfera política a finales de los sesenta, principios de los setenta –ya se había proclamado en la académica años antes- precipitó la aparición de conceptos panhumanos como ‘Una sola Tierra47’ o ‘Un Futuro común’. Una conciencia ecológica nueva deriva hacia nuevas formas de compromiso y denuncia social frente a las generaciones futuras. En el marco de los origenes del desarrollo sostenible The Whole Earth Catalog, referente de la contracultura norteamericana, es publicado por Stewart Brand entre 1968 y 1972, y a partir de entonces de manera esporádica hasta 1998. Aunque los catálogos WEC enumeran todo tipo de productos para la venta -ropa, libros, herramientas, máquinas, semillas - cosas útiles para un estilo de vida creativo o auto-sostenible-, los catálogos Whole Earth no venden ninguno de los productos, en cambio, los proveedores y sus precios se enumeran junto con los artículos. Steve Jobs (2005) mencionó The Whole Earth Catalogue en su celebrado discurso inaugural del año académico 2005, en la Universidad de Stanford: 47 El informe encargado por el MIT al Club de Roma –creado en 1968- Limits to Growth, marcó en 1972 un momento de inflexión. El proceso creciente de mundialización de las actividades humanas hacía necesaria una nueva perspectiva sobre el planeta Tierra y su condición finita. 139 ‘Cuando yo era joven, había una publicación asombrosa llamada The Whole Earth Catalog, era una de las biblias de mi generación.... Era como una especie de Google en formato de papel, 35 años antes de que llegara Google. Era idealista y rebosaba de herramientas claras y grandes conceptos.’ Esta colección de propuestas presentada a modo de repositorio para llevar una vida alternativa a la que se proponía desde las administraciones de los países industrializados se alejaba de los modelos de crecimiento basados en la dupla progreso y riqueza. Una nueva Enciclopedie activista con formato Google en papel, como indica Jobs en la cita. La portada quedaba definida por la primera imagen de la Tierra tomada desde la Luna por la NASA (fig.12). Del mismo modo ‘el amanecer del hombre’, que daba nombre a la primera parte de la película de Stanley Kubrick 2001: Odisea en el espacio, proponía una secuencia inicial en la que puede verse la imagen de la Tierra saliendo sobre la Luna, a la vez que el Sol salía ascendía sobre la Tierra (fig.13). Basándose en una novela corta del escritor Arthur C. Clarke (2003) titulada El centinela, esta película de culto del género de la ciencia ficción marcó un hito por su comunicación audiovisual, misticismo y realismo científico, siendo este último atributo una novedad en la historia del cine. Resulta cuando menos curioso la tecnología que Kubrick imaginaba para un futuro que aun tardaría en llegar treinta años. Como asegura Waelder (2005), la figura del ordenador HAL 9000 (fig.14), un superordenador dotado de inteligencia artificial dista mucho de la generación de ordenadores de principios del siglo XXI. Su tamaño voluminoso lo delata como máquina primitiva, signo indiscutible de una época anterior a la aparición del Personal Computer. La disminución del tamaño de la tecnología electrónica es uno de los rasgos característicos de la industria del silicio. La computadora de a bordo HAL 900048, ‘Computador Algorítmico Heurísticamente Programado’ (Heuristically Programmed Algorithmic Computer) tenía la misión de supervisar la operatividad de la nave espacial Discovery, Hal 9000 poseía una Inteligencia Artificial49 que finalmente perdería la razón. Banham (1968) en su ensayo ‘The Triumph of Software’ publicado en New Society en 1968, reflexiona a cerca de la creciente sensibilidad relacionada con el software y los entornos responsivos (del inglés responsive) en contraposición a la sensibilidad que alimenta el hardware, ejemplificado en la película de Kubrick. Escribió sobre ‘el ambiente curvo, plegable, continuo, 48 ‘Después de que HAL parezca haberse confundido en un fallo de la antena de la nave espacial, los astronautas David Bowman y Frank Poole consideran desconectar sus circuitos cognoscitivos. Ellos creen que HAL no puede oírlos, pero no sabían que HAL es capaz de leer los labios. Enfrentándose a una perspectiva de desconexión, HAL procede a matar a Frank Poole mientras está reparando la nave, también mata a los otros miembros de la tripulación que estaban en animación suspendida. Dándose cuenta de lo sucedido, el astronauta David Bowman decide apagar a HAL. En la película 2001, HAL es representado no sólo con capacidades de reconocimiento de voz, reconocimiento facial y procesamiento de lenguaje, sino también con lectura de labios, apreciación del arte, interpretación de emociones, expresión de emociones y razonamiento’. (Fuente: Wikipedia). 49 Véase definición en el Glosario. 140 respirable, las superficies adaptables’ de la película Barbarella, yuxtaponiéndolo con ‘todo aquel plástico negro y metal pulido, y knobs e interruptores, todo ese…si…hardware! de 200150’ De nuevo una película marcará los designios en la década de los ochenta de la ciencia ficción. Ridley Scott dirigió Blade Runner en 1982 basada en la novela ¿Sueñan los androides con ovejas eléctricas? del escritor Phillip K. Dick51. La abstracción purista de 2001 Odisea en el espacio y 754 Fahrenheit dió paso a la humanización de la tecnología o tecnologización del ser humano, convertido en cibor. Las naves espaciales dejaron de ser pulcras estructuras exponentes de una civilización superior. La acción se traslada a entornos urbanos degradados, donde la naturaleza artificial ha eliminado cualquier huella de la naturaleza nostálgica de paraíso y la tecnología se encuentra en cualquier ámbito de la cotidianeidad. La escala tecnológica se vuelve humana y ergonómica al individualizarse y ocupar el espacio doméstico. Fig.15. Terminator, 1984, dirigida por James Cameron.Visión del cíborg Terminator T-800 modelo Cyberdyne 101. Fig.16. Neuromancer, 1988. Videojuego adapatado de la novela de Gibson, producido por Interplay Productions. Fig.17. Neuromancer, 1984. William Gibson. Portada de James Warhola. En ese mismo año de 1982 se lanzó al mercado el personal computer, con los modelos Commodore 64 y el ZX Spectrum de Sinclair. El ordenador ya no era un ser ominoso y las cuestiones acerca del futuro se desplazaron hacia el planteamiento de la condición de las personas en una sociedad en la que la tecnología había hecho posible la vida y la inteligencia artificial (Waelder 2005). Esta nueva imagen del futuro en la que el género de la ciencia ficción se conoce como ciberpunk describe una sociedad super-urbana en la cual el vínculo entre el ser humano y la máquina se diluye, circunstancia que supuso la revisión del concepto de interfaz, para que se permitiera al individuo operar la tecnología de un modo más ‘natural’; la visualización del código de programación se vuelve más gráfica y menos simbólica. La tecnología que en las décadas anteriores había aparecido en el entorno académico y militar 50 Fuente: <http://twelve.fibreculturejournal.org/fcj-078-plastic-super-models-aesthetics-architecture-andthe-model-of-emergence>. (Consultada el 1 de octubre de 2012). 51 Para ampliar información: Architecture and Science-fiction Film: Philip K. Dick and the Spectacle of Home. 141 trascendió a la sociedad civil. La expansión empleó como catalizador el ordenador personal. Finalmente, en 1984 Apple comercializó el primer ordenador personal que dispone de interfaz gráfica operada por medio de un ratón, a la vez que William Gibson publicaba Neuromancer, un auténtico referente en la ciencia ficción (figs.16 y 17) donde Gibson dibujó una visión de futuro en la que la relación hombre-máquina se vuelve cotidiano y generador de una nueva cultura digital. El término de ciberespacio52 aparece por primera vez en un cuento Gibson (1981) que forma parte del volumen Quemando Cromo53. El ciberespacio de Gibson, es una alucinación consensual experimentada diariamente por billones de legítimos operadores en todas las naciones, una representación gráfica de la información abstraída de los bancos de todos los ordenadores (computadoras) del sistema humano. Una complejidad inimaginable. A esta complejidad, matriz o ciberespacio, pueden ingresar los vaqueros de consola mediante implantes o electrodos, de modo que proyectan sus existencias dentro del ciberespacio. En la ficción de Neuromante54 (Gibson 1984), el ciberespacio tiene su origen en las primitivas galerías de juego, en los primeros programas gráficos y en la experimentación militar con conexiones craneales. A diferencia de la conexión actual con la virtualidad de Internet, Gibson propone una interacción inmediata y total con un dominio digital que contiene además un espacio perspectivo. Fig.18. Kronos, 1957, Dirigida por Kurt Neumann. Fotograma de la nave extraterrestre. Fig.19.The Walking City, Archigram, 1964. Proyecto de Ron Herron. Fig.20.Versión definitiva del AT-AT para el Imperio Contrataca, 1978. Dibujo de Joe Johnston. La proliferación de arquitecturas de la ciencia ficción en el entorno de Archigram55 y otros metabolistas -herederos de SantElia y otros futuristas italianos- como Gernot Nalbach, supera con mucho la capacidad de asombro de las propuestas fictíceas contemporáneas. La Ciudad Pneumática propuesta por el arquitecto austríaco Gernot Nalbach cuenta con una estructura móvil de la cual cuelgan esferas neumáticas habitables. Según Rodríguez (óp.cit., 2011) esta 52 53 Véase definición en el Glosario. Del inglés Burning Chrome. 54 Considereda como la referencia por excelencia del movimiento ciberpunk. 55 Cf. figs. 19 y 20. 142 Pneumo City (fig.22) servirá de referente un par de años después para Coop Himmelblau en su proyecto CLOUD I y deriva de otros experimentos realizados por el propio Nalbach como su Low Cost House. La construcción de una ciudad celeste o una ciudad que flote sobre las nubes es un arquetipo prolífico en la historia de la arquitectura de ficción. La colonia minera Cloud City existe como metrópolis flotante en el planeta Bespin del universo Star Wars. El propio Marinetti alude en el Manifiesto Futurista a las ‘fábricas colgadas en las nubes por los hilos de sus humaredas’. Uno de los proyectos más prometedores –aunque no construido finalmente- de las Olimpiadas celebradas en Londres en 2012, fue el proyecto The cloud (fig.23) diseñado por un nutrido grupo de arquitectos, ingenieros, artistas y técnicos entre los que se encuentran el MIT, Google, Umberto Eco o el artista digital Antoni Muntadas. The cloud consistía en un ambicioso sistema de visualización de datos, traslación de las estructura de datos en red o ‘cloud computing’. La sociedad de la información nutre al individuo de referentes tecnológicos reales con tal profusión que la capacidad de asombro tecnológico parece haber mermado considerablemente respecto a años atrás. Hoy por hoy, cuesta imaginar una tecnología que realmente fuera inviable o una arquitectura que no pudiera ser construida por con los avances técnicos ulteriores. Fig.21.Cloud City. Star Wars. Fig.22.Pneumo City. Gernot Galbach.1966. Fig.23.The Cloud. London 2012 Olympic Games. Con frecuencia el tamaño de la infomasa supera la capacidad de asimilar información de cualquier individuo. Es información lo que sobra, mientras la capacidad de análisis se torna cualidad indispensable. La imaginación sociológica (W. Mills 1959), aquella cualidad mental que contribuye a un mejor uso y análisis de la información y a desarrollar una razón para conseguir recapitulaciones lúcidas de lo que ocurre en el mundo y de lo que quizás está ocurriendo dentro de nosotros mismos, se posiciona como necesaria para devolver al individuo la perspectiva social que tenía en el siglo pasado. 143 3.2.2. Alteraciones cinéticas. Preludio de la simultaneidad y el dinamismo digital. ‘La arquitectura avanzada56 es, en efecto, decididamente dinámica. Propone el desarrollo de procesos más que la definición y acotamiento de sucesos. Opera por tanto con geometrías y organizaciones dinámicas, más cerca de órdenes diferenciales fractales que de órdenes absolutos euclidianos. De topologías elásticas y adaptables más que de retículas rígidas y universales. De lógicas digitales más que de modelos analógicos.’ Diccionario Metápolis de Arquitectura Avanzada, 1999. La percepción del ser humano obedece a un tempo implícito en la fisiología de los órganos sensoriales. Vulnerar esa condición supone acercarse a la realidad contraviniendo la genética de la especie e iniciando la exploración de un nuevo mundo que espera de ser descubierto57. Así lo entendió en el s.XVII el jesuita Kircher en su obra Ars Magna Lucis et Umbrae, Huygens en la construcción de la primera linterna mágica o Muybridge cuando, apuesta de por medio58, se propuso en 1873 averiguar si un caballo galopando mantenía siempre alguno de sus cascos en el suelo. Hoy en día la percepción del movimiento de las cosas no supone ningún reto. Los avances tecnológicos han logrado congelar el movimiento continuo más rápido de la naturaleza y editarlo digitalmente para su manipulación: explosión de una gota de agua al impactar con el suelo, impacto de un proyectil, aleteo de un insecto,…etc. Esta subversión no solo queda circunscrita a la capacidad de observación de nuestro entorno. El Entorno Aumentado supone la traslación de esta capacidad a la cotidianeidad. La revisión y manipulación del tempo predispone a la comprensión de los procesos desde un punto de vista no lineal. Así lo concibieron en 1957 Charles y Ray Eames, al comparar la escala humana y la del universo mediante una secuencia de zoom sucesivo operada según una escala logarítmica de base diez en su corto documental Powers of ten, y anteriormente, en 1945, Vannevar Bush al 56 ‘Que avanza, que marcha. Arquitectos caminantes frente a arquitectos contemplativos. Proposiciones frente a posiciones’. Federico Soriano en Diccionario Metápolis de Arquitectura Avanzada (Guallart et alt. 1999: 74). 57 Esta reflexión sobre la cultura de la imagen culmina con la interacción del usuario en la era digital. Transcurre en torno a la fotografía, cinematografía, radio y televisión e internet, y bien puede comenzar en el inicio del libro séptimo de La República de Platón (Bereguer 1991: 3): ‘Imagina una cueva que tenga una abertura que de paso a la luz’. Las imágenes y sombras que se proyectan en esa caverna, argumentaba Platón, absorben los sentidos de los espectadores e incluso les hace confundir la realidad. 58 El millonario Leland Standford, ex gobernador del estado y presidente de la Central Pacific Railway, quiso salir de duda. Apostó 25.000 dólares con unos amigos y contrató al mejor fotógrafo de San Francisco en aquel entonces, el inglés Edward Muybridge, para que resolviese la disputa mediante la fotografía, que sería considerada la única prueba indiscutible. Fuente: Wikipedia. 144 presentar el concepto de hipertexto –sin emplear la estructura narrativa lineal tradicional- en su artículo ‘As we may think’. Esta condición dinámica de la imagen tiene sus orígenes en dos fotógrafos cuyo trabajo resultó pionero y anterior a las vanguardias. El británico Eadweard Muybridge, seudónimo de Edward James Muggeridge, emigrado a los Estados Unidos en 1851, experimentó sobre cronofotografía obteniendo unos resultados que sentaron las bases para la invención posterior del cinematógrafo. Paralelamente en Francia, Étienne Jules Marey, fotógrafo y especialista fisiólogo, se hacía eco de los avances de Muybridge para implementarlos en su investigación sobre el movimiento. Muybridge afrontó la apuesta disponiendo a lo largo de una pista de unos 24 metros, veinticuatro cámaras fotográficas en serie paralelas a la trayectoria del caballo (fig.1). El caballo iba rompiendo los cables accionando sucesivamente una cámara tras otra. Este experimento resultó exitoso gracias a los obturadores que él mismo había fabricado y que procuraban una velocidad de hasta 1/500 segundos. Así fue como en 1887 Muybridge consiguió registrar fotograma a fotograma el galope de un caballo. Marey estableció las bases del cine actual -incluyendo el cine de animación- al inventar en 1888 el ‘fusil fotográfico’ (fig.2), un artefacto que replicaba la estructura de un fusil de la época, pero no disparaba balas si no que registraba hasta doce fotogramas a la extraordinaria velocidad de 1/700s. Su trabajo fue ampliamente publicado y supuso un referente para Thomas Edison y Louis Lumière, entre otros. Fig.1.Caballo en movimiento, 1878. Eadweard Muybridge, Kentucky . Fig.2.Fusil fotográfico, 1888. Étienne Jules Marey. Fig.3.Cronofotografía de un esgrimista, Étienne Jules Marey. Fuente: Hulton Archive/Getty Images. Más de un siglo después, en 1995, el artista chino Ai Weiwei realizó la acción Tirando al suelo una urna de la dinastía Han (fig.4); una serie de tres fotografías en blanco y negro que registran una secuencia en la que deja caer y rompe un jarrón de la dinastía Han, (202 antes de Cristo 220 después de Cristo). ¿Tendría la acción de Weiwei el mismo efecto si constara únicamente de una imagen, a la manera de la Cronofotografía de un esgrimista de Marey (fig.3)? 145 Fig.4.Tirando al suelo una urna de la dinastía Han, 1995. Serie de tres fotografías de una acción de Ai Weiwei. (El País, 16 de mayo de 2009). Weiwei no recurre al hiperrealismo de una cámara de video para mostrarnos la grabación del detalle de la ruptura sino que echa mano de la cámara fija. Frente al trabajo de Muybridge –cuya obra influyó decisivamente en artistas como Sol Lewitt- y Marei, no parece que para Weiwei sea tan importante mostrar el movimiento de la ruptura del jarrón como mostrar el antes, durante y después. La figura hierática del autor frente al drama de la imagen pretende reivindicar, en palabras del propio Weiwei, ‘una liberación espiritual, destinada a desembarazarnos nosotros mismos de la lucha clásica de identidad cultural e interpretaciones históricas. Es un gesto y una declaración para dignificar las acciones personales (…) A veces, necesitas una declaración para identificarte tú mismo, pero también para cuestionar la autoridad, cuestionar tu propia posición en algunos asuntos’. A pesar de la cualidad dinámica implícita en el movimiento de los objetos registrados en las fotografías de Muybridge y Marey -Caballo en movimiento y la Cronografía de un esgrimista-, estas responden a un patrón de comunicación lineal. Shannon & Weaver (1948) no hablarían de un receptor si no de un ‘destino’, como depositario del efecto que estos ejemplos pretenden comunicar. Este carácter lineal resulta asociado al primer nivel de pensamiento en la comunicación, su estadio más básico. Por el contrario, al observar la fotografía de Weiwei, el gran ensayista de la comunicación Harold Lasswell trataría de obtener una respuesta a su famosa pregunta, conocida como paradigma de Lasswell, ‘¿Quién dice qué a quién a través de qué canal con qué efecto?’. La mirada impertérrita del autor, el mensaje que quiere transmitir y la estructura tríptica que refuerza la condición dinámica temporal son cómplices de nuestro extrañamiento. Probablemente Lasswell desestimaría la condición lineal de los fotógrafos del XIX para esta imagen, al hacer notar la presencia necesaria del receptor. La condición dinámica en la comunicación corresponde a una segunda etapa más evolucionada que la lineal. El paradigma de Lasswell, divulgado por el autor en 1948, sigue en plena vigencia en una sociedad donde Internet y la comunicación a través ciberespacio dominan el proceso comunicativo. El dinamismo queda asumido por las tecnologías de nuestro tiempo en sus múltiples aplicaciones. La visualización de contenidos en el soporte digital se produce a menudo desde interfaces que permiten la simultaneidad y el dinamismo. Sin embargo, no es la 146 dinámica la forma más completa del proceso comunicativo. Frente a ella, la comunicación dinámica retroalimentada como principio de la comunicación efectiva. Como afirma Nosnik (1996) ‘la retroalimentación59 constituye una especie de ‘corazón ideológico’ (el término es de Collins y Porras, 1994) de nuestra comunidad profesional, una impronta de nuestro tiempo: ‘(…), la retroalimentación, o los intentos del receptor por alcanzar con ella al emisor, es el ingrediente que separa de manera dramática nuestro pensamiento "dinámico" del (anterior) lineal en comunicación. La segunda etapa de nuestro pensamiento en comunicación no solo es el reconocimiento de la existencia de un receptor (o varios, para el caso) al otro lado del proceso, ni siquiera es suficiente (…) reconocer sus capacidades (…) y su estado gregario irrenunciable (…). La concepción dinámica se tipifica, y significa un adelanto conceptual de primera importancia en nuestro quehacer, al incorporar a la retroalimentación como prerrequisito de la comunicación (efectiva). Si no hay retroalimentación, no existe la comunicación.’ Sin embargo, el propio Nosnik advierte de la imposibilidad material de lograr con eficacia la retroalimentación. Este hecho que se produce a menudo y que da al traste con la obtención de feedback puede superarse mediante una nueva forma de concebir el proceso comunicativo. En esta tercera y nueva etapa de la comunicación, Nosnik (1996) señala al receptor y su retroalimentación -o la evaluación que hace la fuente del impacto que tuvo ésta sobre su receptor- como los iniciadores del proceso. Es decir: ‘el proceso de la comunicación comienza, en un segundo nivel o momento, con la retroalimentación del receptor a su fuente y esta última, junto con el primero, trabajando para que dicha retroalimentación se convierta en un cambio progresivo, innovación o mejora que transforme el sistema (sea cual fuere éste) para beneficio de ambos.’ La publicación del Manifiesto Futurista en la primera plana de unos de los diarios de mayor tirada del planeta -Le Figaro en su edición del 28 de febrero de 1909- supuso el comienzo de un movimiento alineado en la vanguardia cultural. Marinetti enseguida lideró un grupo de artistas italianos burgueses cuya intención, entre otras, fue hacer apología de la tecnología, de la máquina. Su obsesión por romper con lo establecido le llevó a ensalzar la guerra como ‘única higiene del mundo’. 59 Véase proyecto Dream Hammar de Ecosistema urbano en Cap. IV, p.288 y en Cap.II, p.91. 147 ‘¡Camaradas! Os declaramos que el triunfante progreso de las ciencias ha determinado cambios tan profundos en la humanidad que ha quedado abierto un abismo entre los dóciles esclavos del pasado y nosotros, los libres, los que confiamos en la grandeza luminosa del futuro.’60 Fig.5.Retrato futurista de Marinetti. Tato Veronesi, 1913. Fig.7 (a y b). Rayos X de la mano de Berta Röntgen, diciembre de 1895. Rayos X de la mano de Albert Von Kolliker, enero de 1896. Autor: Albert von Kölliker. Esta ansia por el cambio indujo a los futuristas a ensalzar el automóvil, frente a la bicicleta, como paradigma de la modernidad que asume la velocidad, la espontaneidad y la simultaneidad de manera inequívoca. A diferencia de otras posturas visionarias que acontecieron en el siglo XX, el movimiento futurista no necesitó dibujar una ficción. La visión fraccionada y poliédrica del retrato futurista de Marinetti es precursora del zoom in-out que se puede operar sobre una imagen digital deslizando el índice por la rueda del ratón. Heredero de las Señoritas de Avignon que Pablo Picasso pintó en 1907, los futuristas se anticiparon a las posibilidades de visualización dinámica que ofrecen las tres dimensiones. Sin embargo, ellos pusieron el énfasis en la acción –veloz, muy veloz- y en la sensación, pero no en la información que esa visión dinámica añadía al estatismo perspectivo. Una nueva visión de la realidad y de la condición humana producto de los avances científicos y tecnológicos indujo la puesta en valor de la circunstancia dinámica por parte de pintores, escultores y demás artistas plásticos. Desde Marx hasta los futuristas, estos observadores de la modernidad consideraron la naturaleza del mundo moderno basada en el dinamismo (Sadler 2006). Así se transcribe en sendos manifiestos futuristas pertenecientes a la segunda generación de esta vanguardia. Làszló Moholy-Nagy postuló en Vision in Motion (1947) una determinación necesaria hacia el estudio de la dinámica de la modernidad o ‘Technology-in-flux’. Lo transcribió al Syllabus de Proyectos como una ‘búsqueda consciente de relaciones artísticas, científicas, técnicas, incluso sociales’ en ‘una especie de flash que conecta elementos que no se asocian de manera obvia’, 60 Boccioni, et al. (1999) ‘Manifiesto de los primeros futuristas (1910)’, en González, Calvo y Marchán (eds.), Escritos de arte de vanguardia 1900/1945, Madrid: Editorial Istmo, p. 143 (Fundamentos, 147). 148 creyendo que ‘si la misma metodogía era usada en de manera general en todos los campos tendríamos la clave de nuestro tiempo, resultando todo relacionado’. La ‘simultaneidad y compenetración de tiempos y lugares distintos cinematografiados’ que postulaba el punto tercero de la Cinematografía futurista61 proponía ‘2 o 3 visiones diferentes una junto a otra’. El manifiesto se hace eco solamente del automóvil o del avión, pero entre líneas subyace la enorme influencia que tuvo la publicación en 1905 de la Teoría de la Relatividad de Albert Einstein. La representación de la modernidad sólo podía realizarse mediante la simultaneidad62. Tanto este concepto como el de dinamismo hacen referencia a un tiempo circular, alejado de planteamientos lineales de índole platónico o hegeliano. Esta cualidad circular es la propia de nuestra contemporaneidad y la que prescribió el Barroco, en la figura de Leibniz. El paradigma digital ha modificado la noción de tiempo, solapando, o mejor, simultaneando múltiples planos de la condición humana. Abundando en el concepto de dinamismo, pero desde otro punto de vista más relacionado con la fenomenología de la percepción, hay que hacer notar la influencia de la velocidad en muchos arquitectos de los años veinte. Resulta evidente en proyectos imaginarios (1914-20) de Erich Mendelshon y en obras como los Almacenes Schoken de Stuttgart (1926-27), donde además el arquitecto dispone de la transparencia del vidrio para transformar el edificio en una gran luminaria reclamo nocturno de los transeúntes. Desde el punto de vista científico, la cinética se define como la energía que un cuerpo posee en virtud de su movimiento. Con frecuencia, el arte cinético, que alcanzó su apogeo de mediados de la década de los sesenta a mitad de los setenta, genera movimiento a través de máquinas que son activadas por el propio espectador. Gere (2007) apunta que el arte cinético se solapa temporalmente con el arte óptico, Op Art de los sesenta, con artistas como Victor Vasarely, Julio Le Parc y Nicolas Schöffer, sirviéndose de dibujos para crear ilusiones ópticas de objetos en movimiento, vibraciones o distorsiones. El término apareció por primera vez impreso en octubre de 1964 en la revista Time, pero las obras que podrían clasificarse como Op Art llevaban creándose desde mucho antes. En gran parte de las instalaciones digitales actuales es posible encontrar huellas del arte cinético y el Op Art, que experimentaba con ‘máquinas’ generadoras de luz y movimiento. La Aeropittura futurista supuso una mirada diferencial de la realidad. Contenía todos los ingredientes dinámicos de esta vanguardia italiana. Tullio Crali (1910-2000), autor de Incuneandosi nell'abitato (In tuffo sulla città) (fig.10), representó en este lienzo uno de los primeros soportes que más adelante aumentarían la percepción de la realidad con datos digitales: el HUD (figs. 11 y 12). El Head-Up Display o HUD incorpora en la cabina del piloto una pantalla dispositivo que permite sumar a la visión humana información digital con datos 61 Marinetti, F.T. et al. (1916) L‘Italia futurista, Milán. 62 Años después, la simultaneidad se volverá indispensable en el trabajo de grupos como Archigram. 149 relevantes para el vuelo. Resulta más que coherente como Cralli hace coincidir las líneas de fuga de los grandes rascacielos representados en esta perspectiva urbana con el chasis de la cabina del avión. Por otro lado, el higienismo como reacción a los despropósitos insalubres ocasionados por Revolución Industrial, así como la traslación a la disciplina arquitectónica de los nuevos materiales surgidos en el campo de la ingeniería -desarrollo de los sistemas constructivos basados en el hormigón armado y en los metales laminados- son dos pilares decisivos para la construcción de la nueva arquitectura del Movimiento Moderno y asumir el paradigma de la máquina. Si bien estos acontecimientos no suponen ningún anticipo destacable a la Revolución Digital, otros como el descubrimiento de los Rayos X influyeron decisivamente en el entendimiento de una nueva arquitectura cuyo interés no residía ya en lo evidente al ojo humano. Las publicaciones de Beatriz Colomina ‘La domesticidad en guerra’ o ‘Privacidad y Publicidad. La arquitectura moderna como medio de comunicación de masas’ exploran la relación existente entre arquitectura y comunicación, pero también proponen una revisión de la modernidad reivindicado avances científicos, como el descubrimiento de los Rayos X, como desencadenante y referente de arquitectos como Mies Van der Rohe. El 22 de diciembre de 1895, Wilhelm Conrad Röntgen manipulaba una placa fotográfica de cristal mientras la mano de su mujer quedaba expuesta durante quince minutos a los rayos que él mismo llamaría ‘x’, por desconocimiento de sus propiedades y utilidad. Los huesos de la mano de Berta y el anillo que portaba, dieron la vuelta al mundo y él obtuvo el premio nobel cinco años más tarde por este descubrimiento. No es de extrañar que este poderoso icono se convirtiera de inmediato en un referente arquitectónico. A partir de entonces se instauró en la cultura del proyecto la metáfora antropomorfa de ‘piel y huesos’, como el propio Mies describió su obra, en concreto su Rascacielos de cristal de 1925 (Colomina 2008). La superposición de planos de información si supone un anticipo a cierta manera dinámica de ordenar la información, inherente al dominio digital. Fig.8. Rascacielos de la Friedrichstrasse, 1921. Berlin. Mies van der Rohe. Fig.9. Glass Pavilion, planta y fotografía del Toledo Museum of Art, 2006. Toledo, Ohio. SANAA. La exteriorización del esqueleto arquitectónico se traslada directamente a propuestas como la apuntada por Mies van der Rohe en el Rascacielos de Cristal de 1922 (fig.8). El propio Mies 150 presenta el proyecto en el articulo ‘The pure form is the natural’63 de la revista G, apoyándose en una imagen de una radiografía de un cráneo. Frente a la transparencia, la cualidad especular de la envolvente. El entendimiento de la piel transparente como soporte de reflejos cambiantes, recuerda mejor al atributo dinámico característico del soporte digital –radicalizado en el entorno aumentado-. Lo que realmente cautiva a estos arquitectos del vidrio no son sus transparencias sino los reflejos que en él se producen, como diría Philip Johnson ‘un papel pintado’ que cambia y supone una fachada diferente a lo largo del día. Esto constituye una manera de añadir una capa de información extra al edificio, de la misma manera que el penado asume su condición imborrable y la socializa algún rastro de su biografía en un tatuaje carcelario. Fig.10. Incuneandosi nell'abitato (In tuffo sulla città), 1939. Tullio Crali. Fig.11 y 12. Mirage Head-Up Display, HUD, y zoom de la imagen. La arquitectura de reflejos como la que exhibe este pabellón de SANAA (fig.9) lleva a un grado más la incorporación de la imagen reflejada, al replicar en el interior la piel vítrea exterior, produciéndose una suerte de interiorización doble del exterior. La cualidad especular de la fachada convierte lo construido en una mimesis del colindante, a menudo cercano a retóricas vegetales. 63 Mies van der Rohe (1926), ‘The pure form is the natural’, revista G, nº 5-6, Abril. 151 3.3. Revolución Digital en la vanguardia artística. Cartografía de la emergencia cibernética. La llegada del Entorno Digital coincide con el contexto de la cibernética64, planteada en 1948 en la Teoría Cibernética de Norbert Wiener. La cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas. Es aplicable a los sistemas físicos o a otros como por ejemplo los sociales o los económicos. Nos situamos por tanto ante una materia transdisciplinaria. Para analizar las vías de implementación del Entorno Digital en lo arquitectónico resulta imprescindible conocer la influencia de la cibernética en las artes, pues esta relación deparó a su vez la transmisión de conocimientos hacia la arquitectura. La cultura cibernética surgió en torno a un conjunto de teóricos y artistas que abordaron experimentalmente este campo. La investigación propone una cartografía de los acontecimientos colectivos más relevantes de la primera época cibernética, desde los orígenes pre-cibernéticos a la década de los setenta donde la computación es mayoritariamente aceptada en la disciplina arquitectónica y surge la segunda generación cibernéutica, representada por Gordon Pask, cuya mirada hacia la relación objeto/sujeto tendrá una naturaleza bidireccional ‘conversacional’65. Entre la literatura examinada cabe destacar el catálogo correspondiente a la exposición celebrada en 2007, en la Fundación La Laboral, Feedback. Arte que responde a instrucciones, a inputs, o a su entorno, documento que describe la influencia cibernética en el arte. La incorporación del concepto de retroalimentación o feedback a la obra de arte tuvo una gran incidencia en la apertura de la disciplina arquitectónica a la computación. La computadora, tomada en la década de los sesenta como herramienta experimental en el campo artístico, arquitectónico, lingüístico y otros, fue objeto de continua experimentación transdisciplinar. La obra de los artistas que trabajaban con esta materia relacionada con el Entorno Digital era mostrada en exposiciones cuya transcendencia y repercusión fue capital. Sostiene Gere (2007: 1) que por feedback entendemos el proceso por el cual la totalidad o parte del output de un sistema vuelve o se retoma en forma de input. Si el feedback es ‘negativo’, el output será menor; mientras que si es ‘positivo’, el output aumentará. El principio de feedback, explotado por la ingeniería electrónica y la mecánica y utilizado también dentro del ámbito de la gestión y de la economía, es un fenómeno asimismo observable en sistemas biológicos y naturales. Se trata de un término fundamental acuñado por Norbert Wiener (1948) en Según Wikipedia, el término cibernética viene del griego Κυβερνήτης (kubernites, que se refiere al timonel, el cual gobierna la embarcación). La palabra "cybernétique" también fue utilizado en 1834 por el físico André-Marie Ampère (1775-1836) para referirse a las ciencias de gobierno en su sistema de clasificación de los conocimientos humanos. 64 65 PASK, Gordon (1969) ‘The architectural relevance of cybernetics’, Architectural Design, September, 494-496. 152 Cybernetics or the Control and Communication in the Animal and the Machine en plena posguerra, como explica el subtítulo del libro del pionero de la cibernética Norbert Wiener: ‘(…) o el control y la comunicación en animales y máquinas’. Un ejemplo de feedback negativo -muy anterior al registro del término- lo encontramos en el Governor o mecanismo de control inventado por James Watt en la década de 1780 para optimizar la potencia de la máquina de vapor: un regulador que giraba centrífugamente por acción de la presión del vapor. Cuanto mayor era la presión, más rápido giraba el mecanismo, acabando por elevarlo y abrir una válvula momentáneamente para liberar la presión sobrante, consiguiendo así regular la presión y disminuir la velocidad del mecanismo. Coincidente casi exactamente con la publicación de La riqueza de las naciones (1776) de Adam Smith, la invención de ese dispositivo de control puede considerarse un símbolo profético del incipiente capitalismo autorregulador estudiado por Smith. Los orígenes del feedback se remontan a las vanguardias históricas anteriores a la teoría cibernética. Algunas acciones de artistas dadaístas animaban al espectador a participar en la obra, como en el caso del gesto provocador de Max Ernst durante la segunda exposición Dadá celebrada en Colonia en 1920, al colocar un hacha junto a uno de sus cuadros. Los rotorrelieves de Duchamp y el Modulador Luz-Espacio de Moholy-Nagy (1928) podrían considerarse obras pioneras de lo que más tarde se denominaría ‘arte cinético’, junto con Standing Wave de Naum Gabo (1919–1920), los móviles de Alexander Calder y la obra del escultor suizo Jean Tinguely quien tras la Segunda Guerra Mundial continuó creando espectaculares móviles y obras en ocasiones concebidas para su autodestrucción (Gere 2007: 65). Moholy-Nagy también se erigió como autor de la primera obra ‘telemática’ con el diseño de una serie de intervenciones en papel milimetrado, cuyo producto final fué encargado posteriormente por teléfono a una fábrica de esmaltes. Cage y su entorno desarrollaron sus obras también en un contexto articulado, al menos en parte, en base a discursos como la cibernética, la teoría de la información y la teoría general de sistemas; unos discursos que aunque surgidos de inquietudes y necesidades diversas, produjeron un sólido pensamiento colectivo sobre el mundo como ente interconectado y autorregulador. Por otro lado, el teórico alemán de estética y semiótica Max Bense fue posiblemente el primero que intentó aplicar las ideas de la cibernética y la información al arte66. Entre los pioneros del arte informático influidos por Bense se encontraban Frieder Nake, George Nees -comisario de algunas exposiciones en Stuttgart junto a Bense- y Manfred Mohr67. 66 Existe un gran paralelismo entre Bense, en Alemania, y Abraham Moles, en Francia, quien en 1958 publicó Teoría de la información y percepción estética. (Gere, óp., cit., 67). 67 Ibíd., p.66. 153 En cierto modo, no fue necesario inducir a la vanguardia francesa a caminar hacia conceptos que trataban la información, los sistemas y la cibernética, ya que Francia había sido desde antes de la guerra el centro neurálgico del arte cinético, un movimiento que avanzó muchas de las preocupaciones de la cibernética. Durante la posguerra, en la década de los cincuenta, artistas como Nicolas Schöffer y miembros del Grupo de Investigación de Arte Visual (GRAV, Groupe de Recherche d’Art Visuel) y el grupo Nouvelle Tendence empezaron a crear obras cibernéticas, mientras que los miembros del grupo literario Taller de Literatura Potencial (OULIPO, Ouvroir de Littérature Potentielle) fundado en 1960, recurrían a técnicas matemáticas e informacionales. Concretamente, Schöffer fue uno de los primeros artistas en invocar explícitamente y en intentar poner en práctica en sus obras las ideas de la cibernética, feedback incluido. Muestra de ello es su serie Escultura Espaciodinámica, iniciada en la década de los cincuenta, y sus esculturas cibernéticas CYSP 0 (1956) y CYSP 1 (1956), además de sus arquitectónicas ‘torres de luz cibernéticas’. En Gran Bretaña, la principal vía de entrada de las ideas de la cibernética fue el Independent Group (IG), un amplio grupo de artistas, arquitectos, diseñadores y teóricos que a principios de la década de los cincuenta se reunió en torno al por entonces recientemente fundado Institute of Contemporary Art de Londres (ICA). Un cúmulo de intereses que se canalizó a través de diversas exposiciones, charlas y seminarios organizados en el ICA y en las secciones de estos artistas en la famosa exposición This is Tomorrow celebrada en 1957 en la Galería Whitechapel. Jasia Reichardt, durante su cargo como subdirectora del ICA organizó una de las exposiciones más conocidas del arte por ordenador: Cybernetic Serendipity68 (1968), considerada un hito seminal en el arte de los nuevos media de aquel primer periodo heroico (fig.1) con artistas, poetas y cibernéticos como Gordon Pask69, Bridget Riley, Edward Ihnatowicz, Charles Csuri y Wen Ying Tsai. Javier Seguí70 (2012b:177) recuerda que ‘el éxito de la exposición indujo a la elaboración de nuevos trabajos y experiencias que han llegado a encuadrarse en la denominación Computer art’. La exposición inspiró a toda una generación de artistas dentro y fuera de Gran Bretaña, y desembocó en la formación en 1969 de la Computer Arts Society, responsable de la celebración de una serie de exposiciones y acontecimientos que incluían el uso de ordenadores en una forma altamente innovadora y creativa para la época. La influencia 68 En agosto de 1968, coincidiendo con Cybernetic Serendipity, tuvo lugar en Zagreb (entonces en Yugoslavia y actual capital de Croacia) el simposio Computers and Visual Research que, a diferencia de Cybernetic Serendipity, analizaba los aspectos socio-culturales del arte por ordenador. 69 An approach to cybernetics, de Gordon Pask (1961), llamó en seguida la atención de Cedric Price, con el que colaboraría en varios proyectos. El proyecto de Pask Colloquy of mobiles para Cybernetic Serendipity, que encarnaba los fundamentos de la segunda generación cibernética (fig.2), reproducía una conversación teórica entre robots masculinos y femeninos. 70 Dscribe en Arte e informática el proceso de integración de sendas disciplinas acontecido en el Centro de Cálculo de la Universidad Madrid (1965-1982). 154 combinada de Cybernetic Serendipity y de la CAS propició la aparición de una cultura en Inglaterra, y especialmente en las escuelas de arte, que favoreció el florecimiento del arte realizado mediante nuevas tecnologías e ideas relacionadas. El británico Gordon Pask (1928-96), científico, diseñador, investigador, académico, escritor, y padre de la segunda generación cibernáutica, ejerció una influencia enorme en figuras tan relevantes de la arquitectura de la segunda mitad del siglo XX como Cedric Price, John Frazer (Architectural Association) o Nicholas Negroponte. Usman Haque (2007: 54) describía así la influyente trayectoria del cibernauta en The Architectural Relevance of Gordon Pask: ‘There has recently been a ground swell of interest in Pask’s work by architects, artists and designers, though his association with architects stretched back to the 1960s, through to the early 1990s, with collaborations undertaken in particular at the Architecture Association, London, and with the Architecture Machine Group at MIT (later to become the Media Lab)’. Es paradógico que Estados Unidos, cuna de la teoría cibernética y de numerosas invenciones tecnológicas relacionadas con la computación, se incorporara tan tarde, en 1965, a la corriente cibernética artística. En ese año, se celebró en la Howard Wise Gallery de Nueva York la primera exposición de arte por ordenador de los EE.UU71. En 1967, el Museo de Arte Moderno (MoMA) de Nueva York organizaba la conocida exposición The Machine as seen at the End of the Mechanical Age que coincidió con Some More Beginnings, una exposición sobre arte y tecnología presentada por el E.A.T. en el Brooklyn Museum. Fig.1.Catálogo de Cybernetic Serendipity, 1968. Londres. Institute of Contemporary Arts – ICA. Fig.2. Colloquy of Mobiles, ICA, London, 1968. Gordon Pask. Fig.3.Random walk, Manfred Mohr. 1969. Es a partir de los años sesenta cuando la tecnología comienza a formar parte del mundo del arte, en el sentido de ‘sistema tecnológico’. Las reflexiones complejas sistémicas acerca de la tecnología, la sociología y la estética derivan en la aparición de procesos y metodologías 71 La primera exposición del mundo sobre arte por ordenador había sido la organizada a principios de ese mismo año en Stuttgart por George Nees, Frieder Nake con la colaboración de Michael Noll. 155 abiertas y generativas. En torno a movimientos como Fluxus y el Conceptualismo72, los artistas analizan sistemas basados en instrucciones para crear obras de arte de índole política y culturalmente reactivas. La automatización en mayor o menor medida de los procesos que implica la estructura urbana en las ciudades de Archigram se opone a los dictados del planeamiento urbano concebido como proceso único en sí mismo. A principios de los años sesenta, el movimiento Fluxus y el arte conceptual exploraban la desvinculación del artistaautor con la obra, como por ejemplo hacía Sol LeWitt en sus dibujos murales. La búsqueda –a veces aleatoria- de procesos que enfatizan las variaciones de instrucciones formales abordaba líneas de investigación basadas en el concepto, el suceso y en la interacción del espectador. Las instrucciones que recibe una computadora codificadas en un lenguaje de programación influyen en las prácticas artísticas desde comienzos de la década de los sesenta. A menudo han derivado en procesos computacionales donde se conectaban los primeros plotters a las pantallas. Tal es el caso de Manfred Mohr y las imágenes creadas como consecuencia de complejos algoritmos que incluían decisiones aleatorias. Fascinado por la idea de una estética programada y con acceso a las potentes máquinas del Instituto Meteorológico de Parín, Mohr aprendió el lenguaje de programación Fortrand IV. Por medio del ordenador CDC 6400 y el ploter Benson 1286 desarrolló su investigación artística, considerándosele en ese campo un pionero. El 11 de mayo de 1971 su obra se expone en el Museo de Arte Moderno de París, en la muestra Computer Graphics - Une Esthétique Programmée. Javier Seguí73 transcribe en Arte e informática parte del texto del catálogo de la última exposición 1977-78 Art of Space era: ‘El arte generado con computador y el arte asistido por ordenador están todavía en su infancia. Por ahora no se puede tomar una postura crítica radical ya que, por el momento, no se puede hablar más que de experimentos.’(…) ‘Después de un período de gran excitación y optimismo, las dificultades técnicas han sobrepasado a algunos de los artistas que iniciaron el movimiento y han abandonado el campo. Hoy no son muchos los que continúan a la búsqueda de valores puramente estéticos’. 72 Gere, óp. cit., 68. 73 Óp. cit., p.177. 156 3.4. Revolución Digital en la práctica arquitectónica, 1945 -1970. ‘Cualquier hecho digno de señalarse durante estos años estará necesariamente ligado a algún aspecto de las transformacines experimentadas por la ciencia y la tecnología, transformaciones que han ejercido gran influencia sobre la vida del hombre y han abierto nuevas posibilidades de opción en el ordenamiento de nuestro destino colectivo’. Reyner Banham, La Era de la Máquina, Introducción a la 1ª edición inglesa, 1960. Reyner Banham (1960a) situó la Segunda Era de la Máquina (de la información) en la segunda mitad del siglo XX74, junto a ‘la aparición de la retropropulsión y los detergentes pero también del transistor y la computadora personal’. Sin duda, muchos interpretaron el colapso reincidente de la II Guerra Mundial como el fracaso de una sociedad racional que basó su crecimiento en el desarrollo de la máquina, lo que supuso el resurgimiento en la posguerra del interés por las ciencias sociales, incluyendo la lingüística. Las cartillas de racionamiento y los planes de reconstrucción de una Europa hecha añicos fueron el caldo de cultivo de estas disciplinas que ponían en solfa cuestiones básicas del ser humano y la sociedad. En la década de los cincuenta, la arquitectura igual que el resto de disciplinas también perdió brevemente el interés por la máquina en favor de las ciencias sociales. Sin embargo, la metáfora de la máquina nunca llegó a extinguirse, aunque habría que esperar veinte años para asistir al resurgimiento de la popularidad maquinista, después de la Expo de 1970 en Osaka. A lo largo de los años setenta y ochenta la estética maquinista cristalizó en edificios como el Centro Georges Pompidou de París (1977), la Lloyd’s de Londres (1986), y el Banco de Hong Kong y Shanghai (1986). Banham apuntaba al siglo XXI como la Tercera Era de la Máquina. De nuevo la máquina resurgiría renovada y compleja: ‘la bio-máquina replica organismos vivos’. Junto con el paradigma digital, la ecología ha ido incorporándose a las sociedades del mundo desarrollado. Así, la arquitectura ha visto enriquecida su condición con la asimilación de contenidos y estrategias ecológicas. El concepto de desarrollo sostenible y el conocimiento de la amenaza de cambio climático se oponen al imperativo de crecimiento económico sobre-acelerado de las grandes potencias en los setenta y ochenta. El desarrollo mecánico de la tecnología ha dejado paso a la biotecnología. La incorporación definitiva del dominio digital, en su desarrollo del diseño con algoritmos digitales, llevó en los noventa a incorporar la ecología a la arquitectura en una suerte de biomímesis. Como Deleuze y 74 La primera Era de la Máquina sucede en la primera mitad del siglo XX, inaugura lo que esperaba ser una serie de ‘Eras de la Máquina’. El Movimiento Moderno no escapó a la fascinación de la máquina (Banham 1960a), su metáfora esencial. 157 Guattari describieron: ‘con gusto earthy’ (con gusto terrestre). Banham afirmaba: ‘Nuestras máquinas de cada día se han vuelto más listas, más pequeñas, más portátiles, globales y más personales. Nuestra arquitectura, de hecho, las seguirá.’ En la década de los sesenta, los arquitectos incorporaron a la profesión conceptos de la teoría cibernética y de inteligencia artifical, pero también importaron modelos conceptuales procedentes de las ciencias cognitivas, la psicología de la Gestalt y la lingüística. Tras la conquista del estado del bienestar en Gran Bretaña, emerge en los años sesenta el concepto de ocio masivo, circunstancia capital para la aparición de proyectos como el Fun Palace de Cedric Price y Joan Littlewood. La introducción en la disciplina arquitectónica de metodologías de trabajo empleadas en el campo de la computación, así como la asimilación de los protocolos propios de los programas de procesado de información -el ‘producto’ informático propiamente dicho- suscitaron en los arquitectos un gran interés por revisar el proceso de diseño desde otros puntos de vista, en detrimento de la comprensión del proceso proyectual como la causa propicia de un resultado o diseño objetual. En este sentido, la incorporación de la computación descentralizó el papel exclusivo que el arquitecto había jugado en el proceso edificatorio del Movimiento Moderno. La computación aplicada al proceso de proyecto articulaba soluciones arquitectónicas que excedían con mucho al papel autista del arquitecto como único referente proyectual. El ordenador no se valoraba entonces como medio de comunicación en potencia sino como una inteligencia artificial capaz de sustituir al pensamiento humano. La incorporación al proceso de proyecto de otros técnicos, expertos en computación, en inteligencia artificial y en cibernética trajo a la profesión aires nuevos, a la vez que una capacidad técnica hasta entonces inabarcable para el arquitecto. Christopher Alexander, Cedric Price o el mismo Nicholas Negroponte, conocieron y colaboraron -no entre ellos- con figuras claves del ámbito de la computación. Encontraron en el proceso digital un referente en si mismo para sus proyectos. Estructuralmente abiertos, cambiantes con el tiempo y adaptables a nuevas circunstancias, los proyectos de los sesenta podrían, por fin, articularse en un marco dinámico que asimilara la incorporación continua de los nuevos datos, feedback cibernético. Negroponte y Price cuestionaron desde un principio el rol tradicional del arquitecto, llegando a definirse como ‘anti-arquitectos’. Alexander por su parte se opuso al ‘genio’ del arquitecto como mal endémico de la profesión75. Los arquitectos ‘contaminados’ por la computación negaron el proceso de proyecto lineal y lógico (crono-lógico) del Movimiento Moderno, transformándolo en un sistema de procesado 75 Véanse: Stanley Mathews (2003: 73), ‘An Architecture for the New Britain: The Social Vision of Cedric Price's Fun Palace and Potteries Thinkbelt’, Columbia University; Nicholas Negroponte (1975: 1) Soft Architecture Machines, Cambridge, Mass.,: The MIT Press; Serge Chermayeff and Christopher Alexander (1963: 116) Community and Privacy; toward a New Architecture of Humanism, 1st ed., Garden City, N.Y.,: Doubleday. 158 de información vinculado a datos arquitectónicos. El concepto de ‘sistema’ y de ‘proceso’ también recibió claras influencias de las ciencias sociales y del auge de la semántica, semiótica y otras ciencias linguísticas. El proyecto debía habilitar conexiones múltiples, en términos sociales (Smithsons). Esta nueva relación entre el proyectista y el usuario final irá incorporando sucesivamente un grado de interacción mayor. La noción de ‘sistema generativo’ implícita en aquellos proyectos se irá desarrollando y creciendo con el avance de la Revolución Digital. Concluida ésta y en pleno proceso de construcción del Entorno Aumentado, el incremento de la capacidad de interacción que supuso el soporte Internet sumado a los avaces en los programas de diseño asistido por ordenador, han implicado y favorecido la aparición de múltiples sistemas ‘generativos’ de diseño. En vez de representar gráficamente el proyecto de arquitectura con técnicas de dibujo, se proyecta con modelos ‘vivos’. La Segunda Guerra Mundial supuso un marco de investigación que muchos arquitectos aprovecharon para desarrollar nuevos prototipos y nuevas técnicas constructivas. Ron Herron, conoció la prefabricación de los productos de la Royal Air Force durante su servicio militar. Reynner Banham ejerció de aprendiz en la Bristol Aeroplane Company, compañía que producía 54.000 viviendas AIROH (Aircraft Industry Research Organization on Housing) de aleación ligera. Charles Eames diseñó prototipos industriales –muebles, tablillas de contrachapado para rigidizar las piernas heridas…- para la marina estadounidense. Jean Prouvé desarrollo sistemas prefabricados de alojamiento en Francia, mientras que Buckminster Fuller haría lo propio en los Estados Unidos para la Beech Aircraft Corporation con la Wichita House. La experiencia en los tiempos de guerra indujo en muchos arquitectos la veneración por la producción en línea de sistemas ‘kit’ de ensamblaje de piezas. 3.4.1. Integración conceptual. 3.4.1.1. Vía del Lenguaje tecnológico. ‘Arquitectura: saber construir. No sólo unos edificios: el campo de acción es más vasto. Se habla de arquitectura de una novela, de una sinfonía, pero también del cuerpo humano o del derecho romano. El uso del término ‘arquitectura’ es común también en el ámbito de la informática. ‘Arquitectura’ también significa ausencia de reglas preestablecidas es ella misma la que conduce a la creación de reglas. ‘Arquitectura’ implica una construccióna articulada, una construcción suficiente en sí misma.’ Yonna Friedman, L’ordre compliqué. La integración del dominio digital en lo arquitectónico se produjo en primer lugar en el plano conceptual, siendo el lenguaje el vehículo mediante el cual los conceptos gestados en el seno de la ciencia computacional se inocularon en la disciplina arquitectónica. La asimilación arquitectónica de conceptos tecnológicos provenientes del campo de la computación conllevó el trasvase obligado del léxico tecnológico (tecnicismos) cuyos conceptos estructurarían un 159 discurso arquitectónico nuevo. Su proliferación, más o menos afortunada, reproduce aspectos del concepto original relacionados con la sintaxis, la semántica o la pragmática76. Se dió la paradoja de que la utilización de terminología computacional en el entorno arquitectónico no necesariamente implicaba el conocimiento y uso de la computadora por los arquitectos que empleaban esas voces. Esta circunstancia se originó, en primer lugar, en el grado cero arquitectónico correspondiente a la fase preliminar del proyecto. A menudo, supuso el desencadenante o punctum proyectual que marca la pauta de la estrategia proyectual77. La primicia del tecnicismo contrapuso fácilmente su semántica a otros argumentos existentes, aunque no necesariamente se impuso la semántica a las otras cualidades estructurales del lenguaje. El contagio de las nuevas voces no fue tan acelerado como sucede actualmente. La diversidad y cantidad de las publicaciones arquitectónicas de los sesenta eran muy inferiores a las actuales. Arquitectura interfaz, on-line, network, brainstorming process, on-site, open source,…etc., son una muestra del catálogo contemporáneo que se renueva año a año con la actividad de cientos de blogs y revistas especializadas conectados por la Red. Las propiedades combinatorias de la sintaxis del nuevo término técnico solucionaron con frecuencia este mestizaje de tecnología y arquitectura. La adaptación del tecnicismo podía implicar el cercenar parte de su estructura original para sustituirla por un prefijo o sufijo vinculado al entorno arquitectónico, como por ejemplo ciber-arquitectura. Asimismo, el uso pragmático del léxico derivaba en interpretaciones vinculadas a situaciones concretas. La utilización de tecnicismos por parte de arquitectos o críticos referidos al proyecto de arquitectura o cualquier otra parte de la disciplina, transformaba el significado original. Afirma Rouillard (2012: 29) que la primera vez que se introdujeron las TIC en al análisis urbano o en proyectos de planeamiento, correspondió a la fase de ideación del proyecto apuntada anteriormente. El concepto ‘conexión’ que subyace en los proyectos del Team X78 , compartido después por otros situacionistas, estuvo y está vinculado a las TIC. Este trasvase disciplinario derivó en el advenimiento de un vocabulario nutrido de tecnicismos que acuñaban los nuevos conceptos según iban siendo inventados por los ingenieros de la computación. La ‘conexión’ entre las partes urbanas, anteriormente segregadas en la Villa Radieuse, sería puesta en entredicho por el Team X en beneficio de un tejido urbano más rico, complejo e inductor de interacciones ciudadanas; un tejido alejado del determinismo moderno, capaz de asumir la 76 Noam Chomsky (1965) publicó su gramática generativa, que proporcionaba un conjunto de reglas o principios que predecían correctamente las combinaciones aparecidas en oraciones gramaticalmente correctas para una determinada lengua. Las ideas básicas de los modelos incluidos en esta corriente tenían su origen en la teoría estándar formulada por Chomsky. 77 ‘Se proyecta contra algo del presente’, Javier Seguí (1996:32). 78 En oposición a la segregación estática de usos en la ciudad CIAM. 160 oportunidad de nuevas situaciones vinculadas a la aleatoriedad y al cambio. Estas propiedades alentaban a pensar en estructuras sistémicas complejas semejantes a las empleadas en computación, en tanto que podían admitir la programación de un marco de aleatoriedad y dinamismo. El vocabulario surgido en torno al concepto ‘conexión’ (circulación, fluido, asociación, cluster, nodo, red,…etc.) tuvo su continuidad en el tiempo, llegando así hasta nuestros días, en que los proyectos valoran los procesos colaborativos en tanto que conectores de aspectos múltiples relacionados con los agentes que intervienen en el encargo arquitectónico. El uso del concepto de conexión que habilitaron los Smithson79 en sus proyectos es heredado por estudios que abordan el edificio o el planeamiento como un continuum fluido. En este sentido, el uso de la computadora como herramienta de proyecto posibilita la intervención de otros agentes, asi como la actualización constante del flujo de información, de modo que la estructura urbana gana en adaptabilidad y ‘conectividad’ al medio. La década de los sesenta fue testigo de la aparición de las grandes megaestructuras como planteamientos que asumían los nuevos retos político-sociales de ese periodo convulso. La utopía quedaba planteada por Archigram o Superestudio en proyectos como Plug-in City (196264) o Walking City (1962). A principios de la década, la computación empezó a ser comprendida, de alguna manera, como algo más que una ‘ayuda’ en el proceso de proyecto técnico (íbid., 19), quedando de manifiesto el potencial de la ciencia de la computación para el desarrollo de sistemas arquitectónicos. El descubrimiento de la tecnología de la computación por la disciplina arquitectónica tiene sus orígenes en una fase anterior a este contagio linguístico. Esta fase anticipatoria preliminar comienza con el fin de la Segunda Guerra Mundial. Los avances acontecidos en la ciencia de la computación antes y durante la contienda comenzaron poco a poco a ser visibles al término de ésta. La civilización de la tecnología militar tuvo dos canales de comunicación fundamentales: la divulgación científica en los medios y la ciencia-ficción en la literatura y el cine. Las propuestas del Team X responden al enfoque arquitectónico de una nueva generación de arquitectos que reniega de la generación anterior. Alison & Peter Smithson (nacida el 1928; nacido el 1923), Bakema (1914), Candilis (1913), Van Eyck (1918), Woods (1923) o De Carlo (1919) forman parte de una generación de arquitectos80 cuyos años de juventud transcurrieron durante el conflicto. Casi todos comenzaron su etapa profesional al terminar el conflicto. En esos primeros años de posguerra, la prensa publicaba los avances científicos en computación y robótica; enseguida daría comienzo la Guerra Fría tecnológica. Pero la generación del Team X 79 Rouillard, íbid., 29 se refiere a los proyectos de los Smithson como ‘proto-TIC’, ‘no tienen nada que ver con la tecnología de la computación, pero contienen muchas de las aspiraciones de proyectos que emanan de las nuevas tecnologías’. 80 En 1956, en el CIAM X celebrado en Dubrovnik, estos arquitectos tenían una media de 36 años. 161 también desarrolló su primera etapa profesional en la década de oro de la ciencia-ficción cinematográfica (los años cincuenta). Rouillard (ibíd.: 19) señala cómo estos referentes en particular ayudaron a desarrollar el potencial de una inexplorada y menos aun usada tecnología de la computación. Las sinergias que se producen entre la arquitectura y la ciencia-ficción se traducen en la habilitación por parte de esta última de la conexión del entorno arquitectónico con la tecnología electrónica. Reynner Banham consideraba (Rouillard 2007) The caves of steel (Asimov 1953) como uno de los ‘textos sagrados’ de los arquitectos. La transversalidad (de nuevo = conexión) entre disciplinas se pone de manifiesto en la ‘complejidad y significativa estratificación que Alison y Peter Smithson aplicaban a su colección de anuncios: ‘Literatura dublinesa, Time, Cibernética, Filosofía China y Cosmetica’81. La instalación ‘Parallel of life and art’, celebrada en 1953 en colaboración con Nigel Henderson y Eduardo Paolozzi, inducía al visitante a participar en cuatro juegos de asociaciones semánticas. Más adelante los Smithson se referirían a ello como ‘juegos de contrapunto’ o ‘juego de palabras y referencias cruzadas82’. La colección de imágenes se agruparía según el siguiente orden: Anatomía, Arquitectura, Arte, Caligrafía, Fecha 1901, Paisaje, Movimiento, Naturaleza, Primitivo, Escala humana, Estructura Stress, Fútbol, Ciencia Ficción, Medicina, Geología, Metal y Cerámica (Van den Heuvel 2004). Tres años más tarde, en 1956, Henderson, Paolozzi y los Smithson presentaron su instalación Patio & Pavilion en la exposición This is tomorrow celebrada en la Whitechapel Art Gallery de Londres, donde coincidieron con otros once grupos de pintores, arquitectos y escultores. Uno de esos grupos combinaba en su propuesta imágenes de Hollywood y películas de ciencia-ficción con ilusiones ópticas de Duchamp y la Bauhaus. La exposición anual que cada año esponsorizaba el Daily Mail trataba de dar una respuesta al futuro a medio plazo de la vivienda, en referencia a la integración de las tecnologías de última generación en el ámbito doméstico83. Los Smithson participaron en la edición de 1956 con su prototipo La casa del futuro. Si bien la propuesta contaba con lo último en electrodomésticos y tecnologías electrónicas, incluyendo dispositivos visionarios84 aportados por los patrocinadores, no hay rastro alguno de la tecnología computacional. El proyecto debía prever cómo sería una 81 ‘Gropius escribió un libro sobre silos de grano. Le Corbusier, otro sobre aviones. Y Charlotte Perriand traía un nuevo objeto a la oficina cada mañana; pero hoy coleccionamos anuncios’. Smithson, Alison y Peter (1956) ‘But today we collect ads’, Ark nº 18. 82 Compárese con Ars Magna de Llull. 83 ‘¿Por qué 25 años? Porque encontramos un consenso de opinión entre los expertos que consultamos a cerca de que ése era el periodo en el que podrían producirse tantos cambios revolucionarios como en los últimos cien años; cambios no solo en nuestra forma de vida, sino también en el diseño y las técnicas de construcción de casas en las que viviremos’ Smithson, Alison y Peter (1956) House of the future, p. 97. 84 Véase, en Cap. IV, La vivienda aumentada. Ciudadanización de la domus. 162 vivienda suburbana en veinticinco años. Aunque en 1981 la integración del ordenador personal en la vivienda británica comenzó a implantarse de modo irreversible junto con algunas consolas de videojuegos, es evidente que Alison y Peter Smithson no adivinaron la progresiva merma de tamaño que experimentarían las computadoras de los cincuenta, y que permitiría su integración posterior en cualquier vivienda, por pequeña que fuera. Las oficinas de arquitectura de la década de los cincuenta carecían por completo de tecnología informática; es más, la gran mayoría desconocía el alcance de la nueva tecnología informática. Ahora bien, desde principios de la década queda constancia por parte de algunos arquitectos, que pronto fundarían el Team X, del uso de léxico tomado del entorno de la computación. A finales de los años cincuenta, las sinergias surgidas entre computación y arquitectura era manifiestamente conocida al menos a nivel léxico por arquitectos jóvenes como los que fundaron Team X. El nuevo lenguaje que nacía con la ciencia de la computación se nutría de una terminología técnica que no solo de sustantivaba componentes nuevos de software y hardware sino que producía un vocabulario explícito vinculado a las nuevas arquitecturas computacionales. Conceptos diversos para explicar acciones que sucedían tanto en el interior de la máquina como en el exterior que definía la interfaz hombre-máquina: protocolos, sistemas, conexiones,…etc. Las relaciones sintagmáticas que construyen términos empleados en la disciplina arquitectónica tomados de la tecnología computacional no se ajustan a menudo al significado original técnico. Mientras que el funcionalismo y el estilo internacional depuraban los propósitos higienistas que el Movimiento Moderno trató de contraponer a los efectos insalubres de la Revolución Industrial, el Team X asumía campos de investigación nuevos de origen ajeno a la construcción de edificios. Las características de la arquitectura computacional85 deparaban una organización de la máquina en base a la instalación de dispositivos electrónicos en una estructura base que habilitaba las conexiones necesarias. La conexión fluida de información, por un lado y aporte energético por otro, dibujaba el diagrama de funcionamiento cibernético. La información es enviada por la computadora a través de los periféricos. Este concepto arquitectónico (tan arquitectónico) traspasó los límites de la disciplina que lo engendró pasando a formar parte de otras disciplinas como la economía, las ciencias sociales o la arquitectura. El Team X asumió los conceptos de la arquitectura computacional y los incorporó en la construcción de una nueva topología que regulara el proyecto arquitectónico como si de una computadora se tratara. Estos efectos atañen a la configuración del edificio, pero también al espacio que fluye en su interior, dando por entendido el edificio como una carcasa que conforma cauces por donde fluye información en forma de usuarios, mercancías, energía,…etc. Pero también se refieren a la 85 Así es como la rama de conocimiento de la ciencia de la computación que se ocupa del diseño conceptual y la estructura operacional fundamental de un sistema de computadora. 163 cualidad estética de las propuestas del Team X. La estética mecanicista86 de la Revolución Industrial asumida por el Movimiento Moderno fue reemplazada por otras estéticas vinculadas a la tecnología, como por ejemplo la computacional. En muchos casos esto se tradujo en el cambio de referentes formales que representan el abandono del contenedor como estructura que integra y aloja las partes, en favor del sistema de conexión ‘Plug & play87’ donde las partes se muestran como dispositivos autónomos conectados o ‘enchufados’ entre sí. Los perfiles laminados, el vidrio, los acabados de la envolvente que favorecen la percepción pulcra platónica, sin que se perciban los ensamblajes ni las juntas, dejarán paso al plástico88, a la arquitectura de válvulas y conexiones axiales. Ciudad relacional vs ciudad segregada El énfasis en ‘fluir’ más que en otras formas arquitectónicas, el interés en la relación entre el objeto, por ejemplo arquitectura, y su entorno, más que en el objeto en sí mismo (Rouillard óp.cit., 2012) fue uno de los fundamentos de la nueva arquitectura. El mismo enfoque lo aplicarían a la escala urbana. La segregación de usos dispuesta en el modelo de ciudad del Movimiento Moderno –en Ville Radieuse por ejemplo - y la respuesta escueta de éste a la especificidad de las condiciones relacionales entre ciudadanos, supuso el rechazo del Team X a este modelo urbano. Como reacción a la segregación funcionalista de los CIAM (travailler, habiter, cultiver le corps et le espirit y circuler), La Malla de Alison y Peter Smithson presentada al CIAM IX celebrado en Aix-en Provence (Francia) en 1953, proponía una reinvención de la jerarquía urbana ‘Urban Re-identification Grid’ en base a los siguientes elementos asociativos: la casa, la calle, el distrito y la ciudad. La propuesta de ciudad ‘relacional’ anticipó la conectividad de la ciudad contemporánea que habilitan las redes informacionales como Internet. El concepto de conexiones interpersonales múltiples en un sistema estable que permite variaciones temporales en su configuración fue el hilo conductor del discurso de muchos 86 ‘Nuestra generación heredó el periodo heroico y la acogida al periodo maquinista del movimiento moderno, y tuvo que ampliarlos a nuevos modos. Se tuvo que inspeccionar la verdadera cara de la cultura de la máquina, que no es la que vio la generación que la originó, como un acto de imaginación e invención. Esa cultura de la máquina parece ahora que reclama un esfuerzo de conexión para extenderse tanto al ámbito real como al ideal’. ‘Acoger la máquina’ (To embrace the machine), 25 de enero de 1974. (Smithson 1994). 87 Véase definición en el glosario. 88 En House of the future el edificio es entero de plástico y está lleno de objetos de plástico. Las sillas diseñadas por los Smithson y fabricadas por Thermoplastics Ltd. 164 arquitectos de la época. Así lo representó Peter Smithson en el ideograma Play Brubeck89 (fig.2). La interacción del ciudadano con la urbe, la comprensión de las circulaciones y conexiones como si se tratara de flujos cuyas características pueden ser perfectamente analizados en un laboratorio y la disposición inteligente del programa teniendo en cuenta los efectos que provocan en el contexto, son apuestas arquitectónicas de esta generación de arquitectos. Fig.1. Mapa de Paul-Henry Chombart de Lauwe, 1952. Paris. Fig.2. Play Brubeck, 1958. Peter Smithson. Fig.3.Nueva York, Foursquare checkins. Zachary Seward. Rouillard90 compara el ideograma con el que desarrolló en 1952 el sociólogo francés PaulHenry Chombart de Lauwesdonde que registraba todos los movimientos de una estudiante de ciencias políticas en París (fig.1). Tres vértices (su casa, la universidad y la casa de su profesor de piano) dibujan un triángulo. En sendos diagramas, el trazado de las conexiones y los nodos configuran un sistema de trayectorias que habilita una estructura prefijada por las cualidades de esos nodos, lugares en la ciudad en el caso francés o individuos en el caso inglés. En el Entorno Aumentado la conectividad ciudadana ha alcanzado la interacción en tiempo real. Tal es el caso del programa Foursquare91 que visualiza los datos referentes a la localización del usuario en la ciudad. Como ejemplo, el mapa de Nueva York de Zachary Seward (fig.3), donde sus ‘check-in’ ‘on line’ configuran una geometría personal de la ciudad. 89 Publicado con el siguiente texto original: ‘Ideogram of net of human relations. P.D.S. A constellation with different values of different parts in an immensely complicated web crossing and recrossing. Brubeck! a pattern can emerge.’ (Smithson 1968). 90 Ibíd., p.19. 91 Foursquare es una aplicación digital que pertenece a los ‘locative media’ o dispositivos que localizan la posición del usuario (de una terminal de telefonía móvil). Se trata de poder obtener un mapa de los lugares donde ese individuo ha estado en función del parámetro que este quiera medir: ocio, deporte, etc. Fuente: <Mapping cyberspace, Martin Dodge: http://www.mappingcyberspace.com/gallery/>. (Consultada el 10 de junio de 2013). 165 Fig.4. Maqueta de la Freie Universität de Berlín, 1972. Candilis, Josick y Wood. Fig.5. No-return diagram, 1998. Yokohama Port Terminal, Foreign Office Architects. Fuente: Adam Rohaly. La materialización del diagrama de flujos ha dejado muy diversos ejemplos en cuanto a las cualidades topológicas propuestas. El ‘mat-building’ o edificio alfombra, cuyo ejemplo construido más destacable es la Freie Universität de Berlín de Candilis, Josick y Wood de 1973, propone una condición bidimensional para resolver una arquitectura relacional que evolucionará a su vez (Yuhan Zhu 2009) con la adición de una tercera extensión, adaptando las 2D a 3D. Tal es el caso de la Terminal Portuaria de Yokohama de FOA (fig.5) o de otras propuestas que a diferencia de ésta emplean geometrías de crecimiento fractal. El celebrado espacio ‘gusano’ de la terminal proyectada por FOA, que tanto recuerda al espacio de un videojuego, fue representado mediante una sección cinemática, o serie de cortes trasversales sucesivos92. Esta técnica de representación en cierto modo introducía la variable del tiempo en la retórica gráfica del proyecto. Fig.6. Scaner craneal. Fuente: FOA. Fig.7. Internet cartography, Japan cities, 2006. El Entorno Aumentado propone cartografías que integran el espacio del Entorno Digital y el lugar del Entorno Físico93. Esto supone que la capacidad del tejido generativo generativo 2D o 92 Cf. Fig.6, también utilizada por FOA. 93 Véase catálogo cartográfico (Dodge & Kitchin 2000) y en <http://www.mappingcyberspace.com/>. (Consultada el 28 de agosto de 2013). 166 3D de los ejemplos vistos multiplica su capacidad informacional, siendo precisa una conectividad mayor entre los dominios que confluyen (fig.6). Un lugar aumentado podrá disponer de cartografías que describan su espacio virtual digital94, cartografías tradicionales relacionadas con su geografía física y cartografías ‘aumentadas’ que describan la coexistencia de sendas informaciones en base al diagrama (fig.6) propuesto por Batty (1997:341). 3.4.1.2. Vía del lenguaje retórico. La temprana transfusión de conceptos propios de las ciencias de la computación a la disciplina arquitectónica fue complementada con la influencia de la estética de computacional y de las TIC. La producción de tecnologías electrónicas se comercializaba con un marketing que trataba de sugerir modernidad y ciencia. La transferencia estética sucedió de modo transdisciplinar y por supuesto afectó a la producción arquitectónica. La sistematización y estandarización de símbolos, lenguajes y procedimientos procedentes de la estética computacional tuvo una finalidad persuasiva y comunicativa que acercaba lo arquitectónico al entorno de la computación y de las TIC. Las estructuras plug in (‘enchufadas’), la aleatoriedad del randomness o la influencia de las nuevas tipografías digitales empleadas en los monitores de la computadoras o en las pantallas de otros dispositivos electrónicos, propiciaron en los sesenta una eclosión de la estética digital. Como respuesta al programa espacial soviético y al lanzamiento del primer satélite artificial Sputnik I el 4 de octubre de 1957, la administración de Eisenhower acordó la fundación de una nueva agencia federal que coordinara la actividad espacial civil. En 1958, unos ocho mil empleados trabajaban en la NASA: la Carrera Espacial estaba servida. Emprendida en el comienzo de la Guerra Fría, incorporó multitud de ejemplos al imaginario colectivo de los arquitectos de la década de los sesenta. La ingeniería aeronáutica producía gran cantidad de prototipos cuya construcción era analizada minuciosamente por la vanguardia arquitectónica. Fig.8.Airstream y portada de Life. Fuente:<http://www.airstream.com/company/wallys-creed/> Fig.9. Auto Union ‘Wanderer Streamline Special’. Carrera de larga distancia Lieja-Roma-Lieja, 1939. Un cambio radical tuvo lugar en el sistema constructivo de aeronaves. Los diseños comenzaron a alejarse del volumen compacto de superficies lisas de aluminio que había servido de referente en el diseño industrial streamline para mejorar el coeficiente aerodinámico y así ahorrar combustible. Anteriores diseños como la caravana Airstream de Hawley Bowlus (primer prototipo The Clipper, 1936), el Wanderer Streamline Special (1939) o la Wichita House de 94 Véase fig.7, mapa conceptual de las ciudades japonesas y su conexión a Internet. 167 Buckminster Fuller, referentes de aquella estética que con profundos fundamentos aerodinámicos influyó decisivamente en el diseño de transportes y de arquitecturas capsulares, dejaron de influir en la vanguardia del diseño. Frente a la prioridad aerodinámica, la estética plug in propuso otro orden topológico fundamentado en el concepto de ensamblaje. La preferencia por el objeto integral monovolumen, con una única y prístina envolvente, cesó en favor de la agrupación de elementos acoplados a una estructura base. Tipografías digitales La historia de la arquitectura deja un preciado rastro en las tipografías. Los arquitectos que han innovado la profesión a menudo escogieron el estilo de los caracteres que complementaban la información gráfica con la misma dosis de rigor que aplicaban a sus proyectos. Así, la tipografía que rotulaba los planos de Le Corbusier (fig.11), recuperada en los planos de Alison y Peter Smithson (fig.12), recordaba a los caracteres pintados a pistola sobre troquel en el verde caqui de los transportes blindados de la Segunda Guerra Mundial. La estética de la máquina dejaba también su impronta en este campo, mientras otros exploraban posiciones más cercanas a la naturaleza orgánica; no por casualidad, se rotulaba a mano en el estudio de Frank Lloyd Wright. Fig.9 y 10.Cartel anuncio de la conferencia en Folkstone y detalle, 1966. New Metrople Arts Centre. Archigram. Fig.11.Rotulación del Plan director de Bogotá, 1950. Le Corbusier. Fig.12.Rotulación del concurso Golden Lane, 1952. Alison y Peter Smithson. A principios de la década de los sesenta, los proyectos de Archigram heredaban a su vez los tipos de los Smithson. Pero de modo asíncrono a cómo evolucionaban sus proyectos, la información grafiada en los planos se iba nutriendo de terminología procedente de otros campos, como la computación, incorporando así la estética digital en sus textos. A este respecto, el panfleto que anunciaba la Conferencia Folkstone, coordinada por Archigram el 1011 de junio de 1966 en el New Metropole Arts Centre, resulta una pueba de análisis pertinente a esta impronta de la estética digital. La figura 9 muestra una composición narrativa en base a multitud de tipografías combinadas en diversos tamaños. La información del anuncio presentaba a todo un elenco de primeras figuras de la arquitectura de vanguardia de la época. Los tipos mecanografiados se mezclaban con caracteres propios de la estética pop. La conferencia debía resultar un Foro Internacional para el Diálogo de la Arquitectura Experimental, cuyo acrónimo en inglés era ‘IDEA’. En la esquina inferior derecha del cartel puede leerse una llamada de atención indicando el símbolo de IDEA (fig.11). Como se puede observar, la tipografía empleada en el acrónimo es completamente diferente al resto. Corresponde a una tipografía que 168 replica un tipo digital propio del monitor de una computadora. Archigram, autor del diseño, adviertió su condición simbólica girándo la palabra. Los formatos tipográficos digitales, también llamados fuentes, instalados en un directorio del sistema operativo de la computadora resultan independientes del programa que se opere. Hoy en día casi todos los programas procesados en una interfaz gráfica de usuario admiten el uso de una tipografía digital muy variada. Como es de suponer, esto no siempre fue así. Las características de las tipografías empleadas en la computación debían satisfacer simultáneamente exigencias como la condición escalable de sus tipos, la compatibilidad con los diferentes sistemas operativos o la similitud máxima entre la impresión de los caracteres en papel y la vista en la pantalla. Las primeras computadoras heredaron las tipografías de las máquinas de escribir, las fuentes monoespacio, llamadas así porque la máquina habilitaba un único espacio común a todos los caracteres (dígitos). Este es el caso por ejemplo de la tipografía Courier. Los caracteres de palo sufrieron la pertinente transformación. En ocasiones, vieron deformada su silueta asumiendo curvas procedentes de logos digitales. Años más tarde aparecieron ordenadores que funcionaban con tarjetas perforadas que permitían introducir programas en el computador. Durante los años 60, la forma más común de interactuar con un computador era mediante un Teletipo, que se conectaba directamente a éste e imprimía todos los datos de una sesión informática. Fue la forma más barata de visualizar los resultados, hasta que en la década de los 70 empezaron a aparecer los primeros monitores de CRT (Tubo de rayos catódicos). Seguían el estándar MDA (Monochrome Display Adapter) y eran monitores monocromáticos (de un solo color) de IBM. El cromatismo característico de los monitores y los tipos que empleaban influyeron notablemente en la estética publicitaria de la época. El trabajo pionero en cristales líquidos realizado en la década de 1960 por el ‘Royal Radar Establishment’ de Reino Unido, supuso el descubrimiento de la cyanobiphenyl de los cristales líquidos, que tenía unas propiedades concretas de estabilidad y temperatura para su aplicación en los LCD (del inglés liquid crystal display). Este sería el punto de partida para el desarrollo de pantallas LCD y la correspondiente extensión de las tipografías segmentadas de las calculadoras, tan influyente en la estética de bits de tantos proyectos de arquitectura. 3.4.2. Integración metodológica: proceso vs producto. La computación responde a un sistemático procesado lógico de la información. Esta condición comenzó a ganar influencia en cultura del proceso proyectual arquitectónico durante la década de los sesenta. Las metodologías computacionales respondían a la construcción de una estructura organizativa de la información válida para ser operada por inputs, o parámetros, concretos y diversos. En cierto modo esto sucedía de modo análogo a como Palladio adaptaba las leyes genéricas que regulaban los proyectos de sus villas a la circunstancia geográfica particular de cada localización. Si bien la asimilación de esta lógica se produjo en un principio a nivel universitario en el marco de laboratorios experimentales, el planteamiento genérico abstracto enseguida caló en arquitectos como Price, Negroponte o Alexander. Este tipo de integración no es operativa, no se manifiesta específicamente en un desenlace arquitectónico 169 edificado, pero si supone un recurso o una actitud ante el proceso proyectual. En una fase posterior operativa, el proyecto asumirá estructuras organizativas que en sí mismas constituyan la propuesta. El proyecto de arquitectura se presupone un formato jerárquico de información que revela una conjetura arquitectónica. En este sentido informacional, la lógica matemática de la computadora aportó un cambio importante en la metodología: la valoración del proceso, como sistema abierto, frente al producto final. Este enfoque partía pues de la preponderancia del proyecto interpretado como un sistema que admite cambios y puede producir un múltiplo de soluciones, frente al proyecto específico adaptado a una casuística única. Fig.1.Escritorio Luis XV. Fig.2.Waterlily Fish Desk, 1986-1989. A.y P.Smithson. Fig.3.Memex, 1945.Vannevar Bush. Fig.4.Escritorio,Windows XP. Históricamente, los avances técnicos referidos a las herramientas y a los procesos de trabajo han supuesto cambios en la organización del espacio de trabajo y en el tratamiento de la información. El Taylorismo95 fue tomado como modelo organizador del espacio laboral hasta la Segunda Guerra Mundial. La evolución en la organización de la información hacia procesos sistemáticos tiene su origen en el aumento de la producción impuesto por la mecanización taylorista propia de la Revolución Industrial. Aparecieron entonces un conjunto de medios y métodos logísticos necesarios para llevar a cabo la organización de la empresa o de un servicio. La acumulación hacinada de papel en las mesas de trabajo indujo la proliferación de nuevos sistemas de almacenamiento. La estructura de la información se organizaba casi siempre entorno a un índice alfabético, pero Vannevar Bush ideó un sistema de selección de la información por asociación, más parecido a cómo funciona la mente humana. Circunstancia que anticipó, en modo analógico, los avances contemporáneos en las interfaces que operan el Entorno Aumentado, 95 Abalos y Herreros (2000: 181) se refieren a la oficina taylorizada como ‘un edificio esencialmente compacto, organizado verticalmente en forma de anillos en torno a un nucleo interior, capaz de alcanzar los trescientos metros de altura, con crujías útiles aun análogas a las del Marquete Building (…). Aloja una actividad descompuesta en puestos de trabajo y alineados con cierta rigidez, estables en el tiempo, todavía dependientes en buena medida de la luz natural, si bien la oficina ya está iluminada por luminarias incandescentes,…ect’. 170 Este ingeniero y científico estadounidense, conocido por su participación en el desarrollo de la bomba atómica, concibió en 1945 Memex para liberar los escritorios de apilamientos incómodos –realmente nunca llegó a construirse el prototipo-. Memex (Memory–Index) trata de un dispositivo para almacenar todo tipo de documentos, precursor del hipertexto96 y de la World Wide Web. Como puede verse en la fig.3 constaba de una mesa con un teclado; accionando una serie de palancas motorizadas se podía consultar datos conservados en microfilms que a la postre serían proyectados en unas pantallas translúcidas. El usuario podía también hacer anotaciones e incluir comentarios en los márgenes de los documentos. Según constataba el propio Vannevar (1945): ‘Un memex es un dispositivo en el que una persona guarda sus libros, archivos y comunicaciones, dotados de mecanismos que permiten la consulta con gran rapidez y flexibilidad. Es un accesorio o suplemento íntimo y ampliado de su memoria’.97 Recordemos que la primera generación de ordenadores está comprendida entre 1946 y 1947, correspondiendo la primera fecha a la construcción de la computadora ENIAC98 por John Mauchly y John Presper Eckert, y la última a la primera impresora de matriz por puntos, desarrollada por Centonics Corporation. Entre tanto, el año de 1949 es considerado como el nacimiento de la computación moderna; se ejecutó el primer programa almacenado en un ordenador EDSAC. Memex se considera una estructura pionera en la organización de la información, un primer paso hacia la desmaterialización del soporte informacional físico (fig.4) y una manera revolucionaria de ordenar y gestionar la documentación. Nótese el comentario de Peter & Alison Smithson (fig.2) sobre el diseño del escritorio Waterlily Fish: ‘...El pensamiento independiente liberó el programa de hace años para un escritorio: una caja para papel; una caja para sobres y postales, una caja para el diccionario ideológico y la guía de direcciones, cajones que al girarlos ofrecen cuatro extremos para los bolígrafos, los clips, etc., y como ayuda para pensar qué escribir, una base para pedalear con los pies: el escritorio nenúfar-pez.’ El comienzo del proceso de sistematización de protocolos relacionados con el proyecto arquitectónico realizado con medios computacionales nace de modo efectivo en la década de los sesenta. Desde el campo experimental que ofrece la academia, y también desde posiciones 96 Cuatro décadas más tarde aparecería el ordenador personal (Personal Computer), sin duda heredero del dispositivo de Vannevar. El concepto expuesto por Vannevar influiría decisivamente en el trabajo de Douglas Engelbart, inventor del ratón y precursor de la interfaz de usuario y el hipertexto. 97 BUSH, V. (1945) ‘As we may think’, Atlantic Monthly, Julio, nº 176, 101-108. 98 Inicialmente se proyectó para calcular trayectorias de tiro de la artillería de la armada estadounidense. Cuando ENIAC se presentó a la prensa en 1946 era la máquina electromecánica más rápida del mundo. 171 artísticas, surgen iniciativas que van aportando su granito de arena en la carrera por la sistematización. Javier Seguí (2012a: 143) describe primorosamente este emocionante acontecimiento en tres artículos que forman parte del catálogo de la exposición celebrada en 2012 en la Universidad Complutense de Madrid, a propósito del episodio extraordinario que fue el Centro de Cálculo de la Universidad de Madrid (1965-1982): ‘(…) Me empezó a interesar el ordenador. Me interesaba que la aparición del ordenador estaba dando lugar a una forma de pensar y de hacer las cosas de forma distinta a como se hacían hasta entonces. (…).’ La experimentación con la nueva máquina, la que transformaría la naturaleza mecánica del individuo del siglo XX en un hiper-naturalizado individuo del siglo XXI, comenzaba con todas las expectativas. Es necesario recordar que a principios de la década de los sesenta la computadora no era aún un medio de comunicación sino que se manipulaba como una ‘potente calculadora’ cuyas posibilidades se antojaban prácticamente infinitas. Una época de renovación, de cambios, de nuevas expectativas, de revisar lo revisado…etc; pero sobre todo, una época para la experimentación. Fig.5. Morfologia. Asimow.1962. Fig.6.Estudio de unidades espaciales. Moore. 1962. Fig.7. Espacio de movimientos. Centro de Cálculo, Universidad de Madrid. El avance en la informatización lógica de procesos creativos dejó una secuencia en la que cabe destacar varios hitos. En Introduction to design, Morris Asimow (1962) realizó un primer esfuerzo descriptivo (fig.5) de la descomposición de las operaciones del proceso que sigue al diseñar (Seguí 2012c: 195). En la línea de los trabajos funcionalistas realizados por Alexander Klein o Bruno Taut sobre la racionalización de la organización del espacio, el primer esfuerzo definidor de unidades espaciales desde un punto de vista informático99 se ‘apoya en el 99 Ibíd. 172 conductismo, data de los primeros años de la década de los 60, y se debe a Moore, Activity Data Method (fig.6)’. En los sesenta y setenta se produjo la observación experimental de la fusión de la arquitectura y la informática100 a través de varias vías de investigación, algunas de ellas agotadas en la actualidad, pero otras de vigencia activa. La metodología lógica que propuso el lenguaje informático contagió otros lenguajes y se convirtió, en sí misma, en una corriente de pensamiento heredera de filosofías como la practicada por el austriaco Ludwig Wittgenstein (1889-1951) o el estadounidense Noam Chomsky (1928). Javier Seguí (2012c: 193) sintetiza así el protocolo referido a la metodología del proyecto arquitectónico afectada por la computación: ‘Los pasos necesarios para poder pensar en el tratamiento informático de la arquitectura (…) son: 1º descripción operatoria de lo procesos arquitectónicos (globales o parciales); 2º sistematización de los mismos; 3º modelización; y 4º algoritmización’. Los intentos de sistematización pasaban por superar el dilema planteado por la hibridación de procesos creativos y lógicos. Los esfuerzos por crear ‘la máquina de arquitectura’ que replicara la lógica del pensamiento racional sin mermar la creatividad propia de la naturaleza humana eran tenaces. Las sinergias entre los centros experimentales y entre los propios analistas se tradujeron en un frente de investigación pan-humano que destilaba complicidad y complejidad en la reflexión. Seguí101 realiza una descripción concreta de los diferentes caminos recorridos por aquellos investigadores comenzando por la vía de Mesarovich (Views in General Systems Theory), Archer (The estructure of design), Newel, Shaw y Simon, que comprendía la aplicación de modelos matemáticos como globalidad definitoria de un sistema que aseguraba su algoritmicidad y en consecuencia, el planteamiento arquitectónico subyacente quedaba sometido y forzado al primero102. A esta vía de indagación se sumó una segunda consistente en la selección de ciertos procedimientos matemáticos estructurados y utilizados como modelos de partes o conjuntos de operaciones aislados en los procesos de diseño (Alexander, Notas para la síntesis de la forma). La tarea de acometer e informatizar la categorización de las operaciones, principios y elementos del diseño tiene un punto de inflexión entre 1968-70, en los trabajos del Centro de Cálculo (Juan Navarro y el Grupo de Sistemas Artificiales) y Nicholas Negroponte en el MIT, cuyos 100 ‘(…) en este sentido nosotros mismos, en el Centro de Cálculo, elaboramos una sistematización de las actividades en las que se tenían en cuenta diversos factores. (…) Por los años 69-70, también en el Centro de Cálculo, nos ocupamos de describir el comportamiento como cadenas de actividades (fig.7), y se llegó a plantear un tratamiento para el análisis y descripción de comportamiento social’. (Seguí, íbid., 196). 101 Ibíd., p.200. 102 Seguí, ibíd,, p.200. 173 planteamientos de tratamiento gráfico a partir de GRAFT y SKECHPAD (Sutherland) desembocarían en el Urban 5, sistema interactivo que permitía visualizar decisiones de diseño, por pasos interconectados en distintos órdenes103 (Negroponte 1971). La experimentación del comportamiento animal en hábitats vivos tuvo en el proyecto Architecture Machine104 de Negroponte un exponente representativo105, ejemplarizante e influyente, basado en protocolos cibernéticos de análisis que inducían cambios en la configuración del ecosistema106. La actividad del grupo de Negroponte Architecture Machine Group derivará en la creación posterior del Media Lab del MIT. Con la comercialización del ordenador personal a finales de los setenta finalizó este periodo heróico experimental y comenzó una nueva etapa de investigación que se hizo extensiva a un número mucho mayor de escuelas de arquitectura y otros centros interesados en la afección arquitectónica del Entorno Digital. 3.4.3. Integración operativa. El proceso de integración operativa de la ciencia de la computación en la práctica profesional arquitectónica comprende varias fases según el alcance y tipo de interacción. La operatividad hace alusión a la acepción ejecutora y activa. Será indispensable recurrir a la potencia de procesado -de cálculo- de información para resolver el planteamiento del proyecto, calcular el comportamiento de un elemento constructivo o representar gráficamente una configuración. Esta vía operativa tiene en el proyecto arquitectónico su primera etapa de integración. La computación constituye en este caso la herramienta diferencial que procesa la información contemplada en el proceso de proyecto, dando una solución a la ejecución material de la propuesta107. El análisis de este proceso se realiza a partir del estudio de la obra de colectivos como Archigram y la facción metabolista japonesa. La trayectoria profesional de éstos abarca desde los primeros atisbos de integración computacional en el proyecto hasta las propuestas ejecutadas mediante las directrices computacionales del creciente Paradigma Digital. Por otro lado, se producirá paulatinamente el empleo de facto de esta tecnología en el edificio, bien para integrar procesos controlados por la computadora o para realizar análisis informáticos del comportamiento del edificio construido. Las propuestas individuales de Christopher Alexander, Nicholas Negroponte o Cedric Price fueron pioneras en esta vía operativa. 103 Seguí, ibíd., p.202. 104 Negroponte, 1970, óp.cit. 105 Este experimento bien pudiera integrarse en la vía operativa descrita a continuación. 106 Véase la tesis de Fernando Jerez (2013) para profundizar en la materia. 107 Por ejemplo, registrando el feedback de los ciudadanos de Computor City. 174 Este camino experimental pautó la integración de la interacción digital en el proyecto y en el edificio construido. Ahora bien, conviene remarcar que la construcción del Entorno Aumentado no consiste solamente en incorporar a la realidad física el Entorno Digital de la computación. El análisis de la integración en la práctica arquitectónica de las nuevas estrategias de información y comunicación procedentes de la evolución de los mass media resultan vitales para comprender el germen de la incidencia de la Revolución Digital en la práctica arquitectónica. En referencia a este propósito mediático cabe señalar la importancia de la obra de Charles y Ray Eames y otras obras puntuales como el Pabellón Phillips (1958) de Le Corbusier y Iannis Xenakis. Según Rouillard (2012) la introducción de la ciencia computacional en el dominio arquitectónico nunca supuso la inclusión de referencias metafóricas en los proyectos; pocos proyectos encontraron aplicaciones prácticas reales. Los arquitectos reaccionaron temprano al Paradigma Digital, asumiendo los presupuestos teóricos que éste iba deparando. Pero no fue hasta la década de los noventa cuando la integración de sistemas de diseño asistidos por ordenador se hizo efectiva y extensiva a los estudios de arquitectura. Anteriormente quedaba exclusivamente reservada a proyectos de investigación en el ámbito universitario. Rouillard108 concreta la integración de tres tipos de tecnologías de la información y la comunicación en el entorno del planeamiento urbano: 1. Herramientas para regular y comunicar (conectar). Implementadas en el funcionamiento propio de la ciudad, para operar su funcionamiento109. 2. Herramientas de análisis urbano. Las TIC como herramientas para medir y analizar un tejido urbano. La disponibilidad de datos, la creciente capacidad de cálculo y los avances en programación permiten profundizar en la escala del análisis. 3. Herramienta de proyecto. La intervención de otros agentes puede ser tenida en cuenta asumiendo cambios y actualizando constantemente el flujo de datos. 3.4.3.1. Computación y arquitectura mediática TIC. La arquitectura como estrategia de comunicación. Una de las exploraciones pioneras en el ámbito de las tecnologías de información y la comunicación realizadas con un enfoque arquitectónico corresponde al trabajo de Charles y Ray Eames. La alineación con la vanguardia de la Revolución Digital caracterizó, desde sus inicios, 108 Ibíd., p.33. 109 Ratti & Berry; Schmitt; Huang & Waldvogel. 175 la trayectoria de los estadounidenses. Sus proyectos no destilan un gran interés por la computación como herramienta de cálculo organizadora del proyecto, como fue el caso de Negroponte o Alexander, pero si como herramienta parte de las TIC. La arquitectura de los Eames propone situaciones estratégicas donde la capacidad comunicativa -retórica, retroalimentación, interacción,…etc.- cobra una importancia máxima110. Su experimentación en el campo de la percepción audiovisual y en el tratamiento e interpretación de la imagen no tiene parangón por su precisión y condición pionera111. La utilización de los soportes multimedia en la disciplina militar -Situations Room de la Segunda Guerra Mundial y, más adelante, Mision Control Room de Cabo Cañaveral- supuso un cambio en el modo de contar y percibir la información. Pero esta circunstancia enseguida dejó de ser exclusiva de la tecnología de guerra para involucrar a diseñadores, arquitectos y artistas. Beatriz Colomina (2001: 7), destacada arquitecta investigadora de esta coyuntura mediática arquitectónica, señala que ‘mientras que el uso de esas tenologías por los artistas tiende a estar asociado con los ‘Happenings’ y el ‘Expanded Cinema’ de los sesenta, los arquitectos estuvieron involucrados mucho antes y en contextos muy diferentes, como operaciones militares y campañas de propaganda gubernamentales’. Eliot Noyes, director de diseño de IBM y comisario del pabellón que el gigante norteamericano instaló en la exposición universal de 1958 celebrada en Bruselas, encargó a Charles Eames la dirección y producción de la película que sería visionada por los visitantes del pabellón. A mediados de la década de los cincuenta Charles Eames experimentaba formas de introducir procesos de animación en sus películas; fue entonces cuando conoció el estudio UPA y quedó fascinado por su producción artística. Los dibujos con pastel de Dolores Cannata ilustraron de este modo la primera película de animación de los Eames. Charles Eames (1958), autor del guión de The Information Machine112, elaboró una narración sencilla y dinámica del nacimiento de la computación. Si bien los Eames no hicieron mención explícita al uso de la computadora como herramienta del arquitecto, si adujeron en su favor estas tres cualidades: capacidad de control y regulación de los medios de producción; herramienta de diseño capaz de calcular el procesamiento de datos derivado de un proceso complejo diseñado por el proyectista; y capacidad de simular modelos de vida, anticipando los efectos al transcurso de la acción. En 1958, USA y USSR acordaron sendas exposiciones para intercambiar ‘cultura, ciencia y tecnología’. En la norteamericana de Moscú 1959 los Eames instalaron un dispositivo multipantalla que a la postre se convirtió en una potente arma de propaganda. Como afirma Colomina (Íbid.,: 11) en Glimpses of the USA ‘los Eames fueron conscientemente arquitectos de 110 111 Véase en Cap.II Cultura mediática de la Revolución Digital. El arquitecto comunicador. Junto con el Pabellón Phillips que Le Corbusier proyecto junto a Xenakis (Ibíd). 112 Eames, Charles & Ray (1958) The Information Machine. Disponible en: <www.theatlantic.com/video/index/257053/>. (Consultada el 28 de agosto de 2013). 176 un nuevo tipo de espacio. La película rompió con la perspectiva fija del mundo113’. A la instalación multipantalla, hay que añadir una computadora RAMAC 305, un ‘cerebro electronico’ que respondía por escrito a 3.500 preguntas sobre los Estados Unidos. Aquella arquitectura integraba desde el proyecto una combinación de estructura, espectáculo multimedia y computación. Fig.1. NASA Mission Control, Houston. Fig.2.Glimpses of the USA, 1959. Moscow World's Fair auditorium. Charles y Ray Eames. Fig.3a.Diagram of Field of Vision, 1930. Herbert Bayer. Fig3b.Think, 1965. Multiscreen projection. Fig.4.A Computer Perspective, 1971. Charles y Ray Eames. La multiproyeción Think (fig.3b) rodada por los Eames para ser expuesta en el pabellón ovoide de IBM diseñado por Saarinen para la Exposición Universal de Nueva York (1964-65) envolvía al espectador en una reminiscencia de la obra de Herbert Bayer de 1930 ‘Diagrama del campo de visión’ (fig.3a). En ese mismo pabellón, el visitante transcurría junto a un muro con una colección de imágenes denominado ‘Perspectiva computacional’ (fig.4), una estructura informacional que ‘aumentaba’ el lugar antecediendo el acceso sencillo a la información -o la sobre-informaciócaracterístico del Entorno Aumentado. Esta imagen de 1971 dista mucho de la comprensión de la computación como instrumento de cálculo habitual en la década anterior y se acerca a la naturaleza mediática que tras la formulación de Internet caracteriza los soportes digitales contemporáneos. 113 ‘The multiscreen performance turned out to be one of the most popular exhibits at the fair (second only to the cars and color televisions). Time magazine called it the ‘smash hit of the Fair,’16 the Wall Street Journal described it as the "real bomb shell,’ and U.S. officials believed this was ‘the real piledriver of the fair.’ ‘Groups of five thousand people were brought into the dome every forty-five minutes, sixteen times a day, for the duration of the fair.I8 Close to three million people saw the show, and the floor had to be resurfaced three or four times during the six-week exhibition’. (Colomina, óp. Cit., p.11). 177 3.4.3.2. Arquitectura cibernética. La materialización del diagrama. ‘We just haven’t learned how to enjoy our new freedom: how to turn machinery, robots, computers, and buildings themselves into instruments of pleasure and enjoyment’. Cedric Price, A message to Londoners (borrador de un folleto promocional del Fun Palace). A principios de la década de los sesenta, arquitectos como Cedric Price (1934-2003), Christopher Alexander (1936) o Nicholas Negroponte (1943) se interesaron por cómo implementar el desarrollo tecnológico de sistemas inteligentes en la disciplina arquitectónica. Esto les llevó a afrontar el reto desde una argumentación sistémica; aproximación similar a la que estaba proporcionando en otras disciplinas la computación respecto a la simulación de entornos virtuales. Una serie de conferencias incluyendo Architecture and the Computer en el Boston Architectural Center en 1964, Computer Graphics in Architecture and Design en la Yale School of Art and Architecture en 1968, y el doble número de Design Quarterly, ‘Design and the Computer’ en 1966, reunieron a representantes de la arquitectura, el urbanismo, la ingeniería y la ciencia de la computación. El planteamiento de la arquitectura como un sistema acercaba el proceso de proyecto a una metodología científica interdisciplinar. En esta linea Lobstiger (2000a: 23) afirma: ‘quizá lo más importante es que la teoría de sistemas estaba llamada a producir resultados generativos; esto es, permitir y soportar la emergencia de efectos secundarios. Para Price la teoría de sistemas y los diagramas proveían un proceso proyectual abierto y generativo que mediaba entre la complejidad desorganizada de la sociedad informacional y las necesidades de la arquitectura. Con Price, sin embargo, la forma construida en si misma se volvió un diagrama’. Cedric Price conoció a Frank Newby en la exposición de arte This is Tomorrow (fig.2) celebrada en 1956 en la Whitechapel Art Gallery; también coincidió allí con Reynner Bahnam. Artistas, arquitectos, músicos y diseñadores gráficos trabajaron en torno a doce equipos, en un ensayo de colaboración multidisciplinar114 donde destacaron las obras del Independent Group 114 Esta condición multidisciplinar recuerda a lo acontecido años después (1965-1982) en el Centro de Cálculo de la Universidad Madrid. Javier Seguí describe así la situación: ‘Hay que hacer cosas parecidas al Centro de Cálculo, porque si no la sociedad se desarticula. Eso es lo que es lo colectivo, buscar lo común, inventándolo, eso es lo que es absolutamente sustancial para que podamos sobrevivir. EL CCUM, desde mi punto de vista, es una especie de referente. Una especie de brillo. Imposible de recuperar porque aquello pasó, pero que es el paradigma de otras posibles asociaciones de ese orden. Donde sin buscar la gloria personal de nadie se busca lo que está colectivamente en la inquietud de todos’. Seguí, Javier (2012: 143-150). 178 del Institute of Contemporary Art. Price, Newby y Bahnam coincideron en que los avances de la tecnología no eran recogidos en toda su capacidad por la arquitectura contemporánea, pues esta tomaba aquella exclusivamente como un referente estético. Cuatro años más tarde, la Sociedad Zoológica contactó con Antony Armstrong-Jones115 con motivo del encargo de un nuevo aviario que debería reemplazar el Gran Aviario londinense de 1888. Este a su vez, eligió a Cedric Price como colaborador en el proyecto. Para la construcción del nuevo aviario fue determinante la recomendación de Cedric Price de incluir en el equipo a Franck Newby, ingeniero de estructuras que ya había trabajado en el estudio de Samuely116 y colaborado con Konrad Wachsman, Charles Eames y Eero Saarinen y que supo de él en sus años de estudiante en la Architectural Association. El aviario se construyó aplicando el concepto de tensegridad117 que desarrolló Buckminster Fuller, o compresión discontinua (Steiner 2009: 54). Construido el aviario y publicado en Archigram 2 y 4, Newby y Price emplearon modelos computerizados para analizar la distribución de esfuerzos en la malla de acero. Cedric Price (1934-2003) fue pionero en la incorporación de las tecnologías de la información y la comunicación al proyecto arquitectónico. La convergencia se produjo tanto en el contexto proyectual de propuestas como Fun Palace (1961-74), Potteries Thinkbelt (1964-67) o Generator (1978-80), como en la arquitectura construida del Aviario del Zoo de Londres, si bien, el uso que se hizo de la computación fue en este último caso singular al utilizarse para evaluar a posteriori el comportamiento estructural. En el caso de los proyectos no construidos, la computación fue asumida por la vía operativa, de modo que ésta hacía factible la ‘performance’ arquitectónica diagramada por Price. Sidney Lummet afirmó una vez que ‘todo gran trabajo está preparándote para cuando suceda el accidente’. El significado que entraña su afirmación bien puede aplicarse a los proyectos de Price, que constituyen un sistema posibilístico -y probabilístico- operado por la tecnología última, la del momento, la que permitiría adaptar las condiciones propias del edificio a la circunstancia demandada por el o los usuarios. El edificio y su circunstancia momentánea de uso se interpretan como un fotograma de los muchos posibles que componen la película -el sistema-. El edificio se muestra como es casi por ‘accidente’. Wilken (2007) compara el concepto de ‘accidente preparado’ implícito en la obra de Price con la cinta de David Cronemberg Crash (1996) y la música experimental de John Cage. 115 El duque de Edinburgo, presidente de la Sociedad de Zooogía, fue el que recomendó a su cuñado Anthony Armstrong-Jones, conocido fotógrafo londinense que estudió dos años de arquitectura. 116 Según Steiner (óp.cit., 2009) ‘en una conversación entre Price y Newby, en la transcripción de lo que resultó impresa en AA Files, Price asegura que la única opción para una estructural experimental de este tipo eran Ove Arup y Samuely, las firmas consultoras de la Piscina de Pingüinos del Zoo. (Engineers and architects: Newby + Price, AA Files 27)’. 117 Véase el trabajo de Alexander Graham Bell en Cap. II Arquitectura emisora. Antecedentes predigitales en la transferencia de la información y comunicación (TIC). 179 Fig.1. Aviario del Zoo de Londres, 1960. Alzado desde el río. Cedric Price. Fig.2. ‘Just What is it that Makes Today’s Homes so Different, so Appealing?’ 1956. Richard Hamilton. Fig.3.Ideal Site. Fuente: Price and Joan Littlewood, ‘The Fun Palace’, The Drama Review: TDR 12, no.3 (Spring 1968): 132. La Teoría Cibernética de Weiner y el auge de los mass media a principios de los sesenta influyeron en el concepto de lo arquitectónico, introduciendo la necesidad de considerar la capacidad comunicativa entre los agentes que intervienen, destacando el usuario. Para que se produjera una inter-comunicación efectiva entre el usuario y el edificio, este último tenía que habilitar en sí una gramática de posibilidades. Este proceso alienta al proyectista a interpretar el proyecto como un sistema de comunicación, que en el caso de Price, definió de manera integral el conjunto118. Basándose en el lenguaje de la computación, el proyectista debía ordenar la casuística arquitectónica para que respondiera de manera óptima a las exigencias de cada circunstancia -contemplada-. Lo arquitectónico se sistematizaba, asumiendo metodologías científicas (aunque podían haber tenido otro cariz). Es así como la arquitectura muerta se apoderó de una herramienta que la vitalizaba. La Teoría de la Comunicación sitúa en el rango más básico la comunicación unilateral, donde la fuente de la información emana sin conocimiento de destino alguno. En términos arquitectónicos, la posición jerárquica e impos(i)tora del arquitecto como hacedor principal, obviando cualquier otro contexto, constituiría el estadio más básico de todos los posibles entre los agentes de la construcción. En este sentido Price se proclamó así mismo ‘anti-arquitecto’, se interesó por la tecnología como herramienta capaz de subvertir la condición autoritaria del proyectista en la toma de decisiones proyectuales. Este hecho atañe también al contexto de las artes plásticas. Si bien Price compartía gran parte de las proclamas de Fluxus o la Internacional Situacionista, se diferenciaba de éstos al integrar a la vez y de manera explícita las TIC con las teorías de juegos, de sistemas y cibernética. Sostiene Wilken (óp.cit., 2007) que la mayor parte de la crítica sobre el trabajo de Price presta mucha 118 ‘En una reciente entrevista, el pionero de la cibernética Heinz von Foerster me dijo que la mayor contribución de la cibernética fue aceptar lo circular, para observar procesos circulares. El Fun Palace habría sido el primer edificio cibernético de la historia’. Cedric Price (2006:70) 180 atención a explorar y documentar estas influencias teóricas, así como el uso en el proyecto de dispositivos de comunicación y computación propios del contexto socio-cultural de la época. El propio Wilken propone una interesante indagación acerca de la sociedad tecnológica para la que Price diseñó la casuística de sus proyectos, argumentando tres hipótesis: la primera, sobre la tensión establecida entre el ‘programa’ y el ‘accidente’ -especialmente en el Fun Palace- en el proceso metodológico de proyecto; la segunda, el rigor teórico en la incorporación de las tecnologías de la computación y comunicación; y en tercer lugar, la significación del Fun Palace como una exploración temprana experimental de interacción en la sociedad informacional mediática que derivaría posteriormente en las recientes formas de interaccion social on-line y en la aparición de ‘comunidades’. Price abogaba por un perfil de anti-arquitecto cuyas competencias permitieran el establecimiento y diseño de un entorno sintetizado en una matriz proyectual, una estructura sistémica capaz de solucionar problemas y admitir un cierto grado de flexibilidad. En este sentido las TIC suponían una herramienta habilitante del proyecto. A pesar de la sintonía del arquitecto con los avances tecnológicos, Price sostuvo en el ejercicio profesional una actitud específica con relación a su uso. Lejos de admitir lo tecnológico per se, el empleo de la tecnología debía obedecer un criterio definido, como afirma Landau (1984: 11): ‘En primer lugar, es necesario que haya una idoneidad (tal vez se encuentra en la electrónica, pero también posiblemente en una cabaña primitiva), y la idoneidad rara vez será sinónimo de convencional. En segundo lugar, la tecnología se puede utilizar para jugar un papel crítico, lo que significa que se espera que participe en el debate arquitectónico, quizás a través de la contribución, disputa o la capacidad de provocar. Y en tercer lugar, la tecnología debe ser colocada en un contexto particular y real del cual se puede derivar un marco limitador de restricciones’. Price solía referirse a la tecnología de sus zapatos favoritos Hush Puppies como analogía de la capacidad de adaptación perfecta del edificio al uso y al usuario. Frente a la definición del (arque)tipo arquitectónico estático, el proyecto de un sistema dinámico que emplea la tecnología como catalizador, incluso la tecnología móvil (zapatos) como recurso. Este criterio tecnológico pauta el proyecto de Potteries Thinkbelt, desarrollado por Price de 1964-67, cuya capacidad de cambio era ejecutada por una tecnología que permitía la adecuación potencial a las circunstancias múltiples y efímeras derivadas de la contingencia del programa. Price propuso una combinatoria que podía integrar diferentes versiones de instalaciones vinculadas al ámbito universitario. Esta capacidad de adaptación quedaba enfatizada y replicada en la localización de la infraestructura, anclada a una vía de ferrocarril abandonada. En sí mismo, el proyecto proponía una geometría fractal, ya que la propia universidad era capaz de moverse por un sistema ferroviario que había caído en desuso. La propuesta de una red universitaria conformaba lo que Price vino a llamar Meir Transfer Area o área de transferencia universitaria. Este concepto revisaba y subvertía no solo la formalización del proyecto arquitectónico si no también el propio concepto de universidad, anticipando en cierta medida la enseñanza a distancia o e-learning donde definitivamente se ha suprime el edificio. 181 El Fun Palace asumió la complejidad del proceso proyectual y del hecho construido en una propuesta dilatada en el tiempo (1961-1972) que integraba el análisis de profesionales, colaboradores y asesores, procedentes de diferentes disciplinas. Joan Littlewood, fundadora del Taller de Teatro del Theatre Royal de Londres, impuso como hipótesis de proyecto la noción de lugar de encuentro de procesos teatrales que podía florecer sin constreñirse a la forma del edificio. Lobsinger (óp.cit., 24) lo define como un ‘centro de ocio abierto 24 horas, temporal, multiprogramado (y reprogramable) que marida las tecnologías de la comunicación y los componentes estándar del edificio para producir una máquina capaz de adaptarse a las necesidades del usuario’. El concepto de ‘ocio’, conquistado por la clase trabajadora después de la posguerra, significó la inauguración de un nuevo ámbito espacio-temporal que demandaba propuestas como el Fun Palace119. La tecnología se hacía presente a nivel operativo tanto en el proyecto como en la manipulación del edificio construido, aunque nunca lo llegó a ser. Las máquinas de leer o de calcular junto con televisiones y computadoras poblaban diferentes lugares del proyecto, Littlewood propuso incluso un circuito cerrado de televisión que mostraba en directo lo que sucedía fuera y dentro del Fun Palace, fuera y dentro de Londres (Littlewood: 482). El edificio de estructura metálica proyectado por Price, cuya referencia inmediata eran los gigantescos astilleros navales, aseguraba la flexibilidad programática requerida por Littlewood mediante un espacio interior reconfigurado por un sistema de grúas. El sistema estructural diseñado y calculado por Frank Newby permitía múltiples combinaciones programáticas. El proceso proyectual meticuloso y detallado del Fun Palace fue acompañado por un Subcomité Cibernético liderado por el prestigioso teórico cibernético británico Gordon Pask120. El subcomité, contaba con miembros destacados como Tom Driberg y se reunía en un local frente al estudio de Price. La recopilación de información tanto para el desarrollo del proyecto como para el funcionamiento y configuración del edificio estaba regulada por la teoría cibernética de la retroalimentación de información. Detrás de la adecuación inmediata y automática de la infraestructura a los propósitos del usuario -50.000 usuarios- se encontraba una organización 119 Nótese la vinculación con lo lúdico que emparenta este proyecto con muchos de los proyectos de Archigram. Asimismo, la importancia del campo lúdico del videojuego en su aportación a la construcción del Entorno Aumentado. 120 Price sobre Gordon Pask: ‘Cuando conocí a Gordon Pask –al principio de los sesenta-estaba trabajando en la predicción los soldados que necesitaría la Royal Air Force en el año 2000. Pero para hacer eso, construyó su propio ordenador, en Ritchmond, con miles de latas de mostaza. Pero Gordon, después de trabajar en el Fun Palace, se volvió más y más interesado en la arquitectura. El no estaba vinculado a la arquitectura antes, pero después se vovió un arquitecto, realmente más que yo. Solía enseñar en la AA’. Gordon Pask trabajó con otros arquitectos como Ranulph Glanville o John Frazer – director del Departamento de Arquitectura de la Universidad de Hong Kong-. Fuente: Pask, Gordon (1968) ‘An aesthetically Potent Social Environment’, Archigram, nº 8, np. 182 precisa de las posibilidades aleatorias. La propuesta orquestada por Price, Littlewood121 y Pask desarrolló la sistematización de la interacción social de un modo radical, operada por las telecomunicaciones y la computación -en pleno proceso efervescente-, resulta ser uno de los primeros edificios mediáticos con una propuesta de comunicación integrada, articulada por la computación, y con una comunidad virtual habilitada mediante conexiones mediáticas con el exterior. Fig.4. Fun Palace section122, Cedric Price, 1964. Fig.5. Fun Palace sketch, Cedric Price and Joan Littlewood. Fuente: Ulrich, Hans O. (ed.) (2003) Cedric Price, Re:CP, Basel: Birkhauser, 33. La organización y el desarrollo del proceso proyectual del Fun Palace no prescribe soluciones, si no que obedece a una concepción de patrones que interpretan un contexto social. A diferencia del Lenguaje Patrón de Christopher Alexander, los patrones del Fun Palace no proponían una solución directa a la hipótesis de partida si no que planteaban un análisis continuo retroalimentado a través de la experiencia. Podría decirse que planteaban la monitorización del ecosistema. La tesis de Onur Özkoç (2009) ‘Social Potentials Of Pattern: Cedric Price’s Fun Palace’ aporta una vision específica del proyecto, en base al análisis de la capacidad de registro del patrón como síntesis de la interacción social potencial del proyecto. El programa de ocio del Fun Palace quedaría configurado por un sistema patronal generado por los propios usuarios, que facilitaba el procesamiento continuo de actividades. Estos proyectarían su experiencia respecto al ocio en base a un listado de acciones básicas. Como afirma Özkoç (2009: 60), ‘estos límites definitorios conceptuales se diluyen, reformulando nuevas y frescas probabilidades de incertidumbre’. El Subcomité Cibernético del Fun Palace elaboró un cuetionario que complementaba la lista de actividades de Price y Littlewood y proporcionaba la retroalimentación informativa requerida por el proyecto. Los encuestados debían reflexionar sobre el tipo de actividades que debería acoger el edificio, entre otras: comer, esquí, bolos, karts, baile, conciertos de música, nadar, fotografía, restauración de coches antiguos, simulación de voz, pintura dáctil, admiración mutua 121 Según la mayoría de las fuentes (Wilken, óp.cit., 2007) Littlewood explica sus ideas visionarias sobre un espacio social experimental interactivo a Price en octubre del 1961. 122 Fuente: Mathews, Stanley (2005) ‘The Fun Palace: Cedric Price's Experiment in Architecture and Technology’, Technoetic Arts: A Journal of Speculative Research, Vol. 3. 183 (requería espejos de bolsillo), ‘¿te apetece (sexo)?’, teatro y opera, tiro con arco, son et lumiere,…etc. Fig.6.Diagrama del sistema de control cibernético del Fun Palace, 1965. Gordon Pask. Fig.7. ‘Diferentes tipos de observación y experimentación vistas como sistemas’, 1965. Gordon Pask. El sistema cibernético programaba y reprogramaba el Fun Palace, configurando la opción más eficiente123. La organización quedaba representada en un diagrama cibernético que operaba la mecánica del sistema. El diagrama constituía un procedimiento lógico de variables múltiples, con entradas (input) y salidas (outputs) de información al que seguiría la traducir a un lenguaje informático estos procedimientos, procesando así la información de modo que la computadora operara las órdenes preceptivas124. La vanguardia de la arquitectura interactiva, con Cedric Price, Gordon Pask, Archigram y Yona Friedman a la cabeza, concurrió con propuestas a IDEA125, la conferencia celebrada en el New Metropole Arts Centre de Folkstone el 10-11 de junio de 1966. La atención hacia una arquitectura flexible que integrara la participación del usuario acercaba la disciplina a la sociedad. La atención temprana de Price hacia el potencial que escondían las tecnologías computacionales de la información y la comunicación influyó decisivamente en el fundamento 123 La tesis de Fernando Jerez (2013) profundida en este enfoque. 124 Véase fig.22. 125 Véase ‘Tipografías digitales’ en Vía del Lenguaje tecnológico, Cap. III. 184 de tendencias arquitectónicas como el ‘High-Tech’. Cedric Price constituyó una referencia fundamental para Archigram -su mentor126-, Will Alsop, Arata Isozaki, Rem Koolhaas y Bernard Tschumi, entre tantos arquitectos vinculados a la tecnología127. En la línea del pensamiento de Buckminster Fuller, Price propuso una arquitectura con fecha de caducidad y expandible (‘expendable’). Estos conceptos serían asumidos inmediatamente por Archigram a partir del proyecto Fun Palace y por los Metabolistas japoneses. En contraposición al pensamiento positivista que basaba el desarrollo del proyecto en un proceso causa-efecto, Price se alejaba de la concepción lineal de la metodología proyectual ortodoxa propicia en el Movimiento Moderno. De igual forma, Price evitó en sus proyectos un aprovechamiento único del edificio, en detrimento de la arquitectura estática y en pos de propuestas dinámicas. Price participaba de la arquitectura no construida de los Smithson128 y favorecía soluciones noarquitectónicas, evitando las limitaciones de los edificios ‘monumentales’. Otro proyecto seminal, Generator (1976-79), proponía un entorno con unas condiciones de interacción dadas en un ambiente reconfigurable y responsivo -acuñado por el propio Price-. En colaboración con los arquitectos y programadores John y Julia Frazer, se desarrolló un sistema computerizado en el que a partir de una trama estructural de 12 por 12 pies y un catálogo de componentes constructivos -paneles y puertas correderas de vidrio, pantallas y pasillos peatonales móviles-, pudieran combinarse mediante una grúa móvil diferentes estructuras y arquitecturas por la acción de los usuarios. El proyecto desarrolló un código cerrado que generaba una amplia red de configuraciones a través de un programa informático. Este complejo flexible, dispuesto en la frontera entre Florida y Georgia, incluía una grúa para la movilización y transporte de los módulos. En una carta a los Frazer, Price escribió: 126 El número dos de Archigram (1962) incluía una colaboración de Cedric Price: ‘An expendable aesthetic requires no flexibility in the artifact but must include time as an absolute factor. Planned obsolescence is the order within such a discipline - shoes; motor cars; magazines. The validity of such an aesthetic is only achieved if replacement is a factor of the overall design process, The mobile home presupposes a continuance of production of such units...In all such cases the artifact at any one time is complete in itself and the overall design problem requires a solution to the organization of such unitsflowers in a bowl; caravans on a site. In allowing for change, flexibility, it is essential that the variation provided does not impose a discipline which may only be valid at the time of design. It is easier to allow for individual flexibility than organizational change - the expandable house; the multi-use of fixed volumes; the transportable controlled environment. The massing of living units in single complex [sic] presupposes the continuance of physically linked activity complexes ...Physical forms as known are often the by-product of social, economic, technical conditions no longer relevant. Planning for activities must allow for change not only in content but in means of operation. Disciplines can only be based on foreseeable change and thereafter only order and not direction of change should be established’. Extraído de Peter Cook (ed), ‘Archigram 2’, Archigram, London. 127 ‘El Fun Palace claramente supuso un precedente conceptual y una estructura formal para el Centre Pompidou’, según admite el propio Rogers. 128 A pesar del desencuentro entre Price y Peter Smithson. Este último, miembro del tribunal del proyecto de fin de carrera del primero. 185 ‘The whole intention of the project is to create an architecture sufficiently responsive to the making of a change of mind constructively pleasurable’. A lo que ellos contestaron: ‘If you kick a system, the very least that you would expect it to do is kick you back’. Los Frazers diseñaron cuatro programas que implementaban información (input) obtenida a partir de sensores instalados en los components del Generator: un programa de dibujo, un programa de inventario, una interfaz de modelado y prototipado, y un programa llamado boredom. Según afirma Molly Wright (2010: 2) ‘a pesar de que Price no disponía de las herramientas de programación de Negroponte y Alexander, continuamente revisaba las posibilidades que la computación y la tecnología ofrecían para lograr una mayor interacción en su arquitectura. John Frazer continuó investigando procesos arquitectónicos vinculados al desarrollo computacional, sistemas de modelización inteligente y arquitecturas responsivas. El trabajo de investigación de Frazer y de su unidad en la Architectural Association de Londres produjo proyectos como el Universal Constructor o una revisión de Generator en 1989-90, cuyas maquetas electrónicas fueron expuestas en la AA y etiquetadas por Pask como una expresión del ‘Entorno Informacional129’. Su influencia ha sido decisiva tanto en ámbito académico como en el profesional. La colaboración de Price con Gordon Pask130 tuvo otros frutos de entre los que cabe destacar el reencuentro con motivo del concurso de viviendas para estudiantes en Kawasaki, Japón. Dada la fecha del proyecto (1986), la importancia de este casi desconocido proyecto radica en la anticipación y descripción de un entorno híbrido en sintonía con la dimensión heterogénea que propone el Entorno Aumentado. En esta ocasión, Pask diseñó un complejo sistema basado en las TIC para recabar feedback de todo Kawasaki: el proyecto Japan Net, una compleja red de esferas multimedia con receptores multidireccionales y transmisores mixtos articulaba el entorno integrando en la ciudad una nueva capa de información (Hardingham 2003: 10). El dibujo de Price sobre las ‘esferas informacionales’ (figs.8 y 9) describía dos esferas, una inferior al nivel de la cota de la calle, donde se establece la interaccion ciudadana –con pantalla de tv, audio y altavoces- y otra superior, elevada para mejorar la señal de transmisión y recepción de la información. De igual modo, el apunte ’24-hours Postman’ (fig.9) proponía una visión de este elemento mediático como si de un huevo informacional se tratara. Un elemente cruzado por 129 Fuente: Gonçalo Furtado, Disponible en: <http://www.aaschool.ac.uk/Downloads/AArchitecture/AArchitecture08.pdf.>. (Consultada el 9 de septiembre de 2013). 130 Para más información sobre la relación Pask, Price y los Frazers: <http://paskpricefrazer.blogspot.com.es>. (Consultada el 29 de agosto de 2012). 186 cables estructurales que recuerda la tensigrity del Aviario del Zoo de Londres y que articulaba también la instalación mediática de esta Plaza Inteligente de Kawasaki. Fig.8 y 9. Concurso de viviendas para estudiantes en Kawasaki, 1986. Gordon Pask y Cedric Price. Fotomontaje y croquis de las esferas de información. La propuesta mediática de la Plaza Inteligente procuraba una representación fidedigna (estomacal) del pensamiento mediático localizado en el espacio (osamenta). Price localizaba y referenciaba el flujo informacional a un sistema de coordenadas axonométrico (fig.10). El resultado fue una especie de red neuronal donde incluso cabe distiguir nodos de las conexiones. En un esquema construido de la propuesta (fig.11) la identificación de los elementos blandos (dispositivos) y duros (estructura) con el diagrama de flujo informacional es bastante precisa. La estructura tensada de cables de acero hacía ‘flotar’ el contenido de dispositivos mediáticos, de modo parecido a la propuesta de Fisac para el campanario de la Iglesia de los Dominicos de Madrid. En la memoria del concurso titulado ‘La Plaza inteligente’, Gordon Pask se refería a una arquitectura del conocimiento que representaba los pensamientos de la ciudad (ciudadanos) y una imagen de la estructura construida animada por computadora (con gráficos digitales) que evolucionaría adaptándose a la ciudad. La figura 9 representa un croquis de Price sobre la estructura mediática instalada en la plaza. Fig.10.Jappan Net , The Architecture of Knowledge, 1986. Cedric Price and Gordon Pask. Fig.11.Kawasaki (city) suspension. . Cedric Price and Gordon Pask. Fig.12.Jappan Net.Representación del concepto. . Cedric Price and Gordon Pask. 187 Pask estuvo vinculado al campo del proyecto experimental del entorno de la AA de Londres, colaborando en proyectos relacionados con el Entorno Informacional y la Arquitectura del Conocimiento (del inglés Information Environment y Architecture of Knowledge) como ‘A of K’, animación informática llamada a ser expuesta con la maqueta electrónica de Frazer. En 1995, John Frazer describía en An Evolutionary Architecture el nuevo paradigma que equiparaba la arquitectura con una ‘forma artificial viva’, en la línea de la arquitectura responsiva de Cedric Price. 3.4.3.3. Interacción en la arquitectura sistémica del Estructuralismo. ‘The role of the architect... I think is not so much to design a building or city, as to catalyse them: to act that they may evolve.’ Gordon Pask La integración operativa de la computación en la práctica profesional se produjo a escala urbana en los nuevos modelos de desarrollo surgidos en torno a los arquitectos estructuralistas de la década de los sesenta, que pusieron en crisis tanto la reflexión que hizo el Movimiento Moderno sobre la ciudad como las propuestas urbanas ‘fluidas’ del Team X. La trayectoria de Cedric Price, Christopher Alexander y Nicholas Negroponte recibió y proyectó una influencia retroactiva respecto al Estructuralismo, con el que compartían vías de investigación con inquietudes parejas relacionadas con el avance tecnógico y la interacción hombre-máquina. La historia crítica del proceso de integración de la interacción en la ciudad, circunstancia inducida en gran medida por influencia del campo de la computación, es tratada por Dominique Rouillard (2007: 14) en ‘L’invention de la interactivité urbaine’, publicado en Interactive Cities, donde se aporta una visión panorámica de cómo ésta se produjo en la obra de Archigram y de Alison y Peter Smithson. Esta investigación complementa y amplía el enfoque de Rouillard en el sentido de enmarcar la trayectoria de sendos grupos en relación al paradigma digital y añadir otros arquitectos pioneros en el campo de la computación. Frente a otra literatura examinada, el texto de Rouillard comparte un enfoque similar de análisis al sugerido en esta revisión histórica. Las indagaciones efectuadas sobre la obra de Archigram se fundamentan en el análisis de documentación procedente de diferentes fuentes. Por un lado, la literatura coetánea de las revistas de la época como Architectural Design, así como los nueve números de la revista homónima, el magazine Archigram (1961-1974) que dio nombre al grupo. Por otro lado, los textos de Sadler (2005) y Steiner (2009), y la tesis de Piantá (2001) ‘Grupo Archigram, 19611974. Uma fábula da técnica’ constituyen ejemplos de lecturas panorámicas de la obra completa. La publicación de Ley (2008) tiene el valor de un catálogo heterodoxo internacional del movimiento megaestructuralista. La antología del grupo editada por el propio Peter Cook (1999) merece un tratamiento especial aparte por su carácter biográfico. 188 El Movimiento Moderno articuló una propuesta higienista de ciudad segregando las rutinas para obtener una ciudad saneada donde la Naturaleza se identificaba con una alfombra en la que apoyar la intervención artificial construida. La respuesta Moderna pretendió poner freno a las condiciones insalubres derivadas de los efectos de la Revolución Industrial. Así mismo, tras el fracaso del paradigma positivista que supuso el colapso de la Segunda Guerra Mundial, el auge de las ciencias sociales experimentado en el proceso de reconstrucción de las ciudades europeas acontecido en la década de los cincuenta propició una reflexión humanista sobre la ciudad por parte del Team X. Tanto la Ville Radieuse, como la Ciudad Jardín, como las propuestas del Team X en su versión británica -Manifiesto Doorn de los Smithson- basada en las ciencias sociales, como la holandesa de Bakema y Van Eyck interesada en la experiencia urbana fenomenológica, no interpretaron el proyecto de ciudad como un sistema capaz de asumir la interacción ciudadana. Sus propuestas describían modelos con una excesiva rigidez que no permitía la transformación dinámica y con ello la adaptación evolutiva al cambio. La comprensión de la ciudad como un (eco)sistema vivo a la vez que interfaz habilitadora de la interacción ciudadana fue un concepto pionero de los estructuralistas y su entorno. El modelo de ciudad se abordaba desde el diseño de una entidad que precisaba ser ajustada a la circunstancia cambiante de su ciudadanía. Llegaba el turno de la ciudad cibernética, un nuevo modelo para construir la naturaleza artificial postindustrial. ¿Cuál es el origen de la concepción sistémica de la ciudad que compartían los grupos estructuralistas de la década de los sesenta? Uno de los orígenes vincula este concepto a la aparición de la Teoría Cibernética de Norbert Wiener, en la Segunda Guerra Mundial. Su influencia posterior en las tesis del grupo de arquitectos japoneses metabolistas derivó en la extrapolación de la teoría de Wiener a la ciudad. Por otro lado, no hay que olvidar que la generación estructuralista europea vivió la transformación que experimentaron las grandes ciudades europeas en el devenir de la contienda. A diferencia de la Primera, la Segunda Guerra Mundial llevó el frente a la ciudad. De modo análogo a la estrategia de las plazas medievales asediadas por ejércitos de infantería y caballería, las viejas ciudades europeas tuvieron que transformarse en estructuras militares integradas en la estrategia bélica. En muy poco tiempo dieron una respuesta lo más eficaz posible al acoso enemigo, producido casi siempre en forma de bombardeo aéreo. La ciudad asumió forzosamente su condición beligerante convirtiéndose en un asentamiento militarizado que habilitaba un sistema articulador de esa nueva realidad operativa: la defensa. El diseño del sistema debía operar la infraestructura construida de la ciudad de modo que fuera viable la nueva condición estratégica. La trama urbana de Londres, Berlín o París sufriría una customización diseñada por la cúpula militar de turno. La integración de la logística militar, la conexión urbana con las redes de suministros -maquinaria, munición, víveres, medicamentos- y la habilitación de infraestructuras defensivas -refugios antiaéreos, sistema de radar, baterías de defensa antiaérea…etc.-, entre otras circunstancias, supuso una rápida adecuación sistémica a la nueva condición de la metrópolis. 189 Referentes Formales El tamaño de las construcciones propuestas por los estructuralistas exploró campos referenciales de tipologías de gran escala vinculadas tradicionalmente a la arquitectura de grandes luces. Constant, Friedman, Archigram y los metabolistas japoneses, entre otros, encontraron claros referentes formales para sus proyectos de ciudad en las estructuras de hierro de grandes luces del s.XIX y del s.XX. Las grandes infraestructuras producidas por la arquitectura del hierro en el siglo XIX -puentes, hangares, naves industriales, estaciones…etc.- estaban presentes en el imaginario de este colectivo. El trabajo experimental de Konrad Wachsmann fue uno de los precedentes del plug in de Peter Cook, junto con la Philadelphia City Tower (1954) de Louis Kahn y Anne Tyng -reunía una combinatoria modular en la matriz tridimensional de una superestructura- y los dibujos de Sant’Elia de su Città Nuova (1914). Las fuerzas aéreas estadounidenses encargaron a Wachsmann el diseño de un hangar para el bombardero B-52. Wachsmann proyectó una superestructura de tubos de aluminio con unas juntas especiales. Este sistema constructivo, se podía importar fácilmente a las megaestructuras. ‘Gestural work like Festival of Britain (1951) contained a mixture of post-war spinoff (the technology of laminates, alloys and micro-mechanics) and latter-day thirties styling. The real coalescence of idealism for a new architecture and for a new technology was simultaneously happening with Konrad Wachsmann’s experiments with the technique of building elements.’ Peter Cook (1970) Asimismo, el fin de la II Guerra Mundial, con el cese y posterior reconversión de la industria bélica, propició que muchos productos de la industria militar pasaran a formar parte de la escena civil. Antibióticos, rayos infrarrojos, radares, fertilizantes, fibras artificiales, pesticidas, detergentes…etc., pero también los plásticos, la tecnología de los laminados, las aleaciones y la micro-mecánica empezaron a ocupar la cotidianeidad civil y con ello el imaginario colectivo de los arquitectos de la postguerra. Los noticiarios radiados y la prensa escrita poco a poco daban también cobertura a una nueva ciencia: la electrónica. 190 Fig.1.Philadelphia City Tower, 1954. Louis Kahn y Anne Tyng. Fig.2.USAF Space Frame, 1951. Konrad Wachsmann. Por otro lado, la ciencia ficción131 –determinante, por ejemplo, en la trayectoria profesional de Buckminster Fuller- jugó un papel principal en el colectivo Archigram132. Banham afirmaba en 1958 que la ciencia ficción es ‘uno de los grandes ampliadores de mentes. (…) es parte de la educación de la imaginación de cada técnico’. El nº 4 de Archigram (1964) ejemplifica muy bien la influencia de la ciencia ficción y del comic133, tanto en el contenido de los proyectos del grupo londinense como en la retórica estratégica de contarlos -si es que resulta viable esta disyuntiva-. La retórica del grupo londinense se inspiraba a menudo en el género del comic, la iconografía aparecida a propósito de la carrera espacial y la estética pop de los sesenta. Por lo demás, a la hora de buscar referentes cabe señalar la importancia de algunos juegos infantiles como Meccano (fig.4). Este juego de construcción ocupó también un lugar en el imaginario Archigram. Sadler (2006) recuerda que un niño británico criado en la década de los cuarenta -generación Archigram- era fácil que jugara a menudo con él o con algún tipo de juego similar, del mismo modo que Frank Lloyd Wright hizo lo propio con los bloques Froebel (fig.3) en su infancia134. Las dos propuestas lúdicas incentibaban la capacidad del niño para percibir y modificar lugares. 131 Véase Cap.III, Influencias transdisciplinares. Arquitectura y ficción. 132 Buckminster Fuller había sido profesor de Greene en la Nottingham University School of Architecture. 133 Véase fig.2. en Influencias interdisciplinares: arquitectura y ficción. 134 Frank Lloyd Wright declaró haber sido influido por el pedagogo alemán Friedrich Fröbel, quien publicó sus ideas en el libro La educación para el hombre en el año 1826 y acuñó el concepto y término de ‘jardín de infancia’ (en alemán, Kindergarten). 191 Fig.3. Juegos Froebel. Fig.4. Meccano. Fig.5. Minecraft. A pesar de que ha transcurrido más de medio siglo, hoy los niños juegan a juegos muy similares aunque en formato diferente. Los videojuegos apuntan claras y frecuentadas interferencias arquitectónicas. Títulos como Tetris, Angrie Birds o los mundos virtuales que proponen Sim City o Minecraft (fig.5) constituyen ejemplos muy populares y vinculados a la disciplina arquitectónica bien sea por el tipo de proceso creativo lúdico de construcción o por la influencia de las físicas en los procesos de destruccion. Minecraft es una suerte de Lego virtual que permite ejecutar cualquier construcción con bloques virtuales y compartirla con otros usuarios. Monica Ekman, profesora de la Viktor Rydberg School de Estocolmo donde los alumnos de trece años tienen un curso obligatorio de Minecraft, afirma que ‘(los alumnos)…aprenden planeamiento urbano, cuestiones medioambientales (…) e incluso como proyectar para el futuro. (…) No es muy diferente de las bellas artes o del trabajo con madera’. Operatividad Si bien la vía de la integración conceptual de la ciencia computacional en la disciplina arquitectónica supuso la llave de un nuevo ámbito epistemológico a incorporar en la praxis arquitectónica, la integración operativa constituyó un proceso táctico más que estratégico. La incorporación del paradigma digital en el proyecto de arquitectura permitió alcanzar la operatividad del modelo de mega-ciudad, incorporando el feedback del ciudadano. La nueva herramienta aportaba al proyecto una capacidad para procesar información nunca antes conocida, pronto se constituyó en el software (programa) que el ejecutaba el hardware construido. La computación se convirtió en el motor que haría funcionar las super-estructuras. Los sistemas complejos que articulaban la interaccion del ciudadano con la ciudad serían procesados por supuestas computadoras que se encargarían de armonizar la realidad urbana de ciudades como Computor City o Plug in City. Los primeros arquitectos mega-estructuralistas contribuyeron a construir el corpus lingüístico de terminología procedente de las ciencias de la computación. Yona Friedman, Constant y los metabolistas japoneses incorporaron a sus escritos términos como ‘electronic computer device’, ‘automation’, ‘robotic’ y ‘calculator’ (Rouillard 2012). El empleo de estos términos aclaraba en el proyecto la integración de nuevas herramientas que permitían ejercer un control más preciso y rápido, habilitando una capacidad de cambio y adaptación en la configuración de las megaestructuras. A diferencia de lo sucedido en la vía conceptual, el uso de vocabulario 192 procedente de los avances tecnológicos tuvo una trascendencia mayor en este grupo de arquitectos. Subvirtieron la categoría conceptual de los neologismos para usar de facto los nuevos dispositivos que nombraban. Sus proyectos eran casos prácticos en los que la computación se empleaba para ejercer el control. El Entorno Aumentado deposita en la componente interactiva de la dualidad hombre-máquina su razón operativa de ser. En este sentido, los proyectos analizados en esta investigación planteaban una mirada subversiva hacia el vínculo establecido entre el usuario y lo arquitectónico. De manera radical, Archigram revisa el concepto de interacción urbana surgida entre los ciudadanos y el tejido o ‘ente’ urbano. Su defensa de la libertad individual frente a la megaestructura que acoge la gran colectividad les llevó a buscar mecanismos que velaran por la pervivencia de esa condición. Mientras que el observador mainstream se enfrentaba al producto técnico acabado de alta gama propuesto por la arquitectura del Movimiento Moderno, el observador de Archigram apenas puede abarcar desde la pasividad la complejidad y la dispersión de las propuestas del grupo londinense. La arquitectura de Archigram necesita de la interaccion del observador. El observador debe abandonar su estatismo para convertirse en usuario. La relación establecida entre lo arquitectónico y el usuario tiene lugar en un entorno cibernético135. Actores La trayectoria de Archigram y los Metabolistas japoneses coincidió con este período de integración operativa de la computación en la disciplina arquitectónica. A lo largo de la década de los años sesenta, los dos colectivos comenzaron poniendo en cuestión el modelo de desarrollo urbano previsto por el Movimiento Moderno. Su andadura descubrió el comportamiento de una nueva tipología de ciudad: la megaestructura. Esta nueva solución de ciudad permitiría desarrollar un nuevo concepto dinámico de vivir la ciudad. La trayectoria sesentera de Peter Cook, Warren Chalk, Ron Herron, Dennis Crompton, Michael Webb y David Greene (Archigram desde 1961 hasta 1974), junto con Akira Shibuya, Youji Watanabe, Kisho Kurokawa y Kiyonori Kikutake (grupo metabolista136) y otras destacadas figuras como 135 En el número 8 de Archigram, publicado en 1968, el grupo describe las danzas cibernéticas de los móviles robóticos de Gordon Pask como un ‘entorno social estéticamente potente’. Pask fue el consultor experto en cibernética para el Fun Palace de John Littlewood y Cedric Price (Sadler: 133). 136 Destacados miembros del movimiento metabolista japonés que reconocen como influencia principal la obra y escritos de Kenzo Tange, maestro de casi todos de ellos, si bienTange no se incluye en el grupo. 193 Christopher Alexander, Arata Isozaki137, Cedric Prize o el propio Nicholas Negroponte dejó un rastro claro de la integración operativa de la computación en la práctica profesional de la arquitectura. La elección de estos arquitectos para examinar la irrupción del paradigma digital en la práctica profesional obedece tanto al carácter pionero de su trabajo como a la influencia que significó para el resto de la disciplina. En lo que respecta a esto último, la figura del crítico Reyner Banham138 tuvo un efecto amplificador en la difusión de las nuevas propuestas. En su aportación introductoria a la monografía sobre el grupo londinense Archigram, editada por el propio Peter Cook (1999), Arata Isozaki señala el carácter contracultural y transdisciplinar que la crítica proyectual imprimió a la dinámica establecida por el Movimiento Moderno, descubriendo una nueva escala de valores y una nueva sintaxis arquitectónica. Por el contrario, continua Isozaki, ‘el metabolismo japonés carecía de esta perspectiva sobre la necesidad de descubrir nuevos valores contraculturales (…), y parecía más identificado con la planificación de la acelerada economía urbana’. Técnica (Del lat. technĭcus, y este del gr. τεχνικός, de τέχνη, arte). ‘Conjunto de procedimientos y recursos de que se sirve una ciencia o un arte.’. RAE. La condición sistémica de las propuestas urbanas de los estructuralistas está relacionada con el auge de las tecnologías de la información y la comunicación, y tuvo en la computación su herramienta operativa. En el caso de Archigram, no se produjo una apología de la tecnología sino que el grupo anglosajón se sirvió de ésta para proponer en sus proyectos estimulantes un nuevo modo de vida. En los primeros años y a pesar del corte tecnológico de sus proyectos, Archigram se preocupó de labrar una imagen ‘humanitaria’, evitando así ser tachados de exaltados tecnófilos. No persiguieron la tecnología como fin último, descuidando la implicación del usuario. Al menos, así lo afirma Warren Chalk: 137 Respuesta de Cook a Isozaki en Re: CP: ‘It’s purely coincidence that he (Price) never became a member (Archigram). Just like you don’t belong to the metabolist.’ 138 Bahnam fue vecino de Peter Cook: ‘Compartir con Archigram una calle en el NW6 (londinense) fue siempre interesante: como una familia, echamos una mano en Archigram 7 (mi hijo ayudo a doblar y empaquetar) y yo tuve el privilegio de llevar las primeras copias recién salidas de prensa de Amazing Zoom Archigram Four a USA (porque me encontré a Peter Cook en la calle la noche anterior a mi vuelo)’ (Cook 1999). 194 ‘Una de las más flagrantes concepciones erróneas sobre nosotros es que no nos interesa en última instancia la gente. Esto probablemente viene del tipo de imágenes que usamos. La sección de City Interchange (fig.3) predice un lugar baldío automatizado habitado solo por computadoras y robots. Es difícil evaluar cuánto se justifica esto, pero si nuestro trabajo es analizado con detenimiento, se encontrarán trazas de una preocupación muy real por la gente (…)’139. La reestructuración del capitalismo fordista (Taylor-Ford-Keynes), la transformación de la cultura entonces industrial de cadenas de montaje en otra vertebrada por las TIC, junto con el auge de la cultura de masas -irrupción de los mass media y de la condición de entropía y simultaneidad retratada por McLuhan en la Aldea Global- constituyeron la base estratégica de actividad de estos grupos en los años sesenta. Estas pautas pueden ser reconocidas (Piànta 2001: 20) en sus proyecto en tres atenciones principales: tecnología y consumo; tecnología y lugar movilidad-; y tecnología extrema o tecnología como una situación límite de lo arquitectónico. En cada una de ellas se producirá, en mayor o menor medida, la integración de la ciencia computacional como habilitante de la operatividad del proyecto. Salvo excepciones, la cronología registra un aumento exponencial de la componente computacional. En cuanto al conocimiento y la opinión que los arquitectos tenían de la computación, cabe destacar dos etapas diferenciales: una primera, donde se entendía la computación como Inteligencia Artificial o Gran Hermano140, concepción propia de la opinión pública en la década de los cincuenta141; y una segunda a finales de la década de los sesenta, donde lo computacional se individualiza para cada ciudadano anticipando la aparición del ordenador personal. Alter Ego (Loc. lat.) Literalmente 'el otro yo'. RAE. El proyecto de ciudad interactiva implicaba necesariamente la reflexión sobre el nuevo usuario. Una de las premisas que harían efectivo el diseño del perfil del nuevo usuario fue aumentar el grado de libertad del contenido respecto al continente arquitectónico. El proyecto de ciudad tendría más en cuenta el modo de vida que la formalización de sus estructuras urbanas. El 139 Warren Chalk, ‘Housing as a consumer product’, Arena, nº81 (march 1966), p. 228-230, reeditada en Archigram, ed., A guide to Archigram 1961-74, p.92 (Sadler 2006). 140 Véase en Cap. III Influencias transdisciplinares. Arquitectura y ficción. 141 Nótese el texto que acompaña a la viñeta de comic publicada en Archigram 4, 1964: ‘Un tema recurrente en el universo del Comic Espacial es el ‘CEREBRO’ computerizado móvil y los tentáculos flexibles’. Disponible en: <http://archigram.westminster.ac.uk/magazine.php?id=99&src=mg>. (Consultada el 29 de agosto de 2013). 195 usuario de las megaestructuras era también un individuo integrado en los impetuosos movimientos sociales de los años sesenta. 1961 fue el año de la primera edición de la revista Archigram y de la toma posesión del demócrata John F. Kennedy. Yuri Gagarin fue protagonista del primer vuelo espacial tripulado y Steve Rusell desarrolló uno de los primeros videojuegos Spacewar!. En un momento de cambios y avances científicos142, la humanización de la tecnología electrónica encarnó todo tipo de robots143. En este sentido, el alter ego del usuario Archigram se identificó más con Superman que con Robie the Robot, la ‘estrella’ de la ciencia ficción que presentó la exposición ‘This is tomorrow’144 de los Smithson. Superman representaba la evolución ulterior de la dimensión física y mental, según el catálogo de la exposición Living City145. Archigram de ningún modo propuso ubicar en sus proyectos colectividades cercanas al socialismo o al comunismo, o cualquier otro tipo de sociedad. El objetivo de sus proyectos era el ser humano individual146, con un perfil de usuario de ciudadano autónomo. El referente: Superman. La tecnología en Archigram147 implicaba dotar a la sociedad de una mayor libertad individual que liberara al ciudadano de la represión de la sociedad industrial, alcanzando niveles de autogestión que permitieran incluso el nomadismo. El usuario de sus proyectos evolucionó alcanzando grados de libertad cada vez mayores. La automatización de los procesos 142 ‘El conocimiento científico se duplica cada nueve años’, apuntaba Archigram en el film grabado en 1966 para la BBC. 143 Años más tarde, el pabellón de Osaka de Kenzo Tange contaría con la participación de robots en su puesta en escena. El propio Michael Webb escribió en 1983 un artículo titulado The robots are here! The robots are here! en el nº 121 ‘Robots’ de la revista Design Quarterly, donde exponía una cronología del robot desde la Antigüedad, bajo la perspectiva de la influencia de la inteligencia artificial en el ámbito doméstico. 144 Seis años antes de la exposición Living City, su patrocinador Theo Crosby trabajó como curador de la exposición This is tomorrow celebrada en la galería londinense Whitechappel. 145 Sadler, óp.cit., 2005. 146 El usuario como individuo libre en medio de la deriva urbana tiene una connotación –o vocacióncontemporánea, anticipándose al usuario de las realidades alternativas que proponen los mundos virtuales de internet. La preservación de la individualidad de los internautas es precisamente una de las claves de su enorme influencia como colectividad. Nótese a este respecto, la incompatibilidad de los diferentes perfiles de usuario de las redes sociales, si bien todos ellos presentan a la misma persona. 147 La etimología de Archigram está asociada a las TIC. En Archigram, la verdadera historia contada por Peter Cook, Cook se remite a ‘tele-gram’ o ‘Aero-gramme’. Fuente: <http://www.archigram.net/story.html>. (Consultada el 20 de agosto de 2012). 196 industriales148 se conseguiría como culmen de profundos cambios sociales, como refleja el fotomontaje de Ben Fether en City Region Centre de 1963. La automatización del sistema liberará al individuo, como libre se siente el astronauta del fotomontaje al exclamar: ‘Estoy feliz porque he aprendido a ser creativamente no productivo149’. Fig .6. City Region Centre, 1963. Fotomontaje de Ben Fether. Fuente: Steiner (2009: 106). El concepto existencial de la individualidad que recorre los caminos del laberinto social llevó a Peter Taylor a proponer para Living City un gran caleidoscopio social en el que todos los perfiles de usuarios interaccionan en la ciudad, surgiendo así infinitas asociaciones. Este collage supone la síntesis de los procesos convergentes y divergentes que configuran el ecosistema de los usuarios de la ciudad cosmopolita. Living City permitía el grado más alto de individualismo, de modo que el individuo nunca habría de someterse al programa. A pesar de que el proyecto se desarrolló cuando las TIC aun no habían revolucionado las comunicaciones. La imagen de Tayor podría perfectamente erigirse en el logotipo de Internet, disputando ese privilegio a la ‘@’. Archigram explicaba así su propuesta de ciudad: 148 Nótese en Influencias transdisciplinares. Arquitectura y ficción, el comentario sobre William Morris, El sueño de John Ball (2007) y Noticias de Ninguna Parte (2011b). 149 Se da la paradoja de que muchos ciudadanos del primer mundo que lucharon por conseguir formalizar reivindicaciones referentes, por ejemplo a la jornada de trabajo u otros logros sociales relacionados con el sistema de bienestar occidental de los años sesenta y setenta, y que a su vez creían que la revolución digital aligeraría la jornada sobredimensionada de trabajo, han podido comprobar que no ha sido así. Al menos en lo que llevamos de siglo XXI. 197 ‘Esto que llamamos Living City contiene muchas ideas y emociones asociativas y puede suponer muchas cosas para mucha gente: gustando o no gustando, comprendiéndolo o no comprendiéndolo, depende de esas asociaciones individuales. No hay ningún deseo de comunicar con todo el mundo, solo con aquellos cuyos pensamientos y sentimientos tengan que ver con los nuestros.’ Sistema (Del lat. systēma, y este del gr. σύστημα). ‘Conjunto de reglas o principios sobre una materia racionalmente enlazados entre sí’. RAE. Computor City (Archigram nº 4, 1964) es un proyecto pionero en la concepción de la ciudad como metabolismo interactivo. El lenguaje programado de la computación procesaba la información que reportaba una red de sensores distribuidos en la nueva ciudad. Dennis Crompton proyectó Computor City como un sistema donde todos los componentes –incluidos los ciudadanos- forman parte del conjunto. El sistema se plantea desde lo conceptualprogramación- pero también desde lo material -jerarquía sistematizada de elementos construidos- (fig.32). Frente al objeto, el sistema. Un sistema operativo (software) cuyo objetivo era ejercer el control y sistematizar el empleo del hardware entre distintos programas de aplicación y el usuario. Administraba los recursos de hardware del conjunto. Procesaba datos y habilitaba una interfaz de comunicación entre el ciudadano y la complexión urbana. El programa de Computer City realizaría tareas básicas como el control y asignación de la memoria, la evaluación de las prioridades en las solicitudes del sistema, el control del feedback o la administración y registro de las órdenes de salida. El sistema operativo que gestionaba la administración Computor City se anticipó cinco años al origen muchos de los sistemas operativos contemporáneos comunes. A finales del decenio de 1960, los laboratorios Bell desarrollaron UNIXS (Uniplexed Information and Computing System), sistema operativo que propiciaría el desarrollo de otros150 como Mac OS X (7 % de cuota de mercado), Linux (0,95 %), Solaris y FreeBSD. El planteamiento sistémico del proyecto dejaba cabida incluso a la aleatoriedad, tratada también por Christopher Alexander en sus estudios sobre el patrón de crecimiento urbano. De este modo, la propuesta se alejaba del discurso lineal positivista de causa-efecto practicado por el grueso de arquitectos del Movimiento Moderno e introducía en el discurso arquitectónico los preceptos del Paradigma de la Complejidad, propio de nuestra contemporaneidad. La autoría se multiplica 150 Microsoft Windows, con un 90.65 % de participación en el mercado, no surgió de este modo. 198 y el proyecto se enriquecía con la participación de expertos pluridisciplinares. Andrés Perea (2013: 30) lo cuenta en estos términos: ‘no hay un único autor del proyecto sino que la autoría pertenece a una conjunción de individuos procedentes de diferentes disciplinas’, todos ellos necesarios para dar una respuesta compleja a una realidad compleja. Computor City introdujo de este modo al usuario final en el proyecto, proponiendo una gestión participativa de los distintos agentes implicados, circunstancia apremiante y vigente en determinadas prácticas del planeamiento urbano contemporáneo sostenible. Introducida la cuestión sistemática en el proyecto, el alcance y desarrollo de la hipótesis fue diverso. La inclusión de nuevas tecnologías que hicieran efectivos esos sistemas se produjo casi siempre de manera muy tangencial, al menos en el caso de la computación. Casi siempre por desconocimiento de la propia tecnología computacional. Tras la devastación del país nipón en la Segunda Guerra Mundial, se celebró en 1960 la Conferencia Mundial de Diseño en la ciudad de Tokio. Takashi Asada, Noboru Kawaoe, Kisho Kurokawa y Kiyonori Kikutake sentaron entonces las bases del movimiento metabolista presentando su primer manifiesto: ‘El metabolismo: propuestas para un nuevo urbanismo’. La identificación de la ciudad con el metabolismo de un ser vivo concretó el carácter sistémico de las nuevas propuestas. La apoteosis del metabolismo tendría lugar diez años más tarde en la Expo’70 de Osaka, y constituirá un hito en la historia arquitectónica de la interacción hombremáquina. Celebrada la Conferencia Mundial de Diseño, Fumihico Maki acuñó un año más tarde el término ‘megaestructura’ refiriéndose ‘al gran marco en el cual se apoyan e intuyen todas las funciones de una ciudad, mediante el uso de la tecnología punta’. Fig.7.Edificio Nagakin, Kurokawa, 1972. Alzados de la cápsula. Fig.8.Edificio Nagakin, Kurokawa, 1972. Axonometría y vista del interior de la cápsula. Fig.9.Casa prototipo y edificio Nagakin, Kurokawa, 1972. Vista exterior. Así mismo, Kisho Kurokawa, principal redactor del manifiesto, investigó el desarrollo urbano orgánico y estudió el crecimiento doméstico en base al acoplamiento de cápsulas prefabricadas, re-empazables y re-ubicables. Buen ejemplo de ello es su proyecto de Ciudad Helicoidal de 1961. Kurokawa llevó su tesis a la práctica en el edificio Nagakin (figs.7, 8 y 9), una torre de habitaciones de alquiler para los ejecutivos que se veían obligados a pasar la noche en Tokio construida en 1972 en la zona de Guiza. Frente a la disposición ortogonal de Nagakin, Buckminster Fuller (1927) y Warren Chalk (1964) propusieron soluciones radiales de viviendas 199 en torre (figs. 10 y 11). En el artículo Architecture as a Consumer Product Chalk dejó escrito el siguiente comentario al respecto: ‘La casa es tratada como un objeto industrial creado por el proyectista, cada cápsula es seleccionada y construida con componentes, dispositivos, mobiliario, dimensiones, colores, etc. Seleccionado de un catálogo de piezas, de la misma manera que se elige un coche o un frigorifico’. Fig.10. Capsule Homes, 1964, planta y perspectiva de una cápsula. Archigram, W.Chalk. Fig.12. Multiple-Deck 4D, 1927, dibujo del dirigible transportador de la puesta en obra. B. Fuller. Fig.11. Capsule Unit Tower, 1964, planta y perspectiva de una cápsula. Archigram, W.Chalk. Fig.13.Bathroom Service Tower, Student Paddington, 1967. Farrel & Grimshaw Hostel Terry Farrel & Nicholas Grimshaw construyeron cinco años antes (1967) la Bathroom Service Tower para el Student Hostel de Paddington (fig.13), en el West London. Colaboradores de Archigram, Farrel & Grimshaw diseñaron su primer edificio como un prototipo de arquitectura plug in que se adosaba a la trasera de un inmueble residencial del XIX reconvertido en hostal de estudiantes. La ampliación proponía un elemento vertical con un núcleo central que alojaba las instalaciones y un equipamiento perimetral de baños que transcurría helicoidalmente en torno al mástil central. La idea de un Bathroom pod ya fue planteada por Fuller en 1937, cuando diseñó el baño prefabricado de acero Dymaxion (fig.12). En 1927, Fuller ya tanteaba en sus dibujos el sistema de plug in. Las 140 cápsulas de la torre Nagakin, de 14 plantas de altura, tenían unas dimensiones de 2.5x4.00x2.5 metros y alojaban tipologías habitacionales y de ‘Tea room’. Podían ocupar distintas posiciones en torno a dos núcleos verticales de comunicación. Aunque la casuística combinatoria era bastante restrictiva -dos tipos de ensamblaje más la respectiva simetría en cada uno de las dos posiciones habilitadas en casa frente del núcleo cuadrilátero- la percepción exterior del conjunto si lograba dar una imagen aleatoriedad razonablemente construida. 200 Fig.14.Vivienda prototipo, 1972. Alzado y sección de la cápsula. Kurokawa. Fig.15.Edificio Nagakin, 1972. Axonometría del montaje la cápsula. Kurokawa. Fig.16.Edificio Nagakin, 1972. Planta tipo. Kurokawa. A pesar de su reducido tamaño, la arquitectura interior de la cápsula incorporaba un teléfono, una televisión integrada, un sistema de altavoces integrados, un módulo con enchufes múltiples, iluminación integrada, una calculadora digital y un casette reproductor estéreo de cintas magnéticas, además de un escritorio retráctil y aire acondicionado. Aquel lugar mínimo brindaba al usuario una disponibilidad máxima para prorrogar la jornada de trabajo gracias al equipamiento de tecnologías TIC, por otro lado seña de identidad del imperio Nipón. Figs.17, 18 y 19. Celestial Theme Pavillion, maqueta, sección y fotografía, 1970. Osaka’70 Kisho Kurokawa. En la década de los sesenta el japonés Kisho Kurokawa y sus compatriotas metabolistas desarrollaron propuestas de arquitectura capsular. Desde Metabolism 1960 – Proposals for a New Urbanism Kurokawa investigó diversas tipologías de existenz mínimum y propuso el ensamblaje de cápsulas en una infraestructura soporte como alternativa al desarrollo residencial. La torre Nagakin supuso el colofón construido a esta trayectoria experimental, aunque dos años antes, la Expo de Osaka de 1970 había participado muy activamente de esta retórica de la cápsula. Los proyectos de Kisho Kurokawa Movable hotel, el Celestial Theme Pavillion o el Takara Pavillion –para la empresa de muebles homónima- fueron muestras de ello. El primero, no construido, planteaba un hotel móvil dentro de la Expo de Osaka. El Celestial Theme Pavillion de Osaka’70 (figs.17, 18 y 19) era un prototipo de arquitectura doméstica ensamblada en la cubierta del Pavillion Theme de Kenzo Tange. La desintegración de la unidad de vivienda en cápsulas mínimas cuya combinatoria se adhería a la megaestructura de Tange constituyó uno de los ejemplos más destacados de esta retórica del ensamblaje. El entendimiento de lo arquitectónico como un proceso sistémico y metabólico, articulador de la nueva ciudad artificial, produjo numerosos ejemplos. Esta vía de investigación proyectual se agotaría con la construcción del Nagakin en 1972. 201 Fig.20-21.Takara Pavillion, planta y sección, 1970. Osaka. Kisho Kurokawa. Fig.22.Proyecto para un Movable Hotel, 1970.Kisho Kurokawa. El grueso del movimiento estructuralista aconteció en la década de los sesenta, cuando aún no se había desarrollado el ordenador personal151. La invención del microprocesador en 1970, basado en el chip de silicio, haría posible la fabricación de computadoras muy baratas y, por tanto, pensar en soluciones individuales. La primera aparición conocida del término anglosajón ‘personal computer’ quedó registrada en la revista New Scientist en 1964, en la colección de textos El mundo en 1984. Arthur L. Samuel, del Centro de Investigación Watson de IBM escribió un artículo titulado The Banishment of Paper Work: ‘Hasta que no sea viable obtener una educación en casa, a través de nuestra propia computadora personal, la naturaleza humana no habrá cambiado’. La primera generación de computadoras personales comenzó a fabricarse en los años setenta. Frente a las computadoras de las empresas estas eran mucho menos polifacéticas y potentes. En general, estos aparatos eran utilizados por entusiastas de la materia para jugar a videojuegos. La comercialización de la hoja de cálculo VisiCalc -en origen para Apple II (fig.24 y 25) y posteriormente para el IBM PC- supuso la verdadera aplicación que consiguió alterar la deriva del mercado y convertir a la microcomputadora en una herramienta de trabajo. El bajo coste de las computadoras personales en los años ochenta abriría el camino para la estandarización en el ámbito doméstico como el profesional152. A pesar de ello, las grandes computadoras presentaron desde sus orígenes una estructura de similar morfología. De hecho, hoy en día, la mayoría de los ordenadores todavía usan la arquitectura desarrollada por Von Newmann en la construcción de los primeros modelos de 151 Nótese la presencia de una máquina de escribir sobre el escritorio en la fotografía de la habitación del edificio Nagakin. 152 Junio 1977: Apple II (Norteamérica). Gráficos en color, ocho ranuras de expansión. Agosto 1977: Tandy Radio Shack TRS-80 (N.). Primera computadora personal de menos de US$600. Diciembre 1977: Commodore PET (N.). Primera computadora completa: teclado/pantalla/cinta. 1979: Atari 400/800 (N.). Primera computadora con un chipset específico y chip de video programable. 1979: TI-99/4. Primera computadora personal con un procesador de 16 bits. 202 1940. Los componentes de aquellas supercomputadoras -válvulas, conectores, interruptores, transistores, circuitos, etc.- eran reemplazados cuando agotaban su operatividad, de modo similar a como sucedía en las megaestructuras. La arquitectura del hardware de las grandes computadoras153 evolucionaría hacía la síntesis del ensamblaje de elementos en una placa base genérica, morfología propia del ordenador personal (fig.23). Fig.23.Circuitos de ATLAS154, 1962. la computadora Fig.24.Apple I, prototipo, 1976. Expuesto en el Smithsonian Institution. Fig.25.Apple II, anuncio commercial, 1977155. El sistema de ensamblaje de las cápsulas plug-in156 replicaba la condición mecánica de ‘enchufar’ los componentes en la arquitectura de la computadora. Bien es verdad que los pequeños módulos de Lego capaces de construir combinaciones reversibles o las aeronaves espaciales construidas mediante el ensamblaje de módulos, resultan también reconocibles en la Plug-in City de Peter Cook. 153 El término ‘arquitectura’ del hardware se emplea de este modo en el argot de las TIC. 154 Introdujo muchos conceptos modernos: interrupciones, pipeline, memoria virtual, memoria entrelazada y paginación. La computadora ATLAS fue un proyecto conjunto la Universidad de Manchester, Ferranti y Plessey. Fue uno de los primeros supercomputadores, considerado el más potente en el mundo hasta la fecha. Se decía que si Atlas se apagaba desaparecía la mitad del poder computacional de Gran bretaña. Fuente: Wikipedia. 155 Fuente: <http://alt1040.com/2011/08/apple-ii-computador-avanzo-la-industria>.(Consultada el 20 de agosto de 2013). 156 Como una evolución de la expresión, hoy en día se denomina Plug-and-play o PnP (‘enchufar y usar’) a la tecnología que permite a un dispositivo informático conectarse a una computadora sin necesidad de configurar, mediante otro software específico suministrado por el fabricante, ni proporcionar parámetros a sus controladores. Para que esto sea posible, el sistema que opera el ordenador debe proveer soporte a dicho dispositivo. Véase Glosario para una definicón precisa. 203 Metabolismo (Del gr. μεταβολή, cambio, e -ismo). ‘Conjunto de reacciones químicas que efectúan constantemente las células de los seres vivos con el fin de sintetizar sustancias complejas a partir de otras más simples, o degradar aquellas para obtener estas’. RAE. La condición sistémica de la ciudad asumirá con los metabolistas la cualidad orgánica propia del metabolismo de los organismos vivos. El grupo japonés optó en un principio por replicar en sus proyectos comportamientos del sistema orgánico, identificando las rutinas del metabolismo con situaciones arquitectónicas referentes sobre todo al orden estructural del proyecto. La oficina del arquitecto japonés Kenzo Tange, mentor del grupo metabolista, había elaborado en 1960 un proyecto de desarrollo urbano para la ciudad de Tokio ocupando su bahía. Publicado en Archigram en 1964, la propuesta tuvo una enorme influencia en estos orígenes del movimiento estructuralista. La ampliación de la ciudad se establecía mediante un sistema capaz de cubrir extensas superficies sobre el agua. La propia condición del medio soporte indujo la aparición de una infraestructura auto-portante a la cual se subordinaban otras construcciones. El sistema encarnaba el concepto de metabolismo: una estructura de larga duración que servía de soporte a otros componentes efímeros (Sadler, óp. cit., 2006). Peter Cook transfirió este concepto en la definición del orden estructural de Plug in157 City. Incluso indicó la durabilidad de cada componente. La estructura tubular de la ciudad duraría cuarenta años, veinticinco años para, por ejemplo, el núcleo de un hotel, y tres años para las habitaciones que se conecten (plug in) a él. La introducción en el discurso arquitectónico de elementos efímeros sienta un precedente anticipatorio de la arquitectura con ‘fecha de caducidad’ que surge en torno a principios propios del paradigma de la sostenibilidad, entendida como suma de procesos holísticos. Control (Del fr. contrôle) ‘Regulación, manual o automática, sobre un sistema’. RAE. Los metabolistas japoneses introdujeron la computación en sus proyectos como si se tratara de una Inteligencia Artificial que gestionaba las posibilidades de cambio requeridas por las megaestructuras. En los primeros años de la década de los sesenta la computación estaba muy alejada de vincularse con actitudes individuales sobre el proyecto, y menos aún con la posibilidad de que esas megaestructuras pudieran asumir y procesar la información particular de 157 A mediados de los sesenta, la trayectoria de Archigram varió el rumbo, abandonando el concepto de megaestructura a favor del kit arquitectónico. El plug in de Peter Cook se impuso frente a los proyectos en red anteriores. 204 los usuarios registrada en un ordenador individual. La computadora no se entendía como medio de comunicación sino como una gigantesca herramienta de cálculo cuya capacidad -velocidadde procesar información rivalizaba con la mente humana. Realmente la función servidora que aquellas superestructuras proponían al ciudadano, difícilmente incorporaba el feedback plural, diverso y democrático de la población. Tampoco admitía los grados de libertad necesarios impuestos como hipótesis estratégica del nuevo modelo de ciudad. El control unilateral y jerárquico ejercido desde una posición de poder superior, ya sea artificialmente inteligente o no, difícilmente cubriría las múltiples posibilidades combinatorias de integración de los módulos. En diez años, estas rígidas y lineales estrategias de organización urbana caducaron. Feedback158 (retroalimentación, realimentación) Como ya se ha visto anteriormente, Wiener acuñó el término ‘cibernética’en su ensayo Cibernética o el control y comunicación en animales y máquinas (1948). La etimología159 proviene del griego ‘kybernetes’ y significa ‘regulador’ o ‘timonel’, en alusión al papel clave de la reacción o feedback en los sistemas de comunicación (Gere 2007). En el texto, Wiener explica tres conceptos básicos en el funcionamiento de un organismo o sistema cualquiera: comunicación, control y feedback160. El diagrama de las figuras 23 y 24 reproduce el concepto de retroalimentación o feedback desarrollado por Wiener en su Teoría de la Cibernética. Wiener puso fin a los procesos lineales a favor de procesos circulares en los que parte del output (salida) se remite de nuevo a la entrada de información (input), generándose así un sistema que autorregula su aproximación hacia el objetivo. Richard Rogers161 desarrolló en 1997 dos esquemas (fig.26) que explicaban el metabolismo urbano en relación con el desarrollo sostenible. El metabolismo circular (de 158 Véase definición en el Glosario. 159 Véase en el Glosario. 160 La cibernética nace con Norbert Wiener durante la Segunda Guerra Mundial, a partir del problema de automatizar la conducta de tiro de los cañones antiaéreos. Wiener postuló como forma de regulación de la conducta, en pos de los objetivos prefijados, la modificación que se da a partir de la información que se recibe acerca de los efectos que ha tenido la conducta anterior del actor. En su caso, si el cañón está informado de la distancia entre el avión y la explosión de sus obuses, puede ir acercándose progresivamente hasta abatirlo (Sandoval 2009). 161 Archigram sirvió de inspiración para Richard Rogers y Renzo Piano en el proyecto Centro Georges Pompidou construido en 1971. 205 Wiener) minimiza la entrada de nuevos inputs –energía, alimentos y mercancías- y maximiza el reciclaje. Por el contrario, el metabolismo lineal consume y contamina –output- mucho más. Rouillard (2012: 23) transcribe aquí la conexión existente desde mediados de los sesenta entre Nobert Wiener162 y los Metabolistas: ‘Las teorías de Norbert Wiener, de las cuales los arquitectos retuvieron el principio de que las relaciones eran plurales, selectivas, espontaneas, energéticas y demás, serían explícitamente mencionadas por los metabolistas desde mediados de los 1960 en adelante. Sin embargo sus ideas eran parte de una modo orgánico y tradicional de entender una infraestructura, y debido a que fueron fuertemente apoyadas por Kenzo Tange, representante de Japon en el CIAM, los arquitectos japoneses no podían imaginar una computadora como una manera de adaptar la toma de decisiones a requisitos individuales, lo que capacitaría a todos a participar en el desarrollo urbano. Hasta finales de 1960, la tecnología de la computación y la micro-computación estaban vinculados a los proyectos de entorno cibernético limitados a la vivienda’ (por ejemplo, la Casa Aida de Isozaki, a receptive163 house). Fig.26. El metabolismo de las ciudades: hacia la sostenibilidad, Rogers (1997). (a) ‘Metabolismo lineal’ b)‘Metabolismo circular’. 162 En 1906, a la edad de once años, ingresó en la Universidad Tufts, obteniendo en 1912 el doctorado en lógica matemática por la Universidad de Harvard. Wiener (1948) acuñó el término cibernética (ver glosario) en su publicación Cibernética o el control y comunicación en animales y máquinas. 163 Receptive (receptiva), que recibe estímulos. Responsive (responsiva), que reacciona. 206 Los sistemas control orgánico e inorgánico responden a principios comunes, así se plantea desde la cibernética. ‘La arquitectura inorgánica podría operar como una extensión de sus usuarios orgánicos, a su vez cada hombre y mujer una terminación nerviosa del cuerpo social’ (Sadler 2006). En este sentido, la única opción de ejercer el control sobre la masa social recaería en la computación. Sólo la máquina podría procesar tal ingente cantidad de información en sucesivos ciclos de retroalimentación. La cibernética planteaba en aquellos años la integración holística de máquina y ser humano como complementos necesarios en el nuevo ecosistema urbano. Fig.27 y 28. Diagramas cibernéticos, feedback positivo y negativo. Sadler (2006) recoge a este respecto la afirmación de Nicholas Negroponte (1970): ‘es obligatorio proceder de esta manera (…) porque vigilar cada individuo supondría demasiada tarea para cualquiera menos para Dios’. Negroponte añadiría: ‘la arquitectura, a diferencia de las damas con reglas fijas y un número fijo de jugadores, y más como una broma determinada por el contexto, es el juego de croquet de Alicia en el País de las Maravillas, donde la Reina de Corazones (sociedad, tecnología, economía) se cuida de ir cambiando las reglas’. El ciudadano de Living City adaptará la ciudad a su imagen y semejanza, mediante patrones164 de consumo y el registro posibilidades de hábitos de vida. La tarjeta perforada de la computadora (fig.31) era un recibo del ‘sistema’, un seguro de que las preferencias individuales pueden ser rastreadas tan fielmente como los de las grandes masas. Homo Ludens El proceso proyectual gestado en un contexto lúdico a menudo esconde una intención pragmática basada en un enfoque científico. Los avances tecnológicos suscitados en el seno de 164 Véase Christopher Alexander en p.215. 207 la Revolución Digital han surgido en muchas ocasiones en contextos lúdicos. Este hecho ha sido una constante en la investigación de nuevos modelos de desarrollo urbano mediante el uso de herramientas digitales. El sesgo lúdico que Archigram infirió a muchos de sus proyectos resulta contemporáneo y representativo de un patrón que se ha venido repitiendo desde el uso de las primeras herramientas digitales hasta nuestros días. La experiencia del homo ludens en formatos lúdicos como Living City o el videojuego a menudo ha sentado las bases para posteriores desarrollos académicos o profesionales. La Red alberga un número creciente de herramientas que hacen visible la experiencia urbana del ciudadano. Estas herramientas a menudo dibujan la realidad urbana referida al ocio, al tráfico, a la composición del aire…etc., en una visualización dinámica cuyos datos pueden ser introducidos por el propio individuo, que reporta información a la Red desde su dispositivo móvil. La suma de datos constituye una cartografía de visualización dinámica donde cada ciudadano es libre de geolocalizar su experiencia. Es el caso del IED Trend Map, ‘una herramienta que permite, utilizando dispositivos portátiles y las redes sociales, geolocalizar los puntos de la ciudad en los que están sucediendo los acontecimientos más interesantes relacionados con la creación artística, así como los núcleos urbanos en los cuales se concentran los profesionales que crean este tipo de iniciativas’. El concepto de ‘responsive city’, acuñado por Price y empleado por Archigram en Computor City muestra una ciudad cuajada de sensores que, como si se trataran de mobiliario urbano, recababan información en tiempo real. La profusión de dispositivos digitales en el medio urbano ha desembocado en que sea el propio ciudadano se convierta en un sensor. El propio Sadler (óp.cit., 2006: 96) vincula la teoría de juegos al planeamiento urbano, en tanto supone una vía para que el sistema asimile los deseos de más de un jugador. Esta componente de azar habilita una senda de investigación que fue explorada en Living city (1963), donde Archigram comparó el transcurrir de la vida urbana con un juego sujeto al azar. Ben Fether desarrollo en el marco del proyecto Living City un juego de mesa en el que el ciudadano iva ajustando sus habilidades innatas al juego de la vida. Fether materializaba así el vínculo entre el urbanismo y el campo lúdico y se anticipaba en más de cuarenta años a proyectos como ‘Space Fighter, the evolutionay city’ o ‘Skycar City’ de MVRDV-DSD y a los mundos virtuales alternativos que propone Internet. ‘Space Fighter, the Evolutionay City’, proyecto de investigación a caballo entre el mundo académico y el profesional, propone una interfaz donde analizar el crecimiento urbano en base a una serie de parámetros que se pueden modificar por el usuario. Esta base es una de las componentes de casi todos los mundos virtuales que simulan experiencias vitales. El videojuego se convertirá a partir de la última década del siglo XX en el auténtico simulador urbano, siendo soporte de ‘mundos virtuales’ que suponen la digitalización de aquellas propuestas sesenteras. La propuesta de Archigram implicaba una dinamización de contenidos auténtica e inmediata. Este feedback real inmediato se transformaría en ‘global’ y ‘on line’ con la llegada de Internet. Hoy por hoy, las sinergias existentes, en cuanto a estrategia de juego, tipo de análisis, interfaz y puesta en escena, entre los mundos virtuales generativos vinculados a la escena urbana -Sim 208 City, Second Life,…etc.- y los proyectos de investigación de planeamiento urbano es múltiple y potencial. A menudo, la línea que hoy separa la dimensión lúdica de la experimental característica del planeamiento urbano es inapreciable. La evolución de los motores de videojuegos ha permitido construir verdaderos laboratorios donde experimentar la simulación de la vida urbana ‘real’ alterando premeditadamente los parámetros que regulan el equilibrio entre individualismo y colectividad; qué hubiera sido de la New Babylon de Constant si el holandés hubiera dispuesto del ciberespacio para ubicar allí su ciudad ideal. Fig.29. City Synthesis, 1963, Plug-In City (1962-66), Archigram, Dennis Crompton. Maqueta conceptual. Fuente: <http://www.megastructure-reloaded.org/archigram/> Fig.31.Crowd Gloop, Living City, 1963. Fig.30. Pressure Area Section, 1964, Plug-In City (1962-66), Archigram, Peter Cook. Interacción ‘Acción que se ejerce recíprocamente entre dos o más objetos, agentes, fuerzas, funciones’. RAE. City Synthesis (1963) sentó las bases para el desarrollo un año después de Computor city (1964). Dennis Crompton describió el sintetizador o mecanismo que habilitaba la movilidad de las partes que constituían el proyecto como ‘the corner of some giant brain or analogic computer’. Crompton se refería a la interaccion hombre-máquina como ‘creadora de la urbana en base a niveles de reacción conscientes y subconscientes por su propia complejidad’: ‘[el hombre social] se identifica con la computadora natural y es una parte integral de su sistema de procesado de datos…la ciudad evoluciona cuando funcionan al unísono, y decae cuando están divididos’ Archigram supuso un cambio radical en el entendimiento de lo que podía suponer la inclusión de las computadoras en el ámbito de lo arquitectónico. Si los metabolistas tomaron la computación como un instrumento para operar sus megaestructuras de una manera jerárquica, aunque cibernética, Dennis Crompton introdujo la computación en su proyecto como un dispositivo sensible a la percepción de la acción ciudadana. La iniciativa ciudadana respondía al principio de reciprocidad entre la máquina y los habitantes, y entre éstos en sí mismos. Computor City era una responsive city o ciudad responsiva o reactiva. Archigram inventó la interacción urbana (Rouillard 2012), aunque sin acuñar el término ‘interacción’. 209 Las actividades de una sociedad organizada tenían lugar en una red equilibrada de fuerzas que interactuaban naturalmente con el fin de crear una cadena continua de cambios. El programa que ‘regulaba’ Computor City procesaba los datos enviados por los dispositivos sensibles que poblaban la ciudad. Analizaba los cambios acontecidos y da una respuesta óptima a los mismos. La orden de la computadora central era enviada y operada por la red de dispositivos que se encargaban de ajustar con precisión la manera en la que la ciudad se acomodaba al cambio. Si bien términos como ‘automatización’ si fueron introducidos en seguida en el vocabulario de Archigram, la ‘computadora’ no apareció hasta noviembre de 1964, en el nº 5 de la revista Archigram. El neologismo era tan reciente que en el magazine apareció ‘Computor’ en lugar de ‘Computer’. Computor City es proyectado en paralelo a Plug in City, siendo Crompton y Cook los líderes respetivos. Ahora bien, mientras este último quedaba definido por elementos conectados a una red, Computor City habilitaba una red en sí misma. Ya no había necesidad de una estructura arquitectónica soporte sobre la que disponer añadidos, lo que significaba la desaparición del arquitecto como proyectista de un continente. El super-hacedor pasó a ser un superprogramador, el planificador urbano resultó sustituido por el programador del software que regula la interacción ciudadana. Continuando la vía abierta por Peter165 y Alison Smithson y otros, Computor City describía la arquitectura de lo no construido, donde importa más el contenido arquitectónico que el continente. Fig.32. Computor City, Área para unos 100.000 habitantes. Archigram 5, 1964. Dennis Crompton. 165 Peter Smithson fue profesor de Peter Cook en la Architectural Association de Londres. 210 El proyecto de Crompton situó la arquitectura, y posiblemente al arquitecto, enteramente en el campo de la programación. Crompton la llamó ‘Computor City: la sombra de la ciudad’ significando que podría ser a la vez una proyección computerizada de la infraestructura ejemplo del sistema que facilitaría la operatividad óptima de Plug in City y un programa que funcionara con cualquier tipo de arquitectura. La red informática proveía el desarrollo de la instalación de manera que los edificios y la infraestructura no eran representados más. La primera acepción está en la línea de la arquitectura generativa, en la que el diseño del logaritmo lo es todo y el proyecto final es un mero desarrollo de la ecuación, y también en el origen de la smart city. El concepto de red implementado en Computor city avanzó la estrategia contemporánea de Smart City. Dennis Crompton describió en sus diagramas una ciudad cibernética que incorporaba la teoría del feedback de Weiner. La ciudad se convertía en una red sensible a la información, supuestamente retroalimentada en tiempo real, donde todos los datos eran percibidos por dispositivos sensibles o sensores: ‘Las actividades de una sociedad organizada suceden dentro de una red de fuerzas equilibrada que interacciona naturalmente para formar una cadena continua de cambios’ Un sistema computerizado procesaba los datos de la red de Computor City. Datos referentes a ‘temperatura, transporte, suministro de mercancías, grúas, niveles de autosuficiencia, habitantes, ‘plug in’ de las infraestructuras, datos estadísticos de la población, consumo, suministro energético…etc., entre otros’ (Sadler 2005: 121) eran asimilados y analizados. Sobre esta información se elaborarían instrucciones precisas que volcadas en el sistema rectificaran los procesos urbanos, ajustándolos en pos de un equilibrio integral. Crompton lo explicaba así: ‘el mecanismo (de la ciudad) es a la vez digital y biológico, produciéndose acciones racionales y aleatorias, reacciones a favor y en contra. El programa computerizado es un conglomerado de pensamiento racional, presunciones intuitivas, preferencia individual, oportunidades (…) que es asimilado e interpretado (…) describiendo un sistema ‘humano’ abierto a situaciones indeterminadas emergentes’. De nuevo Wiener y el comportamiento metabólico entre líneas. La Teoría Cibernética regulaba la relación entre el ser humano y la máquina. La deseada interacción ciudadana no hubiera podido ser posible sin un sistema de comunicación que permitiera una conexión inmediata con la computadora. La existencia de un sistema en red resultaba necesaria para tal fin, así lo mostraba la axonometría de Crompton (fig.32), donde se trazó -y rotuló- un primer orden metropolitano de conexiones: ‘Primary Feed’ y ‘Primary Return’. Sendas comunicaciones cruzan en diagonal el dibujo. Conectada a ellas, Crompton trazó en rojo una red secundaria de conexiones inter-zonales con nodos donde puede leerse la palabra ‘Sensor’. Una última red terciaria tridimensional sensible se dispone en todo el ámbito. Esta queda configurada por finas conexiones aéreas que nacen y mueren de condensadores o nodos. 211 Rouillard (2007: 29) relata la configuración de este sistema de red, estructurándolo según tres niveles de información: Primer nivel. Grabación de los requerimientos de cambio de los ciudadanos mediante sensores, y se expresa en términos de necesidades muy precisas, muy distantes de necesidades funcionales, por ejemplo, reduciendo la temperatura unos cuantos grados, expandiendo ésta y aquella unidad unos cuantos metros cuadrados (…). Segundo nivel. Transmisión inmediata de los requerimientos a través de mensajes, a cerebros electrónicos que reaccionan y responden a ellos (…). Tercer nivel. La red mantendría a la gente informada de todo lo que podría acontecer en la ciudad. Circuito (Del lat. circuĭtus). ‘Conjunto de conductores que recorre una corriente eléctrica, y en el cual hay generalmente intercalados aparatos productores o consumidores de esta corriente’. RAE. La formalización que Computor City tomó paralelo (1964) a Dennis Crompton, Peter Sendos proyectos coinciden con un hecho auténtica evolución en la arquitectura de la generación de computadoras. como referente iconográfico la computación. En Cook desarrollaba el proyecto de Plug-in City. muy destacable en la historia de las TIC, una computadora: el paso de la segunda a la tercera Fig.33, 34, 35. 1ª generación, tubos de vacío (lentos, caros y frágiles); 2ª generación, transistores (más pequeños, más baratos, más rápidos, se calientan menos; 3ª generación, circuito integrado (miniaturización, infinitas posibilidades). Fig.36.Componentes electrónicos. 212 La Primera Generación de computadoras166 (1946-1956) basó su tecnología electrónica en los tubos de vacío y la programación en ‘lenguaje de máquina’. El prototipo IBM 603 tenía más de 1.400 tubos de vacío ‘enchufables167’, y sirvió más tarde como la unidad central de procesamiento de la calculadora electrónica IBM Card-Programmed Electronic Calculator. La Segunda Generación de computadoras, abarca el periodo comprendido entre 1957 y 1963. Esta generación incorporó el transistor168 y redujo su tamaño y coste. Surgieron numerosas compañías y máquinas bastante avanzadas para su época, como la serie 5000 de Burroughs y la ATLAS169 de la Universidad de Manchester. Algunas computadoras se programaron con cintas perforadas y otras por medio de cableado en un tablero. Fig.37, 38, 39. Generaciones de circuitos: 1ª Generación, IBM 603 Electronic Vacuum Tube Multiplier, 1946; 2ª Generación, circuitos de la computadora ATLAS, Universidad de Manchester, 1962; 3ª Generación, Circuito µA709, Talbert and Widlar, 1965. Ese mismo año la llamada Tercera Generación de computadoras (1964-1970), con la aparición del IBM 360, revolucionó el mercado de la computación. Además, las placas de circuito impreso con múltiples componentes elementales pasan a ser sustituidas por placas de circuitos integrados. La invención del circuito integrado o microchip170, por parte de Jack St. Claire Kilby y Robert Noyce (1959) -que derivaría más tarde en la invención del microprocesador por Ted 166 1941 ENIAC. Primera computadora digital electrónica en la historia, no fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 tubos de vacío, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en los Estados Unidos. 167 Del inglés pluggable. 168 El transistor bipolar fue inventado en los Laboratorios Bell de EE. UU. en diciembre de 1947 por John Bardeen, Walter Houser Brattain y William Bradford Shockley, quienes fueron galardonados con el Premio Nobel de Física en 1956. Fue el sustituto de la válvula termoiónica de tres electrodos, o triodo. Fuente: Wikipedia. 169 Se decía que si Atlas se apagaba desaparecía la mitad del poder computacional de Gran Bretaña. 170 Véase definición en el Glosario. 213 Hoff de Intel- supuso una importante transformación en la organización de la estructura electrónica de la computadora. Nuevamente las computadoras se hicieron más pequeñas, más rápidas, generaban menos calor y eran energéticamente más eficientes. Fig.40. 2ª Generación, 1953. Universidad de Manchester, computadora UK TC con transistores. Fig.41. RCA 501 computer, una de las primeras máquinas comerciales con transistores en USA, presentada en 1958. Fig.42. Sonotone 1010, 1952. Primer producto de consumo en USA construido con transistores, un audífono de $229.50. La axonometría de Crompton (1964) recuerda al paisaje del circuito impreso donde se disponen una serie de caminos o pistas de material conductor sobre una base aislante. Esta retórica electrónica, compartida en Plug-in City, construye paisajes con componentes y redes. El paisaje arquitectónico de la ciudad se convierte en un sistema integral que implementa la iconografía del circuito electrónico. Los componentes electrónicos (fig.36), generalmente cerámicos, plásticos o metálicos, se suelen encapsular. Resistores, condensadores, diodos, transistores,…etc., están diseñados para conectarse entre ellos habitualmente soldando los terminales o patillas metálicas. Fig.43.‘Hard and Soft-ware’, Archigram, nº 8 1968, n.p. Fig.44.Archigram nº 8. Autor de la portada: James Meller. Fig.45.Típica instalación de centro de cálculo IBM System 360, 1964. Computor City contaba en el proyecto con un programa escrito en un lenguaje de programación que debería ser procesado por una computadora que regulara la estructura comunitaria. En diciembre de 1966, la portada del nº7 de Archigram ponía en evidencia el interés del grupo en el proceso incabado de proyecto, por encima de la formalización final del edificio terminado. En el editorial, Peter Cook avisaba de que ‘no debería haber más edificios en Archigram 8’. Archigram 8 no incluía edificios masivos, dejando claro que los edificios masivos no tendrían 214 cabida en el futuro (Sadler, óp.cit., 2006). La portada contaba con una ilustración de James Meller que representaba un loom computerizado, la representación de un patrón programado por ordenador. Fig.46. Control and Choice, Archigram, Warren Chalk, Peter Cook, Dennis Crompton y Ron Herron, 1967. Archigram fue invitado en 1967 a la Bienal de jóvenes de París. Warren Chalk, Peter Cook, Dennis Crompton y Ron Herron propusieron Control and Choice, un nuevo proyecto que persistía en la vía de investigación que mantiene la interacción del usuario como una de las premisas de interés. Con la experiencia adquirida en proyectos como Computor City o Living 1990, presentaron una propuesta en la línea de Christopher Alexander y su fijación en evitar la mano del arquitecto ‘diseñador de objetos’. En esta ocasión el usuario de este proyecto residencial dispone de un sistema abierto que admite la evaluación (control) y elección (choice) de la configuración doméstica en función de su modo de vida. Lejos de formalizar ningún tipo cerrado, a la manera de la ortodoxia moderna, proponen configuraciones efímeras que van adaptando el hábitat residencial a las necesidades del usuario morador. ‘Inevitablemente, el ensamblaje tiene que ser un conglomerado de sistemas, organizaciones y aparataje técnico que permita la elección de una respuesta entre un numero de alternativas; y explotar las distintas formas de la limitación física de una pieza de hardware frente a las ilimitadas posibilidades atmosféricas de un medio efímero...Existe un miedo natural en todos nosotros que desconfía del poder de la máquina frente a la responsabilidad humana. La dependencia de este tipo de elementos para una vida emancipada es una de nuestras paradojas.’ (1967 ‘Control and Choice’. Peter Cook. 1972. Archigram).171 El grupo fue contratado para proyectar ‘una casa para el año 1990’ por Weekend Telegraph Magazine con motivo de la exposición House of the Future de 1967, celebrada en los almacenes Harrods de Londres. El propio Warren Chalk172 explicaba la intervención del grupo ‘para 171 Fuente: <www.arqueologíadel future.blogspot.com>. 172 CHALK, Warren (1967) ‘Living, 1990’, Architectural Design, marzo, p.146. 215 demostrar como la tecnología de la computación y los conceptos de expendability173 y ocio personal podrían influir en la forma de las casas del futuro’. Mike Webb introdujo en el prototipo dos robots móviles: Fred y James (figs.47, 48 y 49). Estos electrodomésticosautómatas podían desplegar pantallas que habilitaban un ámbito privado al que se ajustaba temporalmente el techo inflable. Equipados con expendedor de refrescos, radio y la última tecnología en televisión. Los robots convivían con mobiliario hinchable y con la ‘hoverchair’, una silla que implementaba la tecnología hovercraft en sus desplazamientos. Un muro de servicio conectaba la vivienda con la megaestructura urbana que proveía del resto de instalaciones básicas a las viviendas plugg in. Fig.47.Diagrama del movimiento durante un día de los robots Fred y James. Living 1990, Archigram. Fig.48. Robot James, planta y alzado. Living 1990, Archigram. Fig.49. Robot Fred, planta y alzado. Living 1990, Archigram. Alison y Peter Smithson también emplearon la tecnología en la Home Of The Future de Septiembre de 1956 proyectada para la exposición La casa ideal, esponsorizada por el London Daily Mail Ideal Home Exhibition. Este prototipo antecesor del de Archigram también permitía a los usuarios la elección de consumo a través de componentes intercambiables, si bien los dispositivos que proponía Archigram hacían del ámbito domestico un entorno más flexible174. Sendos prototipos apostaban por una vivienda que preservaba la integridad e independencia de los individuos que en ella moraban. 173 ‘Sujeto a ser usado o consumido’. Traducción de Carmelo Rodriguez Cedillo. 174 Véase House of the Future, Alison y Peter Smithson. 216 Fig.50.Living 1990, 1967, Archigram Fig.51.Control & Choice, 1967. Peter Cook, Dennis Crompton y Ron Herron. Fig.52. Living 1990, serie de plantas, 1970. Archigram. Archigram presentó en 1968 su octava publicación en un formato peculiar, una colección de cartas. Entre ellas, Hard and Soft-ware (fig.43) incluía un texto en lenguaje de programación. El grupo británico expuso metafóricamente una reflexión acerca de lo tangible y lo intangible de lo arquitectónico. En la disyuntiva que plantea la dualidad del hardware y lo construido o la envolvente, y el software y lo no construido o lugar, Archigram se decanta hacia el lado inmaterial y cambiante de lo arquitectónico. La formalización de dispositivos de hardware quedó identificada con las megaestructuras de principios de los sesenta, mientras el software respondía a la organización de la información en red. Una red interactiva que integraba en un equilibrio perfecto a la ciudadanía con la trama urbana. ‘Estos términos 'Hardware' y 'software' se han tomado de la jerga informática. 'Hardware' se refiere a cualquier objeto tangible, tocable. 'Software' es el sistema, el mensaje o programa que se puede transmitir, pero no tocar. En planeamiento urbanístico estamos llegando a un punto en que el alcance del 'software' es suficiente para organizar la correcta disposición (control; posicionamiento) de un entorno. Esta simplificación tiene la intención -y la necesidad - retórica en un momento particular de la historia. De hecho, es paralelo a la retórica arquitectónica futurista maquinista. El Hardware tiene limitaciones. El Software se lanzó contra él con el fin de exponer la continua y completa adicción del arquitecto al hardware. Una vez que la cosa se haya refrescado, podemos seguir adelante con la vinculación de los dos juntos como sistemas de interactivos (response systems).’ ‘Hard and Soft-ware’, Archigram nº 8, 1968, n.p. Del mismo modo que Archigram fue abandonando el interés en las megaestructuras de los primeros años (Hardware) en favor de los sistemas (software), Arata Isozaki replicaba esta conducta en referencia a las propuestas del grupo Metabolista japonés. Las propuestas arquitectónicas desmaterializaban su continente tectónico, reservándose para el contenido 217 estratégico. Surgiría lo que Bahnam vino a llamar intervenciones clip on175 que prescindían de una infraestructura servidora. La colectividad que habitó las grandes propuestas de ciudad dio paso a proyectos individuales que se ajustaban a las necesidades de cada ciudadano, como en el caso de Living Pod de David Green (1966), Suitaloon de Michael Webb (1967) o Bathmatic. Robots (Del ingl. robot, y este del checo robota, trabajo, prestación personal). ‘Máquina o ingenio electrónico programable, capaz de manipular objetos y realizar operaciones antes reservadas solo a las personas’. RAE. A pesar de ello, el pabellón proyectado por Kenzo Tange para la Exposición Universal de Osaka, en 1970, presentaba una superestructura que cubría una gran plaza donde tenían lugar diversos eventos de la muestra. La gran cubierta contaba con componentes que se incrustaban, con mecanismos plug in, en los módulos tridimensionales del orden estructural. Ahora bien, bajo este proyecto que recordaba otras muchas megaestructuras metabolistas, acontecía una propuesta relacionada con el concepto de arquitectura-software. El entorno robótico que Isozaki dispuso en bajo el gran atrio, ofreció a los visitantes una muestra de integración robótica en un ámbito arquitectónico de vanguardia. Fig.53.Diagrama del robot de la instalación de la Expo 1970, Osaka. Isozaki. Fig.54.LIFE, portada. Expo 1970, Osaka. Isozaki. Fig.55.Theme Pavillion, Kenzo Tange. Claro está que tras la década de los sesenta el gran público ya tenía sus referentes de la ciencia ficción y estaba familiarizado con la figura del robot ‘esclavo’. Ello supuso que tanto Isozaki como Archigram tuvieran que explicar la verdadera razón de integrar la máquina programada en sus proyectos. El robot gigante de Isozaki manipulaba mobiliario, grúas, pantallas, camas, luces. La máquina bicéfala disponía de dos salas de control. En la primera, se recogía y procesaba información del entorno. En la segunda, se producía la respuesta en forma de instrucciones que accionaban dispositivos de humo, luz, sonido y olor. El cuerpo del robot podía elevarse una 175 Véase Glosario. 218 altura de setenta y tres metros. Los movimientos le permitían participar de una coreografía que tenía lugar durante la exhibición. Afirma Sadler (óp.cit., 120) que Archigram quedó realmente impresionado por el trabajo de Isozaki, y no es de extrañar. El grupo británico intervino en la muestra con una instalación localizada en el Theme Pavillion de Tange en forma de gruta por la que pasaban por la que pasaban miles de visitantes. Al visitante se le realizaban cinco preguntas sobre la ciudad a las que respondía pulsando el botón ‘si’ o ‘no’. Las cinco preguntas (Rodríguez 2013) eran: ‘¿Te gustaría una ciudad muy organizada? ¿Necesitas el apoyo de muchos equipamientos? ¿Necesitas una ciudad para su estilo de vida? ¿Preferirías ser un ciudadano del mundo? ¿Necesitas un espacio entre tus sueños y el entorno real?’ Ese mismo año de 1970, Peter Cook, Dennis Crompton, Colin Fourier, Ron Herron, Diana Jowsey y Frank Newby -como Arquitectos Archigram- presentaron el proyecto del Centro de Ocio de Mónaco. Entre el conjunto de kits que se desplegaba bajo la superestructura de la arena dispusieron cuatro tipos diferentes de robots: el ‘gran’ robot extensible con proyectores, altavoces…etc; un prototipo de robot pequeño transportable y otro suspendido. Fig.56.Steam-Bath Apparatus, 1855. Fig.57.Suitaloon, 1967 Fig.58.Balthmatic. Tecnología Personal De modo análogo a la evolución de la computadora, desde el gran formato del ENIAC a la computadora personal ‘PC’de los años setenta, la arquitectura de Archigram acabó centrándose en el individuo, vistiéndole con propuestas arquitectónicas individuales hasta convertirlo en un cibor (fig.57). La instalación del inflable Suitaloon en la sección internacional de la Trienal de Milán de 1967, cuyo temática versaba sobre el crecimiento demográfico, mostraba al protagonista Deivid Greene desplegando el prototipo y descansansando en el interior. Tumbado y casi sin vestimenta, Greene permanecía protegido del entorno por la piel plástica de su traje 219 arquitectónico. Ahora bien, no se encuentraba aislado del exterior, el kit Info-Gonk176 le permitía ‘habitar’ una realidad virtual representada. De esta manera el grupo británico presentaba en Archigram 8 un futuro tecnológico en el que la experiencia doméstica se reduce a una propuesta de percepción tecnológica cuya representación tiene lugar en nuestro cerebro: ‘si se desarrolla, la extensión de la personalidad podría volverse la piedra angular del entorno’. Este prototipo de vivienda portátil y confortable supone una síntesis entre lo biológico, los sistemas mecánicos tecnológicos y la realidad alternativa propia del Entorno Aumentado. InfoGonk constituye el soporte que habilita el entorno aumentado en este proyecto doméstico177. Info-Gonk también se encuentra en ‘Emancipación’, Archigram 8, 1968. En esta ocasión y vinculado a una estrategia de género, podemos observar a una mujer haciendo uso de esta tecnología. Junto a ella, un individuo portando el casco audiovisual de Walter Pichler (Viena, 1966-90). Como apunta Haraway178 en Simians, Cyborgs, and women: the Reinvention of Nature, ‘la integración del ser humano y la máquina evocaba un potencial emancipatorio. Si la libertad tecnológica de la mente sería o no secundada por la autonomía sexual del cuerpo, solo podría ser una cuestión especulativa.’ El proyecto The Instant City (1969) se trataba de un conjunto de infraestructuras y equipamientos tecnológicos itinerantes cuyo objetivo era transformar temporalmente un ámbito periférico o suburbano carente de estas posibilidades culturales en un autentico nodo cultural. La propuesta original había sido la de Jhoana Mayer en 1950. En esta secuela, Archigram pretendía inducir la cooperación y la creatividad en los individuos que habitaban lugares ciertamente desconectados de la contemporaneidad como lo es la provincia. Esta muestra cultural itinerante alimentaría el desarrollo de lugares deprimidos culturalmente. Toda una infraestructura audiovisual pondría al día a sus ciudadanos, de modo similar al proceso de globalización de internet. El carácter lúdico de la propuesta continuaba la línea propositiva de New Babylon de Constant. 3.4.3.4. Del desenlace arquitectónico al patrón generativo. EL trabajo de Christopher Alexander durante la década de 1960 y 1970 supuso un acercamiento implícito a la computación. Ya en la Universidad de Cambridge expresó su deseo de aprender programación, de hecho fue uno de los pocos arquitectos que supo programar en los sesenta. Curso el grado de matemáticas y después se graduó en arquitectura en el programa dirigido por Leslie Martin (Keller 2005). Alexander implementó la cibernética y la IA en un intento de describir la complejidad creciente de los problemas de diseño. 176 Véase Info-gonk en Cap.II, Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google. 177 Este dispositivo anticipa las gafas de realidad aumentada de Google y otros dispositivos electrónicos en la misma línea. 178 Steiner, óp.cit., 2009, p.172. 220 Christopher Alexander (1964) afirmaba en Notes on the Synthesis of Form que ‘la intuición (citada por Crompton en el texto anterior) no podía tener en cuenta todos los factores del proyecto en un campo progresivamente confuso’. Siendo esto así y al surgir los problemas propios de una confluencia urbana y mutar éstos más rápido de lo que ningún proyectista pudiera imaginar179, Alexander propuso un sistema jerárquico que presentara descripciones objetivas y unificadas del fenómeno formal, para asegurar la correspondencia de la solución física con el patrón del problema a resolver. Alimentando la necesidad de tomar las conductas de los usuarios siempre por encima del criterio del proyectista, Alexander popularizó en su libro A Pattern Languaje180 el concepto lenguaje de patrón, ideado junto con Ishikawa y Silverstein: ‘Cada patrón describe un problema que ocurre una y otra vez en nuestro entorno, para describir después el núcleo de la solución a ese problema, de tal manera que esa solución pueda ser usada más de un millón de veces sin hacerlo si quiera dos veces de la misma forma.’ Consistente en una metodología estructurada que pone al alcance del usuario el proyecto arquitectónico, una arquitectura generativa basada en patrones, Alexander calificaría el proceso de construcción de la arquitectura moderna como ‘ridículo, estrecho e inhumano, una psicosis pasajera en la historia de la creación del hombre’. La manera en que Alexander ordena la información implica asumir el solapamiento de actividades.181 Propone tres conceptos paradigmáticos que estructuren la ciudad: La cualidad: la esencia de todas las cosas vivas y útiles que nos hacen sentir vivos, nos da satisfacción y mejora la condición humana. La puerta: el mecanismo que nos permite alcanzar la calidad. Se manifiesta como un lenguaje común de patrones. El camino: siguiendo el camino, se puede atravesar la puerta para llegar a la ciudad. Como todos los lenguajes, un patrón contiene vocabulario, sintaxis y gramática. El lenguaje patrón de proyecto incluye también estos tres elementos. La descripción del lenguaje, el vocabulario, es una colección desoluciones nombradas y descritas a los problemas de un campo 179 Steiner, ibíd., p.187. 180 Christopher Alexander ha sido reconocido como el padre del ‘pattern languaje’ en las ciencias de la computación. Christopher Alexander, Sara Ishikawa y Murray Silverstein, (1977) A Pattern Language : Towns, Buildings, Construction, New York: Oxford University Press. 181 Para profundizar en cómo los sistemas pequeños interactúan dentro del más grande y complejo, ver KARATANI, Kojin (1995) Architecture as metaphor, M.Speaks (ed.), Cambridge, MA: MIT Press, p.2947. 221 de interés determinado. Son los llamados ‘patrones de diseño’: cimientos, edificios, salas, ventanas, cerraduras, etc. La sintaxis son esas reglas, por ejemplo geométricas, para articular esos elementos. La gramática describe como las soluciones resuelven un problema o producen una mejora. Si la mejora es innecesaria, la solución no es útil. Alexander criticó en A city is not a tree (1965-66) el mecanicismo tecnocrático en tanto que emplea el patrón arborescente de toma de decisiones182. A la vez, defendió el Paradigma de la Complejidad vinculado a al tejido enredado de elecciones y azares que supone la urbe, hecho aplaudido en su día por Peter Cook. 3.5. Postulados y visiones pre-globales, 1970-1998. La facción tecnológica de la arquitectura de la década de los sesenta vista hasta ahora, pionera en inaugurar el proceso de la convergencia físico-digital, no cesará también a lo largo de este periodo pre-global en el desarrollo de las técnicas ya apuntadas anteriormente, si bien, reconducirá su discurso teórico. El concepto de interacción y otros muchos derivados del uso de la computación, ya formaban parte del lenguaje y de la práctica arquitectónica. A diferencia de lo acontecido en la época heróica de la Revolución Digital, la influencia de la ideología Post Moderna hará que la implicación del edificio en el contexto exterior gane enteros, en detrimento de las arquitecturas planteadas desde la atención a la organización interior de su metabolismo. En este sentido, la interacción del sistema -tan vinculada a la computación en la década de los sesenta- pasará a un segundo plano, cobrando gran relevancia la atención mediadora del edificio con su entorno. No hay que olvidar que no será hasta la llegada de Internet (1998) cuando la computadora se identifique como medio de comunicación. Hasta bien entrada la década de los noventa, la implicación digital de la computación versará, sobre todo, en la influencia que las nuevas aplicaciones del diseño asistido por ordenador operen en el desarrollo del lenguaje retórico propio del discurso de la deconstrucción. Fig.1.Computor Aided 1972. Arata Isozaki. City, planta, Fig.2.Concurso Pompidou, sección axonometría, 1972. Cacoub, Perugini, Heim de Balsac, Roa y de Rossi. En el campo del proyecto arquitetónico, Computor Aided City (1972) de Arata Isozaki tomó el testigo de Computor City (1964) de Archigram. De nuevo un gran ordenador central generaba 182 Fernández-Galiano (El País, 27 mayo 2006). 222 un catálogo de posibilidades urbanas, algunas recreadas en el Climatroffice de Norman Foster. El Concurs Pompidou celebrado en 1972, ya mencionado anteriormente a propósito del equipo ganador, tuvo algunas entradas que si bien no resultaron ganadoras si fueron destacadas por su planteamiento integrador de la computación en la disciplina arquitectónica. La desarrollada por el equipo formado por Cacoub, Perugini, Heim de Balsac, Roa y de Rossi reunía una arquitectura cinética, cibernética y electrónica cuya figuración formal recuerda a la The Analitical Engine de Charles Babbage. Un año antes, en febrero de 1971 los Eames inauguraban en Nueva York la exposición A Computer Perspective -cuyo contenido sería publicado dos años después en un libro homónimo- como parte de una prolífica colaboración con IBM que daría entre otros frutos la grabación de las películas Computer Landscape (1971), Computer Perspective (1972) o Mathematica (1961 y 1978183). Por otro lado, la implicación del Entorno Digital en el ámbito doméstico iba articulándose en nuevos foros, como en el caso del Concurso Shinkenchiku de 1990, cuyo lema ‘La Casa como un Dispositivo electrónico para vivir en él’ indujo a Konstantin Savkin a concurrir con una vivienda mediadora organizada en base a un esquema que ‘codifica la información sobre la vida de los habitantes y lo transfiere la fachada (una pantalla a tiempo real)’. La propuesta de Price se alejaba de la estética tecnológica, planteando simplemente equipamientos inalámbricos y soporte técnico. La perspectiva de la computación resultaba en los setenta inseparable de la tendencia formalista y semiótica del primer postmodernismo. Contrariamente a la directriz cibernética de los arquitectos de esta década, la cual atribuía un origen natural a los patrones, el historiador Manfredo Tafuri planteó en Architecture and Utopia (1973) los sistemas arquitectónicos computerizados como ‘lenguajes artificiales dispuestos a dominar el progreso’. Asimismo, el filósofo Jean François Lyotard en el ensayo publicado en 1979, The Postmodern Condition, señaló184 la emergencia del ‘juego lingüístico y una sociedad más orientada a la cibernética’ como una de las claves del Postmodernismo. En 1988 se produjo un acontecimiento trascendente en el plano teórico de la disciplina; la primera publicación de Le Pli, Leibniz et le baroque, a cargo del filósofo francés Gilles Deleuze, supuso un impulso seminal hacia la comprensión de otras geometrías espaciales de mayor vinculación con la topología que con la dimensión extensa euclidiana de arquitecturas anteriores. Cuatro años más tarde, Peter Eisenman (2013a) explicó en el artículo Visions Unfolding: Architecture in Age of Electonic Media los fundamentos de la sustitución del Paradigma Mecanicista por el ‘electrónico’, con la siguiente disimilitud entre la fotografía analógica, característica del primero, y el fax propio del segundo: ‘En la reproducción fotográfica el sujeto todavía mantiene una interacción controlada con el objeto, y aún retiene su función de intérprete (...). Con el fax, el sujeto ya no es llamado a interpretar, la reproducción tiene lugar sin ningún tipo de contro o ajuste’. 183 184 Versión alemana de la exposición inglesa de 1966, producida para la rama alemana de IBM. Picon, óp.cit., p.46. 223 Peter Eisenman completó su tesis doctoral bajo la tutela de Leslie Martin185, el fundador en 1967de LUBF (Land Use and Built Form Studies) en la Universidad de Cambridge. Este grupo de investigación tenía como objetivo principal transformar el royecto arquitectónico en una práctica computacional basada en la consideración de patrones espaciales y funcionales186 (Picon 2010: 38). Según Eisenman, el nuevo paradigma tecnológico implicaba un enorme potencial arquitectónico al definir la realidad en términos de media-ción y simulación; valorando la apariencia sobre la existencia. Esta circunstancia implicaba la subversión del punto de vista monocular de Brunelleschi, que desde el siglo XV había dominado la arquitetura con su visión mecánica. La transformación acontecida en el resto de las artes con la inclusión de la variable dinámica del tiempo -expresionismo, cubismo, Robert Smithson,…etc.- parecía llegar por fín al orden arquitectónico. El concepto de plegar impuso una revisión del espacio visual arquitectónico, más allá de la razón, el significado y la función. Deleuze inauguró un camino que el Entorno Aumentado recorre hoy en día, desde su naturaleza híbrida físico-digital, sintonizando con nuevas y multiples dimensionalidades. La propuesta de una arquitetura más afectiva y menos efectiva, separaba al arquitecto postmoderno de los presupuestos lineales y utilitarios del Movimiento Moderno, alineándolo con una arquitectura que diera una ‘respuesta sensorial al entorno físico’ (Eisenman, 2013b: 23), circunstancia ya explorada por la arquitectura y las performances de Ray y Charles Eames o Robert Venturi. Las preferencias de Venturi por el manierismo y el Barroco fueron expuestas en 1966 en Complexity and Contradiction in Architecture, en un alegato crítico frente al reduccionismo del Estilo Internacional, que establecía la apertura del período Post-Moderno y la superación del funcionalismo higienista impulsado por el Movimiento Moderno. Es en Learning from Las Vegas (1972) cuando Venturi retrata y defiende, junto a Denisse Scott Brown y Steve Izenour, la capacidad de comunicación del edificio, así como la aceptación y empatía con el contexto físico y social, en connivencia con la línea argumental semiótica de Umberto Eco187. Las posiciones teóricas que ampliaban el registro arquitectónico hacia la inclusión en el edificio de otras atenciones diferentes a las implementadas en lo que iba de siglo XX, encontraron sinergias conceptuales en los programas de diseño asistido por ordenador188 (CAD). La naturaleza particular del deconstructivismo hizo que el empleo del ordenador fuera especialmente pertinente, y que los sistemas de CAD, junto con la fabricación asistida por computadora (CAM) que permitía la fabricación estandarizada de elementos modulares ligeramente diferentes, comenzaran a expandirse en la disciplina. Las pulsiones teóricas deconstructivistas y su tendencia hacia la fragmentación dejaron huella en obras como La Villette (1982) de Bernard Tschumi; el Wexner Center for Arts (1989) de Eisenman; las propuestas de Coop Himmelblau en Vienna; el concurso Biology Center for the 185 Magalhaes, 2004, óp.cit. Tanto Christopher Alexander como William Mitchell estuvieron vinculados a la experiencia LUBF. 187 ECO, Umberto (1976) A Theory of Semiotics, London: Macmillan. 188 Note el lector la inclusión del término ordenador en vez de computadora, como consideración del inicio de la expansión de la computadora personal o PC que tuvo lugar a finales de la década de los setenta y principios de los ochenta. 186 224 University of Frankfurt, competition (1987) de Peter Eisenman; la Gehry House (1977-87) y la Familian Residence en Santa Monica (1978), de Frank Gehry; el concurso The Peak, en Hong Kong (1983), de Zaha Hadid; la Rotterdam Building and Tower (1981), de Rem Koolhaas; o el concurso City Edge Competition en Berlin (1987), de Daniel Libeskind. Estas obras formaron parte de la exposición del MOMA celebrada189 en 1988 y titulada ‘Deconstructivist architecture’que cristalizó el movimiento y dio notoriedad a sus integrantes. Fig.3.Field diagrams, 1997. Stan Allen. Fig.4.Eurhythmics Centre, 1993-94.Alicante. Enric Miralles. Poco a poco, el software de los programas de diseño asistido por ordenador fue mejorando su operatividad, brindando al usuario una paleta más completa de herramientas. La penetración del software en los estudios de arquitectura fue pausada, y no sin encontrar un fuerte rechazo por parte de los sectores más tradicionales. A menudo, la estética CAD contagiaba la retórica de técnicas pre-digitales; los primeros bocetos de Zaha Hadid proponían una retórica que podría recordar a representaciones generadas por computadora, pero realmente no fueron así desarrollados. Frank Gehry, conocido por simultanear modelos físicos y virtuales en el proceso proyectual, empleó el sofisticado programa de diseño aeronaútico CATIA en el proyecto del Museo Guggenheim de Bilbao (1991-1997), lo que significó un punto de inflexión en la exploración formal. La arquitectura curvilínea vió en este edificio su adalid. A partir de entonces, el modelado por ordenador permitió la representación sencilla de superficies de doble curvatura que a la postre configurarán la arquitectura ameboide y viscosa, acuñada por Greg Lynn (2013: 28) en 1993 con el término blob190. Éste derivará en otras formas complejas cuya manipulación algorítmica producirá arquitecturas con una fuerte atención morfogenética, como en el caso de la arquitectura generada por geometrías basadas en el uso de la herramienta NURB191. 189 Comisariada por Philip Johnson en colaboración de Mark Wigley. Véase definición en el Glosario. 191 Acrónimo del inglés nonuniform rational B-spline. 190 225 Las condiciones de campo como geometría estructural del proyecto arquitectónico (fig.1) fueron recuperadas en 1997 para el debate teórico por Stan Allen (2013: 70), y entre otros, por FOA en el ámbito del proyecto, con el celebrado concurso de la Terminal Internacional Portuaria de Yokohama (1995). Esta nueva jerarquía en la estructura arquitectónica anticipa el campo informacional del lugar aumentado192, fundamento del Entorno Aumentado. Tanto el proyecto de FOA como el Eurhythmics Centre de Alicante (1993-94) de Enric Miralles, usaron la sección cinemática como herramienta de proyecto que incorpora el tiempo como variable en la representación del edificio, en base a una secuencia de cortes que expresan las variaciones de la topografía (fig.2). Habrá que esperar hasta 1998 y la creación de la World Wide Web para que se dispongan las bases del desarrollo de todo el potencial del concepto de campo aplicado a la capa digital del Entorno Aumentado. Es apartir de esta fecha cuando, a tenor del desarrollo de Internet, la computadora asumirá además de la capacidad procesal, la competencia como medio de comunicación. Desde su libro City of Bits (1995), William Mitchell urgía a los arquitectos a plantearse el ciberespacio como campo de trabajo dada la necesidad de buen diseño, también en la dimensión digital. Esta circunstancia enseguida fue tomada en cuenta por las grandes compañías vinculadas a las TIC, como Microsoft. El proyecto arquitectónico comenzó así a ocuparse del ámbito ciberespacial, pero ha sido a raíz de la emergencia del Entorno Aumentado y su contribución concreta a la fusión físico-digital cuando se ha producido la auténtica llegada de la arquitectura entendida como intefaz. Como observa Picon ‘no es accidental (óp.cit.: 56) que una institución como el Media Lab del MIT, que trabaja fundamentalmente en cuestiones relacionadas con la interfaz, esté afiliada a una escuela de arquitectura’. Negroponte también anticipó la cuestión: la interfaz se ha convertido en un problema arquitectónico. Desde la perspectiva social, la arquitectura como interfaz cobra si cabe mayor sentido al considerar la necesidad social de poner en común la dimensión individual del usuario, supuesto imperativo de la era digital en el que insiste Nicholas Negroponte193. La hibridación físico-digital propia del Entorno Aumentado, anticipada con la emergencia del ciborg por William Gibson (Neuromancer, 1984), Donna Haraway (Manifesto for Cyborgs: Science, Technology, and Socialist Feminism) o Neil Stephenson (Snow Crash, 1992) resultó evocada por Mitchell (Me++: The Cyborg Self and the Networked Cuty, 2003) a propósito de la deslocalización parcial del sistema nervioso en el entorno electrónico y anteriormente por Toyo Ito (Tarzan in the Media Forest, 1997): ‘We of the modern age are provided with two types of body. (…) The real body which is linked with the real world by means of fluids running inside, and the virtual body linked with the world by the flow of electrons’. 192 193 Véase en Cap.I, Escenario ontológico. Negroponte, 1995, óp.cit. 226 Capítulo IV Post-Revolución Digital. El Entorno Aumentado. (EA) 4.1. La convergencia tecnológica 4.1.1. Topología del Entorno Aumentado. Deriva digital hacia la eclosión 4.0 4.1.2. El fin de la mano mecánica y el advenimiento de la ergonomía post-digital 4.2. El proyecto arquitectónico del Entorno Aumentado 4.2.1. El carácter inteligente de los parámetros. Variaciones sobre un tema 4.2.2. La narrativa proyectual dinámica. Del zootropo a los Serious Games 4.2.3. El chip replicante. En busca paisaje sensorial natural 4.2.4. A propósito del reciclado digital: el proyecto nómada 4.2.5. El proyecto procedimental: arquitectura opensource y proyecto colaborativo 4.3. El hábitat del Entorno Aumentado 4.3.1. La vivienda aumentada. Ciudadanización de la domus 4.3.1.1. Perfil antropológico de la vivienda aumentada. Del morador al electronómada [-11.000, +1998] 4.3.1.2. Interferencia mediática en el ámbito doméstico. Cartografía multimedia de las TIC 4.3.1.3. Interferencia informacional en el ámbito doméstico. Del PostIt de nevera a la realidad aumentada 4.3.1.4. Apuntes sobre la casa del futuro 4.3.1.5. Vanguardia de la vivienda aumentada 4.3.2. La ciudad aumentada. Domesticación de la ciudad 4.3.2.1. La disolución del entorno dicotómico tradicional 4.3.2.2. El umbral aumentado. La sintonización del paisaje 4.3.2.3. El entorno transfigurable y el declive de la estética estática 4.3.2.4. De la fachada mediática a la capa aumentada 4.3.2.5. La Ciudad Origami 4.3.2.6. Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo 227 4.1. La convergencia tecnológica. El Entorno Aumentado aflora con la precipitación del proceso evolutivo de las tecnologías de la información y la comunicación, y la adhesión extendida a los presupuestos derivados del Paradigma Digital. El análisis del estado del arte, así como del alcance del proceso, resultan necesarios para interpretar con rigor las acciones que construyen el nuevo entorno. Una colección de avances concretos, producto de la deriva tecnológica propia de finales del siglo XX y principios del XXI, vertebra el proceso constructivo. La topología de la fusión digital con el Entorno Físico pone de manifiesto la vanguardia de esta convergencia; su descripción resulta vital para cartografiar el acontecimiento. 4.1.1. Topología del Entorno Aumentado. Deriva digital hacia la eclosión 4.0. ‘Esta especie de insurrección propulsada a silicio, basada en la red y dirigida por los ilustrados contra el orden establecido, tuvo su 1789, su octubre, su 4 de Mayo –puede poner el lector su fecha favorita- alrededor de 1993, con el despegue de la World Wide Web y la aparición de la revista Wired. Resultaba obvio para cualquier observador que los sistemas habituales estaban siendo barridos por procesos simultáneos, casualmente relacionados, de innovación tecnológica, movilización de capitales, reorganización social y transformación cultural.’ William J. Mitchell, e-topía, 1999. Kurt Lewin (1936) propone en sus Principios de la psicología topológica un entramado conceptual para expandir el empirismo en formas que esclarecen los nexos entre los acontecimientos posibles y no posibles. La relación topológica establecida entre el Entorno Físico, Digital y Aumentado, concreta y delimita el ámbito de existencia de cada uno, pero también vislumbra ciertas tendencias como consecuencia de la inercia del proceso tecnológico. El equilibrio entre la razón lógica y la emoción sensible resulta alterado en cada nuevo estadio del progreso; a veces con dominio de la primera, a veces bajo la principal influencia de la segunda, el Entorno Aumentado se nutre de tecnología para fabricar nuevos escenarios. Ya nadie cuestiona la convivencia de las computadoras con la especie humana, tampoco al revés. Incluso el campo disciplinar de las bellas artes o de la arquitectura reservan una cuota altísima de propuestas que necesitan la máquina. Pero la relación contemporánea con la tecnología diverge de la existente en épocas pasadas. El temor o la sospecha hacia una Inteligencia Artificial1 que sometiera a los humanos parecen relegados a existir como arquetipos ya escritos en la distopía literaria. Los orígenes de la 1 Véase definición en el Glosario. 228 búsqueda de máquinas pensantes se remontan a Aristóteles y su intento de describir el funcionamiento racional de la mente. Ctesibio de Alejandría fue de los primeros en construir una máquina automática que regulaba el flujo de agua. La herencia griega desarrollada con eficacia y sabiduría por el pueblo árabe fue fructífera en cuanto a la invención de todo tipo de instrumentos y técnicas. A las puertas del Renacimiento, Ramón Llull valoró en 1385 en el Ars Magna o Ars Generalis Ultima (fig.1) la posibilidad de construir razonamiento de manera artificial en un artefacto mecánico con el que poder revelar las verdades de la fe de una manera tan clara que no hubiese lugar a discusión. Pretendía construir una máquina que demostrase que los dogmas de la fe cristiana eran correctos y una tesis, en forma de libro, que sin lugar a dudas pusiera sobre la mesa los errores que cometían los infieles. Aunque el Ars Magna era un autómata muy rudimentario que combinaba cincuenta y cuatro ideas o raíces2, se considera el primer intento de utilización de medios lógicos para producir conocimiento y una de los primeros desarrollos de sistemas de inteligencia artificial. En el siglo XVI, Giordano Bruno retomó y amplió su trabajo, al igual que hiciera, en el siglo XVII, Leibniz3 en su obra De Ars combinatoria. Ciertamente fue en los años cincuenta del siglo XX cuando se reparó con mayor intensidad en la especulación sobre el alcance de la inteligencia artificial, concepto evocador de todo un género llamado a producir las obras maestras de la ciencia ficción y muy influyente en determinados arquitectos coetáneos. Publicaciones como Giant brains or machines that think (1949), del científico norteamericano Edmund Berkeley (fig.2), popularizaron las primeras imágenes de computadoras. Casi una década más tarde, Archigram abrirá una vía arquitectónica de propuestas influidas por la hipótesis de la existencia de la Inteligencia Artificial. En paralelo a la ingeniería genética y al desarrollo de la tecnología electrónica, la IA constituyó entonces un sugerente tema de debate científico y pseudo-cientifico. En el siglo XXI, aún no hay computadoras que repliquen el pensamiento. Algunas se mueven, hablan y responden, pero la equiparación a la vida se antoja remota. En 1978 John McCarthy, investigador estadounidense sobre el libre albedrío de las máquinas, ya sospechaba esto; declaró que para poder desarrollar una auténtica Inteligencia Artificial se necesitaría el trabajo de ‘1,7 Einsteins, 2 Maxwells, 5 Faradays y la financiación de 0,3 Proyectos Manhattan, siempre y 2 ‘Combinando estas 54 ideas se podía obtener el conocimiento científico (scientia generalis); la máquina representaba los sujetos, predicados y teorías teológicas mediante figuras geométricas perfectas. Accionando unas palancas y ruedas, las proposiciones y teorías se movían a lo largo de unas guías para detenerse en una postura positiva (verdad) o negativa (falsedad) de manera que, según Llull, con esta máquina se podía verificar si un postulado era cierto o falso’. Fuente: <http://alt1040.com/2012/03/inteligencia-artificial-ramon-llull-ars-magna> (Consultada el 8 de agosto de 2013). 3 Inventor del sistema binario en el que se fundamentan todas las computadoras contemporáneas, incluida la última generación de procesadores cuánticos que rentabilizan en mayor medida la combinatoria dual de Leibniz. 229 cuando ese proyecto viniera después de los necesarios descubrimientos conceptuales’. El debate contemporáneo presiente de un modo menos relevante esta circunstancia que señala a la máquina como ente capaz de llegar a desarrollar pensamiento propio, inteligente, habilitador de una voluntad propia parece obsoleta. Hoy por hoy, no se ha conseguido inventar un robot capaz de mantener una conversación lógicamente humana, debido a la ausencia de conciencia. A pesar de ello, sí se han logrado grandes adelantos que sitúan la computación cada vez más cerca de la superación del conocido Test de Turing, lo que conllevaría a la imposibilidad por parte del interlocutor de poder asegurar si mantiene una conversación con un humano o bien con un robot -programa informático-. Fig 1. Ars Magna, 1385. Ramón Llul. Fig 2. Giant brains or machines that think, 1949, portada. Edmund Berkeley. Fig 3. La Sociedad del Espectáculo, 1967, portada. Guy Debord. Transcurrida la Revolución Digital, también llamada la Tercera Revolución Industrial, datada por Nicholas Negroponte en 19984, somos testigos cada día de la fusión del dominio digital y la realidad física. Esta convergencia suma a la disciplina arquitectónica una nueva extensión digital que implica una revisión en profundidad de la interacción hombre-máquina, donde la disyuntiva planteada en la década de los noventa en el seno de la disciplina arquitectónica en cuanto a la defensa o no del uso de programas asistidos de diseño (Autocad sí; Autocad no.) ha sido ampliamente superada. Hoy la interacción se produce tanto dentro de la pantalla digital5 como fuera; los programas de diseño asistido proponen múltiples formas de representación, simulación y generación morfológica. El flujo continuo de tecnología emergente depara una alternativa arquitectónica en base a dispositivos y procesos que ponen en crisis los invariantes arquitectónicos tradicionales en favor 4 Negroponte, óp.cit.,1998, en Wired: ‘The Digital Revolution is over’. Fuente: <http://web.media.mit.edu/~nicholas/Wired/WIRED6-12.html>. (Consultada el 7 de agosto de 2013). 5 Véase Cap. II, De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses. 230 de una nueva vía de interacción: la arquitectura aumentada6.En este sentido y en este ámbito de la vanguardia tecnológica, los avances suponen nuevos retos de integración de la infomasa7 en el entorno arquitectónico, y por extensión, en la ciudad y en la sociedad. Su asimilación a menudo conlleva la subversión de la función primera para la que fueron creados. El campo profesional de la arquitectura no ha resultado tradicionalmente proclive al aliento de propuestas TIC, a menudo tachadas de ‘chismes’, artilugios o dispositivos ‘poco arquitectónicos’ por la ortodoxia. En el ejercicio profesional contemporáneo, el colectivo de jóvenes arquitectos se interesa por la tecnología digital emergente. Proyecta y programa, o programa y proyecta, atendiendo a estas directrices y dando lugar a no pocas tecnologías disruptivas8 que por su rápida aceptación desplazan de inmediato a la tecnología dominante9. Este camino de investigación se suma a otros como el recorrido con entusiasmo por François Hennebique, William Le Baron Jenney, Pier Luigi Nervi, Norman Foster o Shigeru Ban, en referencia en este caso al uso de nuevos materiales y técnicas constructivas avanzadas. La materialidad digital de los bits, como si de un material de nueva factura se tratara, se dispone a ser manipulada e implementada en el proyecto arquitectónico como ocurrió siglos atrás con el vidrio, los metales o el hormigón armado. La crítica teórica y la investigación arquitectónica producen gran cantidad de literatura sobre la vanguardia contemporánea tecnológica, cuyo análisis permite la configuración de una cartografía de la convergencia que supone el Entorno Aumentado. Deriva y borde tecnológico Los conceptos de ‘deriva tecnológica’ y ‘borde tecnológico’ tratan de definir los límites de la topología de esta convergencia dispar de realidades. El término ‘deriva’ reivindica para el Entorno Aumentado la acepción situacionista propuesta por el filósofo francés e impulsor del movimiento Guy Debord (1958): ‘Entre los procedimientos situacionistas, la deriva se presenta como una técnica de paseos ininterrumpidos a través de ambientes diversos. El concepto de deriva está ligado indisolublemente al reconocimiento de efectos de naturaleza psicogeográfica y a la afirmación de un 6 La acepción ‘aumentada’ se toma del término ‘espacio aumentado’, acuñado en 2002 por Lev Manovich (2003) en su ensayo The Poetics of Augmented Space: Learning From Prada. 7 Véase Cap. I, Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información. 8 Véase definición en el Glosario. 9 Tal es el caso del Grasshopper, plug in gratuito de Rhinoceros, primera aplicación de diseño asistido por ordenador diseñado por un arquitecto. Tal vez tenga que ver esta circunstancia con las características diagramáticas de su interfaz, que prácticamente permite programar ‘dibujando’. 231 comportamiento lúdico-constructivo10 que la opone en todos los aspectos a las nociones clásicas de viaje y de paseo.’ Constant Nieuwenhuys puso en valor esta definición en el desarrollo de su proyecto utópico New Babylon. Descrita en maquetas y planos, New Babylon permitía el nomadismo11 y el juego masivo, y dibujó sobre los planos de ciudades europeas existentes grandes megaestructuras tecnológicas que podían ser modificadas a voluntad de los residentes. Debord publicó La Sociedad del Espectáculo en 1967 con la finalidad de proveer al Situacionismo de una base teórica sólida. Por un lado, se trataba de un manifiesto, pero por su extensión y profundidad este texto aspiró a realizar un análisis radical de la sociedad postindustrial. Escrito explícitamente en contra del espectáculo, y a favor de su destrucción sin concesiones: ‘El espectáculo no es sólo la acumulación de imágenes de los medios de comunicación de masas y la publicidad en todas sus formas posibles, sino las relaciones sociales mediatizadas por esas imágenes que constituye una cierta concepción del mundo. El espectáculo es la actual forma de dominación y la garantía del orden. No es una mentira que se quiera imponer a las masas, sino el modelo actual de vida socialmente dominante.’ Actualmente, la mediatización de la contemporaneidad convierte al individuo en individuoespectáculo a la manera de un hombre-orquesta, autor de su propia producción mediática y del registro digital de ésta12. El usuario participa decididamente del espectáculo, a veces con mayor ahínco que del propio acontecimiento. A la confusión o disolución de las jerarquías tradicionales que hacían prevalecer la ética del objeto frente a su representación mediática se suma la socialización del acontecimiento. Esta conjunción favorece la emergencia de la modernidad líquida de Bauman como categoría sociológica y figura del cambio y de la transitoriedad (Vásquez 2008). Una liquidez que representa la precariedad y el carácter transitorio y volátil de los vínculos humanos, así como la dilatación del tiempo presente en su acercamiento si cabe más próximo al pasado y al futuro. Esta ampliación dimensional consecuencia de la Revolución Digital es un síntoma propio del Entorno Aumentado. Su condición intangible, fruto de una percepción que depende de un dispositivo electrónico, no ha 10 Nótese de nuevo la aparición de la componente lúdica en el transcurso de la investigación. 11 Véase Cap. IV, Perfil antropológico de la vivienda aumentada. Del morador al electronómada [11.000, +1998]. 12 Véase portada de Life en Cap. IV, Perfil antropológico de la vivienda aumentada. Del morador al electronómada [-11.000, +1998]. 232 de poner en duda una existencia en continuidad calificada de líquida en palabras de Zygmunt Baumann. Fig. 4. Virtual Continuum, 1994. Paul Milgram y Fumio Kishino. En 1994, Paul Milgram y Fumio Kishino se referían a la ‘Realidad Mixta’ como ‘(…) cualquier lugar entre los extremos del Continuum virtual’ (fig.4). El continuum creciente, dinámico y colonizador de situaciones ajenas -en el sentido de deriva- es una de las cualidades características del Entorno Aumentado. La envolvente de las trayectorias descritas por las sucesivas incursiones practicadas desde el ámbito digital en los campos vírgenes de la realidad física configura el límite entre lo digital y lo físico. Precisamente, es esa la frontera que confina el Entorno Aumentado. El solapamiento de información se produce en capas sobrecomprimidas13 por el tiempo, el espacio y el lugar. Todos participan de una sedimentación dimensional, cuyos movimientos migratorios y escenas híbridas resultan cartografiados por capas en los dibujos y diagramas de la artista de origen etíope Julie Mehretu (figs. 514 y 7). El desarrollo de la vanguardia tecnológica que supone este nuevo entorno no se encamina hacia una meta predecible. Se trata más bien, de un goteo constante de descubrimientos tecnológicos que conforman una dimensión digital cuyo límite asume la identidad propia de la modernidad líquida de Bauman (2003). Los avances en tecnología digital no se producen de modo aislado; son partícipes de la estructura en red de la tecnología, lo que permite el contagio y aprovechamiento de una nueva aplicación por campos de especialidad diferentes –el caso extremo sería la disrupción-. Igual que sucedió con la expansión del hierro o el hormigón a todo el compendio de oficios vinculados a la construcción de puentes, rascacielos, transportes, instrumental médico, industria armamentística,…etc., la transversalidad disciplinar también se manifiesta y le es propia a la tecnología. Así, un nuevo modelo de análisis matemático programado en una empresa de biotecnología puede acabar generando algoritmos para las simulaciones de movimiento de un caza de combate o servir de base para la programación de software para cálculo de estructuras. Esto es posible gracias a la globalización de los soportes y del lenguaje informático entendido como suma de dialectos que comparten el alfabeto binario 13 Javier Echeverría opone la compresión versus la extensión, para significar la diferencia cualitativa entre las geometrías euclidianas y la topología característica del Tercer Entorno. Echeverría, Los Señores del aire: Telépolis y el Tercer Entorno, Óp., cit., p.83. 14 Cf. figs. 5, 6 y 7, advirtiendo las diferencias en las características gráficas de la representación de los flujos información. 233 común. La evolución de la capacidad de transportar bits15, el paso de kilo, a mega, a giga, a tera, a peta,…etc., trasciende de manera global a todos los sistemas computacionales. Fig.5. Black City, 2005. Julie Mehretu. El concepto de ‘borde tecnológico’ fue acuñado por los teóricos del Ciberpunk tras las obras de William Gibson (Tomas 2001:179): ’el borde tecnológico puede definirse como el producto de una conjunción exitosa de tecnología avanzada de hardware y técnicas sofisticadas contextualizadas’. Refiriéndose con estas últimas a aquellas derivaciones tecnológicas no prescritas, consecuencia de la innovación interdisciplinaria. Dovey y Kennedy (2006) identifican al hacker16 como personaje arquetipo de este borde tecnológico -recuperando así la figura del console cowboy de Gibson con reminiscencias ideológicas de los sesenta- en oposición a los herméticos departamentos de I + D de los gigantes TIC. El borde del Entorno Aumentado es poroso, allana lugares públicos y privados, indaga y transforma los hábitos establecidos, propone dinámicas de conducta y revisa los estereotipos de relaciones sociales; demarca lugares olvidados y lugares superpoblados, abraza y habilita ingentes cantidades de información en localizaciones que aun pueden no haber sido civilizadas. Esta superficie fronteriza separa la dimensión digital integrada por procesos de información, 15 Véase Glosario. 16 Para profundizar en el perfil antropológico del hacker véase La ética del hacker (Himanen 2001). 234 programas y datos, del mundo exterior que acontece fuera de la pantalla. ¿Cómo evoluciona? ¿Cómo se puede cualificar su evolución en referencia a lo arquitectónico? Convergencia y ubicuidad. Atendiendo a estos interrogantes se propone una cartografía topológica referida al límite definido por la cuarta pared17 o pantalla. Fuera del borde se localiza la realidad física unplugged18; dentro, la realidad digital. La relación existente entre estos dos campos puede explorarse desde enfoques diversos. Con la intención de valorar el movimiento relativo de uno respecto de otro (deriva) se propone la distinción convergente o divergente de su trayectoria: La deriva digital divergente significará que la evolución de la vanguardia tecnológica generadora de realidad digital se produce sin pretender establecer vínculos con lo que sucede fuera de la cuarta pared. La interacción sucede en el ámbito de la pantalla o interfaz, donde el usuario visualiza la ejecución de la tecnología. Por ejemplo, el programa con el que se escribe este texto. La deriva digital convergente propone aplicaciones tecnológicas referenciadas a un lugar físico desde donde se operarán. La relación interactiva hombre-máquina sucederá fuera de la pantalla. Por ejemplo, el detector de presencia que acciona la apertura de una puerta o un programa de reconocimiento facial. La deriva convergente es la tecnología que propiamente construye el Entorno Aumentado; y la ubicuidad, una característica propia que la arraiga a lugares físicos. Aeropuertos, calles, transportes, edificios,…etc., integran estos dispositivos habilitados para aquellos usuarios que mantengan operativos sus terminales electrónicos portátiles. Esta tecnología será la que ‘aumente’ el lugar con un campo de información digital. Disciplinas como la arquitectura o el planeamiento urbano, generadas a partir de procedimientos digitales procedentes de la deriva divergente (software característico de un estudio de arquitectura), comienzan a integrar en sus procesos creativos, dispositivos procedentes de la deriva digital convergente19. La capacidad de esta última dinámica para generar soportes de información, propicia la aparición continua de nuevos dispositivos electrónicos ‘puente’ que practican la hibridación digital-física, refiriendo datos digitales a coordenadas geodésicas o a coordenadas libres que a su vez pueden referenciarse a unas geodésicas. Los geo-localizadores 17 Véase Cap. II, De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google. 18 Sirva el símil musical que hace referencia a los conciertos unplugged o ‘desenchufados’ para describir la ausencia de tecnología TIC. 19 Véase Cap. IV, Vanguardia de la vivienda aumentada. 235 o locative media, asocian información digital -también analógica, si es preciso- a unas coordenadas geodésicas determinadas que no tienen por qué ser las que definen su posicionamiento; en el Entorno Aumentado la información puede percibirse de modo independiente al punto geográfico de anclaje. Otras tecnologías ubican información digital mediante sistemas de referencia autónomos, como por ejemplo los códigos QR (fig.8) o el escáner digital. La información geo-localizada puede conectarse a la Red ‘en tiempo real’, permitiendo su actualización y retroalimentación. Fig.6. Augmented City, 2010. Keiichi Matsuda. Fig.7. Migration Direction Map, 1996. Julie Mehretu. El campo escalar que plantea el Entorno Aumentado tiene un alcance que trasciende la escala cotidiana del contexto próximo arquitectónico, el urbano o el suburbano. El ‘aumento’ máximo de la extensión del lugar se consigue referenciando la información del entorno digital mediante los sistemas de posicionamiento global por satélite GPS (USA), GLONASS (Federación Rusa), Compass (China) o Galileo (Comunidad Europea). Así, los 30 satélites del sistema Galileo orbitan tres elípticas distintas a treinta mil metros de la superficie terrestre, ampliando el campo aumentado a todo el planeta20 (fig.9). La posición de la señal se calcula mediante triangulaciones: el tiempo que tarda en llegar la señal a tres satélites determina la posición de la señal emitida desde la Tierra. Este mínimo de tres referencias se repite en cualquier otro sistema 20 La precisión del posicionamiento depende de la versión del sistema (civil, comercial o militar). 236 de referencia tridimensional. En el caso del código Bidi o del código QR21 (fig.8) se puede apreciar la terna referencial en forma de tres cuadrados de mayor tamaño situados en tres de los cuatro vértices de la figura. El escáner lector del código posicionará la información contenida en el resto de píxeles del gráfico -probablemente un enlace a una dirección web- en referencia a estos tres puntos. El Entorno Aumentado se construye intensamente en los dominios menores correspondientes a la meso, micro y nanoescala22. Fig.8.Código QR. Fig.9. Comparación de las órbitas de los sistemas de posicionamiento GPS, GLONASS, Galileo y Compass (órbita mediana terrestre) con las órbitas de la Estación Espacial Internacional, el telescopio Hubble y la constelación Iridium (Órbita geoestacionaria terrestre) y el tamaño nominal de la Tierra. La órbita lunar se encuentra aproximadamente a nueve veces la distancia de la órbita geoestacionaria. En la medida que la estratosfera lo es para los satélites, el Entorno Aumentado constituye una nueva dimensión a ocupar por la información. La axonometría seccionada de la figura 6 muestra un individuo en una calle que tiene en torno a sí un halo de pedazos de información. El sujeto es el origen de coordenadas polares del sistema de referencia en que se ubican esos ‘objetos’ digitales. Matsuda describe de este modo una subjetividad digital, circunstancia propia del ‘yo aumentado23’. En la escena pueden apreciarse teclados digitales que sirven para operar esos ‘objetos’, así como una confluencia de canales de información que transcurren por la vía 21 Del inglés Quick Response barcode, código de barras de respuesta rápida. 22 Véase definiciones en el Glosario. 23 Véase Cap. IV, Perfil antropológico de la vivienda aumentada. Del morador al electronómada [11.000, +1998] para profundizar en el significado de esta expresión. 237 pública24. Incluso podría parecer que el personaje tiene frente a sí una envolvente ficticia adherida a la fachada edificada técnica donde se integran las instalaciones. Las posibilidades de sintonía de los vínculos digitales que articula el Entorno Aumentado habilitan una miscelánea colosal de combinaciones de sendas realidades. La deriva tecnológica que afecta a Internet, en su versión convergente, supone un potencial extraordinario y una renovación persistente de las herramientas de comunicación colectivas. Conectividad aumentada. La distorsión del espacio-tiempo. Sostiene Ryan (2010: 74) que ‘a los individuos les gusta estar interconectados25. La tiranía de la geografía ha dictado con quién se cazaba, luchaba y procreaba’. El desarrollo de las tecnologías de la información y la comunicación no solo ha extinguido esta tiranía territorial; también ha hecho lo propio con la temporal. La conectividad entre individuos, característica del mundo contemporáneo, ha deformado la condición ‘tiránica’ espacio-temporal impuesta a la especie humana. J.C.R. Licklider (1968: 21), el visionario que presagió Internet junto a Robert Taylor, el manager en ARPA (Advanced Research Projects) que puso en movimiento el proyecto de ARPANET (Advanced Research Projects Agency Network), hizo la siguiente predicción en 1960: ‘In a few years, men will be able to communicate more effectively through a machine than face to face…We believe that we are entering into a technological age, in which we will be able to interact with the richness of living information – not merely in the passive way that we have become accustomed to using books and libraries, but as active participants in an ongoing process, bringing something to it through our interaction with it, and not simply receiving something from it by our connection to it.’ La computación fue vislumbrada por primera vez como un dispositivo de comunicación en 1968, en una comunicación26 co-escrita Taylor y Licklider. El incremento exponencial de la 24 El concepto de basura digital toma en el Entorno Aumentado un cariz diferencial con respecto a la que puebla Internet. En si mismo se merece una reflexión que excede al alcance de esta tesis. 25 Del inglés networked. 26 ‘Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él. Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet.’ Robert W. Taylor, co-escritor, junto con Licklider, de ‘The Computer as a Communications Device’. Fuente: (The New York Times, 29 de diciembre de 1999). 238 interacción internáutica27, desde aquella ARPANET pre-global que conectó en noviembre de 1969 las universidades de Stanford y Ucla (fig.10) hasta la Internet de nuestros días (fig.11) invita a pensar en la conquista de dos nuevos objetivos. El primero, la consecución de una interacción plena entre los usuarios. Desde un principio la estructura vertical jerárquica de Internet no favoreció especialmente la relación entre los sitios web. Esta carencia conectiva, heredada de la celosa incompatibilidad decretada por las empresas de software hacia sus propios productos -la información presa de los intereses de mercado- se aplicaba a cualquier género, del mismo modo que los maestros constructores góticos guardaban secretamente sus conocimientos técnicos. Fig.10. The ARPANET, 1971. MIT. Fig.11. Map of the Internet, circa 2003. La incompatibilidad ha sido la tónica dominante entre las estrategias para salvaguardar también los intereses del tejido digital de la empresa privada. Las diferentes extensiones de los archivos de programas de diseño asistido y otros soportes han supuesto, y suponen, un claro perjuicio para el usuario. Ejemplo de esta incompatibilidad de soportes es lo sucedido en las redes sociales que exigen del usuario un avatar diferente y exclusivo para cada plataforma. A pesar de ser el mismo usuario, de momento no existe vínculo alguno entre los avatares de Facebook, Twiter, Los Sims o Linkedin. El avatar maduro, tras horas y horas de dedicación de su madre virtual, no puede cruzar la frontera de la plataforma en la que es gestado. En la mayoría de los casos, la repetición de información supone una molestia habitual para el usuario digital. El segundo objetivo consiste en la conquista de la interacción entre internautas y el mundo exterior. Tim O’Reilly acuñaba en 2004 el termino web 2.0 para nombrar la correspondiente evolución de Internet, una puesta en común de contenidos interactivos: blogs, redes sociales, 27 ‘Según el estudio de Royal Pingdom, Internet registró en 2012 2.400 millones de usuarios en todo el mundo. Asia se convirtió en el continente con mayor número de usuarios con 1.100 millones. Además, 2012 se cerró con 2.200 millones de usuarios de correo electrónico en todo el mundo con un tráfico diario del mismo de 144.000 millones’. (Portaltic/EuropaPress, 18 Enero de 2013). 239 videotecas, wikis…etc. El concepto web 2.0 apostaba por una gran interactividad entre internautas basada en una deriva divergente. El propio O’Reilly (Payo 2011) afirma que ‘la verdadera web 3.0 no es semántica, sino sensorial’. Se refiere O’Reilly a la nueva extensión conferida a Internet por los dispositivos móviles: ‘Se trata de un Internet sensitivo. Se basa en los smartphones, dispositivos que aumentan nuestros sentidos mientras que reciben información por sus sensores aprendiendo de una base de datos’. El término web 3.0, mencionado por primera vez en 2006, si hace referencia a la condición sensible del entorno digital. Una naturaleza que cosecha mediante sensores de todo tipo –de movimiento, acústicos, térmicos, de presión, de equilibrio,…etc.- los datos del mundo real, dando formato digital a cualquier expresión humana que pretenda interactuar con la máquina. Se puede afirmar que la web 3.0 es consecuencia de una deriva digital convergente que potencia esa aproximación entre el Entorno Físico y la dimensión digital. Por consiguiente, es esta evolución de la web la que ha propiciado el verdadero impulso original de generación del Entorno Aumentado. La denominación web 4.0 o web² (web 2.0 al cuadrado) es una evolución del concepto web 2.0. y supone aumentar o extender la realidad virtual de la 2.0 al resto de realidad. Es decir, hacer ubicuo su contenido vinculándolo mediante sistemas de referencia con el resto de realidad. La web ubicua es omnipresente en todas las dimensiones conocidas de la realidad al mismo tiempo; cualidad que tradicionalmente se atribuía únicamente a la figura de la divinidad. La interacción sensorial mejorada de la web 3.0 es recogida y ampliada por esta nueva concepción de la Red alimentada por la deriva convergente. La mutación y evolución de la Red facilita de manera sustancial los hábitos de vida humanos, solucionando problemas hasta ahora irresolubles. Permite intensificar y multiplicar la dimensión socializadora de sus usuarios y precipita la construcción de la sociedad informacional que habita el Entorno Aumentado. El desarrollo de los superconductores y otras estrategias evolutivas se suman a esta carrera acelerada28. En palabras de Alexis Socco (Payo 2011): ‘en poco tiempo se sumará la inteligencia artificial y tal vez mucho antes de 2029, fecha de referencia del gurú Raymond Kurzwei, 28 ‘La informática cuántica es mucho más rápida que la tradicional debido a las insólitas propiedades que tienen las partículas a la escala más pequeña. En lugar de la precisión de los unos y los ceros que se han usado para representar los datos desde los inicios de la informática, la informática cuántica se basa en el hecho de que las partículas subatómicas se encuentran en un intervalo de distintos posibles estados. Esos estados pueden acotarse para determinar un resultado óptimo entre una cantidad casi infinita de posibilidades, lo que permite que ciertos tipos de problemas puedan resolverse rápidamente’. (El País, 9 de abril de 2013). 240 empresario y científico especializado en ciencias de la computación e inteligencia artificial, veamos aplicado el concepto de web Cerebral’. Brecha digital ‘En los años noventa nació la expresión ‘brecha digital’ para describir a los ricos y pobres de la tecnología, e inspiró algunas iniciativas para poner en manos de todos los estadounidenses, en especial las familias con ingresos bajos, las últimas herramientas informáticas. Esos esfuerzos han acortado la brecha, pero han generado un efecto secundario no deseado que preocupa a investigadores y políticos y que los Gobiernos ahora pretenden resolver. Con la propagación del acceso a dispositivos, los niños de las familias pobres pasan bastante más tiempo que los pertenecientes a familias acomodadas utilizando televisores y artilugios para ver series y vídeos, y para jugar y conectarse a las redes sociales, según demuestran varios estudios’. ‘Este aumento en la diferencia del uso del tiempo, según políticos e investigadores, es más un reflejo de la capacidad de los padres para controlar el empleo que hacen los niños de la tecnología que del acceso a la misma. ‘No me opongo a la tecnología en casa, pero no es la salvación’, dice Laura Robell, directora de Elmhurst Community Prep, una escuela pública de secundaria situada en la zona más humilde de East Oakland, California, que duda desde hace tiempo del valor que tiene introducir un ordenador en cada casa sin una supervisión adecuada. ‘Con mucha frecuencia, los padres nos dicen que no tienen ni idea de cómo controlar Facebook’. (El País, 14 de junio de 2012). Las consecuencias de los cambios que ya están en marcha desde la consecución en 1998 de la Revolución Digital tienen causas concretas y algunos efectos de difícil vaticinio. Basta decir que el mundo actual, atravesado de polo a polo por las tecnologías, es radicalmente desigual dentro y entre los países. ¿Cómo están afectando y afectarán los avances tecnológicos a las estructuras sociales? ¿Cómo impactarán en las desigualdades educativas, ampliamente estudiadas por la sociología y la política educativa? La brecha digital admite distintas definiciones. En su dimensión primera, remite al nivel de acceso a la tecnología según condiciones sociales29. En una segunda derivada, la brecha digital se refiere a los usos de la tecnología. Distintos estudios muestran que, en este sentido, la desigualdad puede ser incluso mayor, dado que los sectores sociales con menores recursos tienden a usar la computadora para cuestiones más instrumentales (Peres y Hilbert, 2009; Sunkel y Trucco, 2010). El concepto de brecha digital se usa en ocasiones para señalar las diferencias entre aquellos grupos que tienen acceso a contenidos digitales de calidad y aquellos que no. El término opuesto que se emplea con más frecuencia es el de inclusión digital. 29 ‘En la Argentina, esta brecha era amplia, al menos, hasta la aparición del programa Conectar Igualdad. Las provincias más pobres tenían menos computadoras por alumno y conexión a Internet en las escuelas públicas y privadas que las provincias con mayores niveles de ingresos’ (Rivas, Vera y Bezem, 2010). 241 En el caso concreto del Entorno Aumentado, la brecha digital puede segregar fácilmente la accesibilidad del usuario a la capa digital, estableciendo categorías de ciudadanos. Los usuarios premium podrán vivir la ciudad aumentada en plenitud; otros ciertas capas, otros durante cierto tiempo, otros con determinada intensidad o con una capacidad limitada de interacción,...etc. ¿Habrá dispositivos que permitan percepciones exclusivas de la información o se convendrá un estándar mínimo, como sucede en Internet? A tenor de lo que sucede con muchas aplicaciones digitales en el mercado de la tecnología, parece que la decantación social de una jerarquía de usuarios puede depender del consumo monetarizado de los dispositivos y productos ‘aumentados’. Las grandes empresas ya se están posicionando, aunque el debate no ha hecho más que comenzar. El dilema que plantea el acceso a capas digitales con información de índole privada ‘ancladas’ en lugares públicos o la regulación del ‘espacio público aumentado’ forma parte de la construcción política del nuevo entorno. Locative Media El término locative Media o medios basados en la localización fue acuñado por Karlis Kalnins (Galloway & Ward 2006). GPS, ordenadores portátiles, códigos QR, Bluetooth, etiquetas RFID, telefonía móvil, Wi-Fi,…etc.’ conforman una red conectada que convierte el movimiento en un acto dialógico’ (Adam & Perales 2012: 123). Los soportes que conforman el HUD30 pueden ser digitales, analógicos o híbridos. La movilidad de estos dispositivos brinda al individuo la conexión continua con la Red. La localización de su posición puede convertirse en información pública en tiempo real. Conocer y hacer visible la posición es ya algo inmediato, aplicaciones como Gowalla, Aris o Foursquare ofrecen un servicio de localización on line. El registro de la posición de un usuario en estas aplicaciones se conoce popularmente con el nombre de ‘check in’ (argot de Foursquare). La interacción propicia la visualización de la posición en un mapa accesible a los ‘amigos’ del usuario. El negocio está servido; empresas como Starbucks premian a los más localizados en sus establecimientos (Abad 2011). La incorporación de nuevos medios tecnológicos, como dispositivos móviles y videojuegos apoyados en esta tecnología georeferenciada induce dinámicas nuevas de aprendizaje características del Entorno Aumentado. La contextualización del conocimiento, y por extensión del aprendizaje, potencia el vínculo entre cuestión e información asociada. 30 El móvil actúa como un HUD en el espacio físico. Véase definición de HUD en el Glosario. 242 Fig.12. GPS Map. Fuente: <http://www.gpsmuseum.eu/> (Consultada el 9 de agosto de 2013). Los dispositivos móviles conectados a Internet, redes sociales, micro-blogging y otros, parecen ser adoptados de forma creciente por los estudiantes (Smith & Caruso 2010); si bien la naturaleza de esos medios, posiblemente más que el contenido, describe la manera en que esos estudiantes y la sociedad en general piensan (McLuhan & Lapham 1994). Merlin Donald (1993) analiza cómo la anatomía específica del cerebro ha cambiado con la adopción histórica de los nuevos métodos de comunicación. De la misma manera, Donald Norman (1994) afirma que la interacción del ser humano con la tecnología influye en el modo en que se produce el proceso cognitivo, desplazando cantidades crecientes de información fuera del cerebro e incorporando conocimiento en los artefactos que diseñamos y que nos rodean. Según Gagnon (2010: 2), parece ser que la sociedad, la anatomía y el conocimiento estén profundamente conectados entre sí en torno a los medios. El modo en que un chico de hoy aprende a pensar es muy diferente de cómo lo hicimos los que nacimos en plena Revolución Digital. La mirada transversal inductiva sustituye, mucho más a menudo que antes, a la lineal deductiva que enseñaban las pedagogías escolares del siglo XX. El aprendizaje producido en un entorno híbrido físico-digital deberá asumir un multiplicidad aun mucho mayor de recursos y formatos. Las herramientas de comunicación recientemente alojadas en la llamada web 2.0 han puesto de relieve ejemplos de aprendizaje y metodologías de pensamiento en grupo (Gagnon 2010: 2). Basándose en la teoría de que el conocimiento puede transferirse en grupos, herramientas y entornos (Hollan, Hutchins & Kirsh 2000), estas pedagogías están habilitando un método e incluso una motivación para que los individuos colaboren y produzcan conocimiento emergente (Cress & Kimmerle 2007). La naturaleza de la comunicación electrónica propicia la formación y el mantenimiento de comunidades de conocimiento (Paavola, Lipponen & Hakkarainen 2004), comunidades de práctica (Lave & Wenger 1991) y organizaciones sin sede física (Nardi 2007) de un modo nunca antes visto. Porque el coste de la reproducción de información está disminuyendo y los artefactos digitales pueden darse sin ser devueltos (Wiley 2010), fenómenos como el software de código abierto (del inglés open source) y los recursos educativos on line 243 son opciones cada vez más viables para la producción de bienes útiles a nivel mundial que a la vez mantienen la capacidad de ser customizados por necesidades locales31. Glocalización aumentada Una de las características del Entorno Aumentado radica en asignar a la información digital una extensión física. La naturaleza local propia de la posición geográfica asignada condiciona por tanto el entorno híbrido. En este contexto, la introducción en el discurso del término glocalización abre una vía de investigación paralela y diferente a la comúnmente empleada. El tecnicismo es acuñado en la década de los noventa, en el seno del sector japonés de los negocios. La estructura lingüística es la misma empleada en la construcción del neologismo smog: smoke + fog (humo + niebla), pero en esta ocasión se unen los morfemas ‘globalización’ y ‘localización32.’ El sociólogo británico Roland Robertson (1992) introdujo la expresión nipona en Occidente33 en los años noventa. La glocalización supone recorrer el camino inverso a la globalización. Desde la dimensión virtual, y a través de derivas digitales convergentes, la globalidad busca localizarse físicamente en una ubicación del Entorno Aumentado. La afirmación (Abad 2011) ‘pensar de modo global y actuar localmente’ cobra mayor sentido, implica un paso más hacia la consecución integral del Entorno Aumentado y además tiene especial trascendencia para disciplinas como la arquitectura, que desde hace siglos nutre sus raíces con la realidad física. El paralelismo existente entre los pares glocalización-globalización y la convergencia-divergencia de la deriva digital retrata el tránsito de lo concreto a lo abstracto, de la acción al pensamiento, de lo particular a lo general. La deriva digital divergente ha transcurrido por los derroteros algorítmicos descontextualizados. La abstracción propia de los lenguajes generadores de programas y el origen estéril y estándar del medio en el que se han ejecutado ha propiciado un entorno global. Parece que no podía haber sido de otra manera. 31 Véase Cap. IV, La Ciudad Origami. 32 Dochakuka significa ‘localización global’. Originalmente se refiere a la manera de adaptar las técnicas de implantación industrial a condiciones locales, en concreto, una estrategia de marketing japonesa adoptada en los ochenta. 33 En mayo de 1990, un objeto destacó sobre los demás en la exposición Global Change - Challenges to Science and Politics, celebrada en Bonn. El conocido como Cubo Rubik de la Ecología o Eco-Cubo lograba sintetizar el tránsito local-regional-nacional-global y apuntar las posibilidades de enfoque ecológico, delimitando los diferentes ámbitos cognitivos surgidos a partir de la globalización. 244 Cellspace34 En la década de 1990 el Paradigma Digital concentró el interés mercantil en el desarrollo del Entorno Digital de lo virtual sobre otras materias que componen el paradigma tecnológico. Las tecnologías informáticas habilitaban nuevos lugares virtuales. El Entorno Físico resultaba infructuoso y fuera del alcance del paradigma. En palabras de Manovich (2006: 220) ‘el ciberespacio, un mundo virtual que existe en paralelo a nuestro mundo, dominó la década’. De la misma forma que en los cincuenta predominó la obsesión por la inteligencia artificial, la obsesión de los medios con la Realidad Virtual impuso una deriva tecnológica divergente. A mediados de la década, los navegadores gráficos hicieron realidad el ciberespacio para millones de usuarios. La segunda parte de la década de 1990 nos depararía otro acontecimiento en el Entono Digital, el ‘.com’, aunque esta vez para estrellarse con las leyes económicas del sistema. A finales de la década, la dosis diaria de ciberespacio35 hizo casi olvidar los planteamientos primitivos de los orígenes, tan presentes en la primera ficción ciberpunk de la década de 198036 y aún evidentes en los manifiestos originales del VRML de la década de 1990. Lo virtual se domesticó, lleno de anuncios y controlado por las grandes marcas, se hizo inofensivo. En palabras de Norman Klein, el ciberespacio se convirtió en un ‘barrio electrónico’. A principios del siglo XXI, los programas de investigación, la atención de los medios y las aplicaciones prácticas se han concentrado en un nuevo reto, el lugar físico aumentado con información digital. El icono previo de la era de la computadora, un usuario-avatar viajando por el espacio virtual, ha sido reemplazado por una nueva imagen: una persona revisa su correo electrónico o hace una llamada telefónica usando una PDA o teléfono móvil con conexión a Internet desde el aeropuerto, en el calle, en un coche, o en cualquier otro espacio realmente existente; unos cuantos ejemplos de las aplicaciones tecnológicas que proporcionan en tiempo real datos dinámicos o que extraigan datos del Entorno Físico y que ya se utilizan ampliamente en el momento de escribir estas líneas. Las cámaras de vigilancia de un edificio o el universo de los sensores electrónicos (temperatura, presión, equilibrio,…etc.) traducen el Entorno Físico en datos informáticos. Por el contrario, las tecnologías cellspace37 trabajan en la dirección opuesta proporcionando datos a los usuarios del entorno físico. Cellspace es un lugar físico lleno de datos que pueden ser obtenidos por los usuarios a través de dispositivos electrónicos y proceden 34 Traducido al castellano por ‘Espacio celular’. 35 El uso de Internet para hacer reservas de avión, consultar el correo electrónico con una cuenta de Hotmail, o descargar archivos MP3. 36 Donna Haraway publicó en 1985 su celebrado ‘Manifesto for Cyborgs: Science, Technology, and Socialist Femenism in the 1980s’, Socialist Review, nº 80, pp.65 -108. 37 Término acuñado por Manovich (2006: 220) referido a medios móviles wireless o locative media. 245 de redes globales como Internet o pueden estar embebidos en objetos situados en torno al usuario. Si bien podemos pensar en cellspace como la capa invisible de la información que se integra en el Entorno Físico y se adapta al individuo, la publicidad de las pantallas de ordenador-vídeo puede presentar la misma información visible para los transeúntes. Estas pantallas gradualmente más grandes y más delgadas, ya no se limitan a superficies planas y ni siquiera necesitan la oscuridad para ser visibles. Manovich (2006) afirma que ‘a corto plazo podremos ver habitualmente pantallas más grandes tanto en los espacios privados y públicos. A más largo plazo, cada objeto puede convertirse en una pantalla conectada a la red y con el tiempo, todo el espacio construido puede convertirse en un conjunto de superficies de visualización: un entorno aumentado sin zonas grises desconectadas de la capa virtual’. El Entorno Aumentado es un entorno informacional del que se pueden extraer datos (cámaras de vigilancia, monitorización con sensores,…etc.) o aumentarlo con datos (Cellspace, dispositivos computacionales). Cellspace conforma por tanto una parte de él, una parte activa y propositiva, cuya construcción forma parte del planeamiento urbano del siglo XXI. La ciudad aumentada se puede construir y reconstruir sin necesidad de borrar la memoria de lo edificado. En un nivel básico, las acciones tecnológicas que activan el campo informacional de cellspace son directamente evocadas y operadas por la iniciativa del usuario. En un entorno aumentado más sofisticado, el sistema presentaría una comunicación fundamentada en sensores, que detectan por ejemplo actividad y presencia (humanas), y en respuestas ‘inteligentes’. La interacción puede considerar un único comportamiento, resolviéndose en un proceso lineal, o puede tener en cuenta la confluencia de múltiples comportamientos e incluso la interferencia que se produzca entre ellos. En un entorno aumentado aún más avanzado multiresponsivo se generará necesariamente una situación donde la selección del tipo de respuesta idónea requiere un contacto previo que informe de la intención del usuario en un primer input de información. La integración en cellspace de funciones fenomenológicas relacionadas con el confort térmico, acústico, lumínico,…etc., y funciones vinculadas, por ejemplo, con la capacidad comunicativa mediática -redes sociales, email,…etc.- constituye un ejemplo de entorno aumentado complejo. Esta caracterización deriva en un estadio superior de mayor complejidad tecnológica cuando integra procesos de auto-apredizaje que se refieren al cambio operado en la respuesta de cellspace para lograr un comportamiento óptimo. La selección de la respuesta en base a una selección de datos que implica una retroalimentación de información en el proceso interactivo puede ser on line- significa el desarrollo de entornos que tradicionalmente se han denominado ‘inteligencia artificial’. 246 Fig.13. Aproximaciones al ‘entorno aumentado’ contemporáneo basado en modelos mecatrónicos. Fuente: Addington & Schodek, óp.cit.: 214. Fig.14. Aproximaciones al ‘entorno inteligente’ contemporáneo. Fuente: Addington & Schodek, óp.cit.: 215. Fig.15. Aproximaciones al ‘entorno inteligente’ futuro. Fuente: Addington & Schodek, óp.cit.: 215. 247 Esta circunstancia se produce en modelos tecnológicos que replican el comportamiento neuronal del cerebro. Las redes neuronales artificiales ANN38 están diseñadas según este componente de aprendizaje. Se fundamentan en manejar un contenido vasto de datos, al que someten a un proceso exhaustivo de prueba y error conocido como ‘entrenamiento’. Una vez ‘entrenado’, este entorno tendrá la experiencia de elaborar un juicio ante situaciones nuevas dadas (Addington & Schodek 2005: 210). Cada nivel de evolución del entorno aumentado ha ido reduciendo la participación ‘mecánica’ del usuario en la toma de decisiones en ‘tiempo real’. Esta evolución en el diseño de los entornos aumentados queda sintetizada en tres diagramas correspondientes a las figuras 13, 14 y15. El entorno aumentado basado en un modelo mecatrónico39 simple fundamenta la interacción en una interfaz que propone la correspondencia lineal sensor-actuador40 (fig.13). En esta aproximación básica, un sensor captaría el cambio suscitado por un campo de estímulos. La señal inicial sería traducida en otra final que directamente controlaría la respuesta. Este tipo de entorno aumentado ocuparía según Addington & Schodek41 (Ibíd., 2005: 210) el nivel evolutivo básico42. Como se ha visto anteriormente, un estadio inmediatamente superior correspondería a los entornos aumentados ‘inteligentes’ que proponen una capa digital con comportamientos múltiples (fig.14), mientras que el nivel más avanzado de entornos sería competencia de aquellos que replican procesos neuronales con capacidad de aprendizaje (fig.15). 38 Véase definición en el Glosario. 39 Véase definición en el Glosario. 40 Véase definiciones en el Glosario. 41 Michelle Addington y Daniel Schodek son profesores de ‘Architectural Technology’ en el Departamento de Arquitectura de la Harvard University School of Design, USA. 42 En analogía con los diferentes procesos comunicativos que propone la Teoría de la Comunicación, este nivel se corresponde con el primario que propone la disertación impartida por un conferenciante a un auditorio, sin tener en cuenta ni asumir ningún tipo de feedback. 248 4.1.2. El fin de la mano mecánica y el advenimiento de la ergonomía post-digital. La Revolución Digital y el progresivo desarrollo de nuevos soportes electrónicos han procurado un cambio radical en la interacción hombre-máquina. La construcción del Entorno Aumentado se traduce en sucesivas evoluciones de la interfaz que mejoran su operatividad, resultando más sencilla e intuitiva. El Paradigma Mecanicista de los siglos XVII, XVIII y XIX alentó la invención de máquinas accionadas mecánicamente, casi siempre, por la mano humana. El Entorno Aumentado alimenta la revisión de esta circunstancia, superando la condición mecánica de la interacción más simple (mecatronics)43 y asumiendo nuevas formas de cohabitación mixta que solapan el dominio digital y el entorno físico tradicional. La superación del Paradigma Mecanicista implica el perfeccionamiento de las relaciones interactivas con la máquina. La naturaleza mecánica implícita en el manejo de dispositivos MEMS44 resulta sustituida por el dinamismo de las interfaces propias del dominio digital del siglo XXI. Este cambio provoca en el usuario una nueva disposición comunicativa, a la vez que transforma el modo de procesar, estructurar o visualizar la información. La consecuencia última que la Revolución Digital infiere al individuo afecta directamente a la manera de estructurar los procesos de comunicación y pensamiento. Fig.1. The evolution of architectural visualization. Norm Li AG. El scriptorium (fig.2), según la descripción del italiano Casiodoro de Vivarium (s. VI), tenía lámparas de aceite autoalimentadas, un reloj de sol y una clepsidra; hay que añadir tinteros, navajas y plumas. Los monjes copiaban en el scriptorium los manuscritos que celosamente custodiaban transcribiendo letra a letra su contenido. El proceso lento, dañino para la vista y la espalda y poco prolífico, comprometía la cantidad y el acceso a la información. Este oficio fue paulatinamente sustituido por la impresión con tipos móviles (fig.4) compuestos de plomo, antimonio y estaño fundidos, vertido en los moldes de los caracteres y pulido de impurezas. La composición del texto se realizaba en cajas de madera formando columnas. Entintado el texto, se impregnaban los tipos con aceite y hollín y se procedía al calco en papel. 43 Véase Glosario. 44 Véase Glosario. 249 Fig. 2. Miniatura del siglo XV de Jean Miélot (muerto en 1472). Representación al propio autor trabajando precisamente mientras compila sus Miracles de Nostre Dame, donde esta miniatura se incluye. Fig .3. Imprenta renacentista de tipos móviles. Fig .4. Tipos móviles de Gutenberg (creó 300 unidades). La introducción de la imprenta de tipo móvil (fig.3) en la sociedad medieval45 indujo, tras años de uso, a la aparición de unas dinámicas que acabaron transformando la estructura del sistema social establecido. La profusión del nacionalismo, las revoluciones democráticas, el pluralismo religioso, el capitalismo, el individualismo, y el progreso de la ciencia y la tecnología (Strate 2012: 65) se extendieron por Europa con ayuda de la imprenta. La transformación que la Revolución Digital ha inferido al soporte de comunicación, a los medios y al mensaje -que diría McLuhan- invita irremediablemente a reflexionar sobre los posibles paralelismos con los efectos suscitados por la invención de la imprenta de tipos móviles. Dónde conducirán estos cambios y qué alcance tendrá en la profesión del arquitecto es algo que, según la experiencia acumulada de siglos, nos vendrá impuesto y será difícil evitar46. La metáfora del remolino de McLuhan, deudora del cuento de Edgar Allan Poe Un descenso al Maelström y del Vorticismo47 45 Las primeras prensas de impresión (como la que se muestra en la ilustración) utilizaban un mecanismo helicoidal para aplicar presión a la rama de impresión. Tenían sus orígenes en las prensas de los agricultores para obtener aceite de oliva. Gutenberg hizo adaptar una vieja prensa de vino para construir su primera imprenta. Fuente: <http://www.sitographics.com/conceptos/temas/biografias/gutenberg.html> (Consultada el 1 de agosto de 2013). 46 Véase Cap. III, Presagios de la Revolución Digital. 47 El nombre del movimiento artístico fue acuñado en 1913 por Ezra Pound, aunque la principal figura de esta vanguardia exclusiva británica es Percy Wyndham Lewis, ‘La imagen no es una idea, es un nudo o un amontonamiento radiante. Es lo que puedo, y por fuerza, debo llamar Vórtice, del cual, a través del cual y en el cual las ideas están constantemente precipitándose. Con decoro, uno sólo puede llamarlo Vórtice. Y de esta necesidad procede el nombre de ‘Vorticismo’. La pintura vorticista trata de mostrar la vida contemporánea como una disposición provocada por la ruptura de la perspectiva que distorsiona las líneas y los colores volviéndose intensa y embaucadora’. 250 británico48 de principios del siglo XX, anticipó la Teoría del Caos y la emergencia de la Ciencia de la Complejidad al final del siglo XX, de igual manera advirtió los imprevistos derivados de la introducción de los medios electrónicos y las tecnologías digitales en la sociedad postmoderna. En el siglo XX, la tecnología digital de medios electrónicos confió en las manos la capacidad para transferir a las máquinas computadoras, las órdenes dictadas por el cerebro humano. Las manos han operado casi todos los dispositivos digitales. En los primeros años de la computación, ‘picar’ datos, procesar textos o realizar cálculos requería de una mecanización del gesto manual. La mano mutilaba así casi toda su capacidad de movimiento ‘digital’, convirtiéndose en el instrumento de percusión de un teclado. Hasta bien avanzado el siglo, el usuario de la computadora asumió por imperativo tecnológico ciertos hábitos ‘robóticos’ de naturaleza automática. Fig 5. Sección del teclado de un clave. Fig .8. Sección del teclado de un pianoforte. Fig 6. Clave de Andrea Ruckers, 1651. Fig .9. Pianoforte de Bartolomeo Cristofori, 1720. Fig 7. Teclado de Apple, 2007. Fig.10. Teclado Swype de Android, 2010. Las teclas del clave o del clavicordio (figs.5 y 6) son simples palancas que al ser percutidas tañen con una pequeña púa de cuero, fibra o caparazón de tortuga la cuerda insertada en el extremo contrario de la tecla. Su sonido quedo inspiró la obra de Haendel y Johann Sebastian Bach, que compusieron numerosas obras ex profeso para este instrumento. La musicalidad del instrumento define la composición. Los matices sonoros de las fugas de Bach se perderían distorsionados por la reverberación de un instrumento con diferente sonoridad. La mayor sensibilidad en la pulsión mecánica que incorporó el mecanismo de percusión (martillo, tecla, báscula y apagador) en el pianoforte (figs.8 y 9) relegó musicalmente al clave y al clavicordio. La pulsión mecánica de la tecla de una computadora común apenas difiere de la propia de las 48 Ibíd., p.66. 251 primeras máquinas de escribir. No será hasta la década de los sesenta, cuando en un laboratorio de la Universidad de Stanford, en pleno Silicon Valey, Douglas Engelbart y Bill English inventan el periférico comúnmente conocido como ‘ratón’ (fig.12). Este hecho supuso el comienzo de un camino que llevaría al ser humano a la recuperación de una de sus señas de identidad: el pulgar. En clave antropológica, la capacidad del pulgar para oponerse físicamente al resto de dedos constituye la característica diferencial del ser humano, a diferencia de otros homínidos que no han logrado subvertir su condición genética. El desplazamiento erguido permitió liberar la mano de soportar el peso del cuerpo y asumir otras tareas -esto ya lo observó Darwin- (Wilson 2002). La ‘presa pulgar’ (fig.11) permitió al ser humano trabajar con una mano en un objeto que sostenía con la otra (Sennet 2009). Entre la mano prehomínida y la nuestra, el pulgar ha crecido, también se liberó el extremo final del cúbito que da grados de libertad a la mano. Wilson49 afirma asimismo que ‘el pulgar largo permite tocar la punta de todos los demás dedos, con lo que se pueden manipular objetos con precisión y sujetar piedras para golpear, excavar o lanzarlas. La oposición de los dedos, combinada con la desviación cubital de la muñeca, permite sujetar totalmente un palo a lo largo del eje del brazo’. Washburn (en Wilson 2002) defiende que ‘el cerebro humano moderno evolucionó50 después de la aparición del pulgar de la mano en los australopitecos y, libre de la locomoción, se hiciera más diestra con el uso de herramientas’. El ratón de Engelbart y English ha significado la recuperación biomecánica de la manera más evolucionada de asir, en combinación con la percusión de tres o más botones que potencian su multifuncionalidad. La evolución en la capacidad de control mecánico de la computadora es un aspecto esencial en la construcción del Entorno Aumentado. Sin embargo, tanto el ratón como el teclado requieren de un punto de apoyo en el antebrazo para liberar la muñeca y con ella el movimiento manual. No ejecutar la ergonomía adecuada para apoyar el antebrazo genera una sobrepresión muscular que acaba siendo la causa de contracturas u otras afecciones graves como el Síndrome del Túnel Carpiano. 49 Ibíd. 50 ‘Australopitecos, 4,2 millones de años / 400 cc. de cerebro; Homo Habilis, 2 millones de años / 600cc. de cerebro; Homo Erectus 1 millón de años / 1100 cc. de cerebro; Homo Sapiens 100.000 años / 1350 cc. de cerebro’. (Wilson 2002). Fuente: http://<www.javierseguidelariva.com/Res/R%20108.html>. (Consultada el 12 de abril de 2013). 252 Fig.11. Movimientos de oposición y contra-oposición del pulgar. Fig.12. El primer prototipo de ratón, 1967. Douglas Engelbart y Bill English. Fig.13. Minority Report, 2002. Director: Steven Spielberg. En los últimos diez años la tecnología ha revolucionado la interacción hombre-máquina51 con la incorporación de nuevos sensores de movimiento52. La percusión dactilar es sustituida por el deslizamiento en una pantalla táctil. De este modo, el obligado punto fijo del antebrazo se elimina y la mano recupera la totalidad del movimiento y la expresión total del gesto, lo que implica una mayor sensibilidad en la interacción con el dominio digital. Esta sensibilidad extra ha de amortizar la interfaz53 de la pantalla, teniendo en cuenta por ejemplo los movimientos circulares que la mano describe de forma natural en torno a la articulación de la muñeca o la pinza formada por el pulgar y el índice. Las aproximaciones visionarias que describen la ciudad aumentada, desarrolladas en el seno de la investigación académica, coinciden en muchos aspectos con los prototipos de las empresas del sector de las comunicaciones. En 2002, Spielberg anticipó en Minority Report (fig.13), adaptación cinematográfica del relato de Philip K. Dick El informe de la minoría (The Minority Report, 1956), una interfaz táctil que liberaba casi por completo el movimiento de la mano, aunque ésta aún operaba una pantalla. En la misma línea, la escritura mecanográfica ha visto surgir otras alternativas. La mayoría de los teclados contemporáneos se corresponden con el modelo Qwerty, distribución habitual de las telas usada cada día por millones de usuarios. Si bien la disposición original de la primera máquina de escribir organizaba los tipos en dos filas por orden alfabético, el teclado Qwerty diseñado y patentado por Christopher Sholes en 1868 y vendido a Remington en 1873 -su nombre se debe a las primeras seis letras de su fila superior de teclas-, separó los caracteres más usados para evitar atascos en el mecanismo transmisor del movimiento impelido por las teclas. Sholes encargó un estudio para conocer las letras y las combinaciones de letras más comunes empleadas en inglés; concluyó en una dispersión por el 51 Véase Cap. II Cultura interactiva de lo visual. De la cuarta pared de Giovanni Battista Aleotti a las gafas de Google. 52 3D en Kinect (2010) y Wii (2006), y 2D en las pantallas táctiles. 53 Véase definición en el Glosario. 253 teclado de los caracteres habituales y sus combinaciones. Así fue como reorganizó las teclas para ralentizar deliberadamente al mecanógrafo, en beneficio de la solvencia en la mecánica que operaba la máquina de escribir, pero penalizando la ergonomía del usuario y con ello el rendimiento y la eficacia en la comunicación. A pesar de ello, el Qwerty se extendió por todo el planeta. Disposiciones alternativas de las teclas, como la Colemak, que valora la fortaleza física de cada dedo, o la Dvorak, patentada en 1936 por August Dvorak y su cuñado William Dealey54, que reduce por tres la movilidad digital, superan con creces la capacidad del Qwerty. El teclado Dvorak dispone las teclas de mayor uso, como son las vocales y otros caracteres fijos que suponen el 70% de los ataques del teclado, en posiciones que no implican movimiento digital, aumentando así la velocidad de la escritura. Con el uso extendido de las pantallas táctiles, la escritura Swype (fig.10) se populariza entre los usuarios de terminales de telefonía móvil. Swype implica un avance sustancial si cabe más determinante: no teclea palabras, las dibuja. Esta evolución radical en el soporte del mensaje –en la interacción más íntima del usuario con la máquina- subvierte el canal de comunicación y le infiere una componente arquitectónica como es la trazabilidad gráfica del mensaje. En la carrera hacia la desmaterialización del soporte, la tecnología de la Realidad Aumentada, aparecida en torno a 2009 en el contexto industrial del juguete vinculado a una webcam, constituyó el origen del cambio de soporte que definitivamente revolucionaría la interacción hombre-máquina55. La evolución de los dispositivos periféricos de la Realidad Aumentada (casco, guantes, gafas,…etc.), junto con la propia de los entornos táctiles, mejoró ostensiblemente la relación con las computadoras, pero fue la aparición de los primeros controladores con sensores de movimiento lo que inició el cambio56. A partir de reconocimiento del gesto corporal por escáneres 3D, el espacio se ha convertido en una pantalla donde el interlocutor puede registrar información. 54 El objetivo de Dvorak y Dealey era diseñar científicamente un teclado para disminuir los errores de mecanografía, aumentar la velocidad y reducir la fatiga del mecanógrafo. Realizaron una investigación exhaustiva. En 1914 y 1915, Dealey atendió a seminarios sobre la ciencia del movimiento y revisó películas de mecanógrafos a cámara lenta. Dvorak y Dealey estudiaron meticulosamente el idioma inglés investigando las letras y combinaciones de letras más usadas. También estudiaron la fisiología de la mano. En 1932, el resultado fue el teclado Dvorak (Dvorak Simplified Keyboard). Fuente: Wikipedia. 55 Ibíd. 56 Wii de Nintendo (2006), EyeToy + Move (PlayStation) de Sony (2010) y Kinect (XBOX 360) de Microsoft (2010). 254 Fig.14. Jackson Pollock. Fotógrafo: Hans Namuth. Fig.15. Anthropométries, 1960. Paris. Yves Klein. Fig.16. Tipografía manual. TienMin Liao. El usuario puede comunicar con la totalidad del cuerpo, expresarse con gestos naturales a su anatomía y sin necesidad de constreñir la expresión a determinados movimientos dactilares. Resulta inevitable recordar el proceso que condujo a Jackson Pollock (fig.14) a pintar con la energía de todo su cuerpo sobre un lienzo abandonado en el suelo: ‘My painting does not come from the easel. I prefer to tack the unstretched canvas to the hard wall or the floor. I need the resistance of a hard surface. On the floor I am more at ease. I feel nearer, more part of the painting, since this way I can walk around it, work from the four sides and literally be in the painting.’ La ‘pintura de acción’ o Action Painting, acuñada en los 50’s por el crítico de arte Harold Rosenberg, convirtió el cuerpo del artista en el instrumento de comunicación del mismo modo que la realidad aumentada propone interfaces con ausencia de soporte físico. En la década de los sesenta, la performance antropométrica (fig.16) de Ives Klein exploraba la paleta expresiva del cuerpo humano. La trayectoria experimental que éstos y otros autores recorrieron en búsqueda de la liberación total de la acción plástica y la supresión de la huella mecánica impuesta por soportes e instrumentos que coartan la expresividad potencial del artista, forma parte del ideal artístico que supone la desmaterialización de la herramienta. En este sentido, el corpóreo usuario del Entorno Aumentado a menudo se convierte en el propio instrumento o canal de comunicación de la información57, sin necesidad de intermediación periférica58 alguna que opere la capa digital59. 57 Nótese el sentido metafórico de la obra del diseñador neoyorkino Tien-Min Liao (fig.16). 58 Véase ‘periférico’ en el Glosario. 59 El progreso en la desmaterialización de la interfaz que opera la computadora está ligada a la evolución del videojuego y la ruptura de la cuarta pared por la consola Wii Sport en 2006. Véase Cap. II, Videojuegos, paradigma arquitectónico del Entorno Digital. 255 Fig.17. Augmented City. Keiichi Matsuda, 2010. Visión del usuario que opera la interfaz aumentada. En el caso de Augmented City (Fig.17), representación ficticia de un entorno aumentado, el vínculo entre el ser humano y la computadora ha alcanzado la desaparición física de la interfaz donde se opera el lenguaje comunicativo. Matsuda (2010) propone un lugar con interfaces etéreas translúcidas y transparentes que el usuario puede visionar a través de unas gafas electrónicas u otro dispositivo digital. La mano de la figura no está ‘tocando’ ninguna pantalla, pero el ojo del usuario sí está percibiendo este gesto. El movimiento manual es registrado por un escáner situado, por ejemplo, en el techo de ese lugar. Una vez digitalizada la información se traduce a un lenguaje de programación de código binario. La computadora ya ha interpretado el gesto. El sujeto, en definitiva, tiene la sensación (percepción) de que su mano regula el pequeño reloj que nítidamente está viendo. A pesar de que en la figura 17 la información se localiza en un plano vertical sin profundidad, replicando la estructura de columnas de una hoja de periódico o de un blog, las posibilidades tecnológicas que brinda el Entorno Aumentado hacen factible pensar en otro tipo de controladores más identificados con la ergonomía del cuerpo humano. Matsuda plantea en la figura 18 un controlador tridimensional concéntrico sencillamente manipulado con un giro dactilar60. 60 La imagen está diseñada con la técnica de visualización estereoscópica (véase ‘estereopsis’ en el Glosario) y se visualiza a través de unas gafas con dos filtros de los mismos colores complementarios, un color para cada ojo. 256 Fig 18. Augmented City. Keiichi Matsuda, 2010. La investigación de estas tecnologías de controladores sobre el campo informacional del lugar aumentado produce nuevos prototipos con gran celeridad. Las Google Glasses convierten en realidad la ficción de la mirada del Terminator61; suman a la mirada del espectador la propia de un androide, resultando ésta perdida entre la corta distancia de la información que aparece en los cristales digitales y la larga distancia propia de la del entorno físico. Este dilema sobre la selección del enfoque que atañe a la profundidad de campo de la visión, se antoja uno de los puntos singulares del formato visual híbrido; sobre todo, al contemplar la mirada perdida del individuo que está debatiéndose entre el la lectura de la capa digital que proponen sus gafas electrónicas y la visión de la realidad. El desarrollo tecnológico de los entornos táctiles y de realidad aumentada, entre otros, ha supuesto la aparición de numerosos foros de experimentación sobre la visualización de datos. En otros tiempos anteriores a la Revolución Digital, el trabajo de expertos en esta materia como el destacado Edward Tufte (The Visual Display of Quantitative o Information Envisioning Information) supuso un referente para la profesión. La visualización de datos se desarrolla transversalmente a otras disciplinas y utiliza, según recoge MediaLab-Prado62 en su web, ‘el 61 Véase Cap. II, Cultura interactiva de la interfaz. De la cuarta pared de Giovanni Battista Aleotti a las Google Glasses (fig.16). 62 El proyecto Visualizar, dirigido por José Luis de Vicente e integrado en Medialab-Prado, surge como ‘un proceso de investigación abierto y participativo en torno a la teoría, las herramientas y las estrategias de visualización de información. Visualizar cuenta con el apoyo de Bestiario (Compañía pionera en el sector)’. Fuente: <http://medialab-prado.es/visualizar> y <www.bestiario.org> (Consultada el 10 de agosto de 2013). 257 inmenso poder de comunicación de las imágenes para explicar de manera comprensible las relaciones de significado, causa y dependencia que se pueden encontrar entre las grandes masas abstractas de información que generan los procesos científicos y sociales’. Intrawall vs Extrawall. Al otro lado del espejo. McLuhan (1964) publicó en una de sus obras más influyentes, Understanding Media: The Extensions of Man, un concepto ya clásico, un binomio acerca de los medios de comunicación surgidos a partir de la percepción de sus contenidos por parte de los receptores. Este binomio establecía dos categorías: los medios calientes y los medios fríos. Los medios fríos son aquellos que reclaman de sus receptores una alta interacción. Al no ofrecer demasiado detalle sobre su contenido, exigen de los receptores una participación muy activa en el proceso de comunicación. Un ejemplo de ello es la radio, que procura únicamente sonido a sus receptores, instándolos a usar su imaginación para completar la información recibida. Por el contrario, los medios calientes proporcionan al espectador tanta información que éste no precisa de un gran esfuerzo para percibirla. La televisión constituye el ejemplo paradigmático al permitir una respuesta del espectador ciertamente pasiva. McLuhan no era precisamente un partidario de ciertos medios calientes como la televisión, pero ¿qué opinión le merecería Internet? Si entendemos la Red como un ‘medio de comunicación’ o como un canal, ¿cómo serían los medios que transitan a través de él? Considerando la cantidad de información disponible en ellos, ¿podrían considerarse como calientes? Para responder a estas preguntas, nos puede resultar de gran ayuda fijarnos en un fenómeno que al convertirse en cotidiano puede pasar inadvertido: la sobre-información. El Entorno Aumentado integra medios digitales como la radio o la televisión, pero también Internet. La interacción que propone puede resultar fría o caliente en función de las características variables propuestas en la capa digital, dando por hecho la multiplicidad y profusión de la información. Atendiendo a la topología que define la cuarta pared es preciso incorporar a la literatura el binomio aquí definido como intrawall - extrawall, referido a la posición que ocupa el campo informacional del Entorno Aumentado con respecto a la cuarta pared. El usuario está conminado a convivir entre estas dos fuentes de información, una situación evidentemente más cómoda para los nativos digitales. Intrawall Aquél entorno aumentado cuya capa digital propone una interacción que acontece exclusivamente en el campo visual de la pantalla. Este no ha sobrepasado la cuarta 258 pared y por tanto corresponde a interacciones habituales resueltas por ejemplo mediante teclado y ratón. Extrawall Aquél entorno aumentado cuya capa digital propone una interacción usuariocomputadora que ha traspasado la cuarta pared. La interacción hombre-máquina se resuelve aquí con dispositivos periféricos que exceden el ámbito de la computación tradicional. El caso extremo de este entorno se produce, por ejemplo, en interfaces basadas en escáneres que reconocen el movimiento del cuerpo, la voz, el tacto,…etc.; el cuerpo se convierte este tipo de entorno aumentado en el operador del campo informacional. 4.2. El proyecto arquitectónico del Entorno Aumentado. 4.2.1. El carácter inteligente de los parámetros. Variaciones sobre un tema. Históricamente la técnica del proyecto arquitectónico ha ido adaptando su fundamento para asumir los cambios tecnológicos acontecidos en la cultura de la construcción. El proceso de proyecto en la Edad Media, en el Renacimiento, en el Barroco o en el Movimiento Moderno incorporó sucesivamente avances que acompañaban a la innovación arquitectónica. La metodología tradicional de proyecto basada en ‘la prueba y error’ de soluciones proyectuales tiene en la versión ‘aumentada’ del proyecto el reto de renovar su naturaleza pedagógica. La computadora no cesa de proponer nuevas interfaces mediadoras entre el proyectista, el proyecto y el edificio. Las herramientas generadoras de algoritmos evolutivos han subvertido la condición temporal lineal del proyecto, proponiendo metodologías alternativas desde la emergencia tecnológica. El empleo del código binario como motor generador de objetos ha sido causa de una tenaz revisión de la morfología arquitectónica. El software generador de modelos digitales ha deparado toda una colección de respuestas formales nunca vistas. Si el siglo XX asistió a la liberación de la planta, se puede afirmar sin temor a equívoco que el siglo XXI proyecta desde la liberación morfológica. Desde finales del siglo XX, el algoritmo forma ya parte de la práctica arquitectónica habitual de muchos profesionales. Como resultado de la evolución de los programas informáticos de diseño asistido, la confección algorítmica de envolventes permite hoy en día obtener soluciones precisas y óptimas muy rápidamente. La técnica constructiva habrá de convertir la forma vectorial en elementos constructivos que materialicen la forma digital a escala 1/1. Muchas de estas exploraciones formales resultan vacías de contenido ajeno a lo morfológico; permanecen en ese campo de la investigación alineándose con la biomímesis u otras estrategias de réplica que predisponen su geometría desde la parametrización generativa programada. La triangulación de superficies de doble curvatura ha sido la técnica común en la materialización de estas superficies complejas, desde el paradigmático museo Guggenheim de Bilbao a las envolventes de Zaha Hadid. Si bien la atención proyectual basada en la forma parametrizada puede producir objetos o edificios de gran integridad y riqueza, su complemento con otras consideraciones paramétricas a menudo logran un resultado de mayor potencial 259 arquitectónico. Conducir la experimentación digital hacia otros propósitos no exclusivamente formales relacionados con la flexibilidad programática, el comportamiento bioclimático, la capacidad comunicativa, el confort psicrométrico o cualquier otra circunstancia que provea información útil al usuario supone todo un reto para el arquitecto proyectista. Los programas de diseño asistido por ordenador del último cuarto de siglo XX no incorporaban el parámetro ‘tiempo’ en las pocas posibilidades algorítmicas que existían para representar el modelo arquitectónico. De igual modo, aún bajo los efectos de la inercia retórica característica de las técnicas de representación en papel, el proyecto a menudo reflejaba tendencias de réplica de procedimientos pre-digitales, ‘digitalizando’ las retóricas analógicas de representación63. El cambio que ha supuesto el uso de programas de generación algorítmica, con las posibilidades de intervención en el proceso dinámico de construcción del modelo que habilitan, ponen en crisis las metodologías tradicionales del proyecto arquitectónico. Fig.1. Galápagos. Fuente: <http://lmnts.lmnarchitects.com/>. Fig 2. Galápagos. Fuente: <http://vimeo.com/15697593>. Uno de los aspectos innovadores de la apuesta algorítmica contemporánea es la capacidad computacional de transformar los parámetros en ‘tiempo real64’. Es el caso de programas como el Galápagos, que propone una metodología de proyecto dinámica distinta a la ortodoxa de ‘prueba y error’. Esta plataforma generativa de algoritmos evolutivos posibilita la integración de condiciones paramétrica nuevas en el proceso de proyecto: orientación, requisitos urbanísticos, bioclimatismo65, normativa,…etc. La dinámica de trabajo del programa resulta un protocolo 63 Era habitual encontrar desajustes en la escala de la representación, provocados por la disparidad entre el nuevo zoom digital y el antiguo zoom analógico. 64 Véase Glosario. 65 En una combinación de Grasshopper + Galapagos + Ecotec, Galapagos evaluaría los resultados de la serie y elegiría la solución que tuviera una radiación solar óptima (fig.2). 260 sencillo y distinto a la práctica habitual, pues el software va generando variaciones66 sobre la hipótesis inicial de proyecto (fig.1) que se distancian en mayor o menor medida de la directriz media establecida por las condiciones de partida. Estas variaciones suponen una colección de soluciones a los problemas que plantea el proyecto, una suerte de Ars Magna67 a disposición del proyectista. El usuario puede dar la orden precisa para que la línea exploratoria del programa continúe por tal o cual derrotero. 4.2.2. Narrativa proyectual dinámica. Del zoótropo a los serious games. El edificio y la ciudad se nutren poco a poco de la materia aumentada procedente de propuestas políticas, soluciones técnicas de profesionales e iniciativas ciudadanas, entre otras prácticas. El propio proceso de proyecto del nuevo entorno ve afectada su metodología por los avances de las tecnologías de la información y la comunicación. Las estructuras profesionales también están adaptando su configuración para asumir unas pautas tecnológicas que estimulan la interactividad fuera y dentro de la pantalla. El proyecto arquitectónico se alimenta de la puesta en valor de la crisis creativa. El arquitecto se enfrenta a esta crisis equipado con diferentes armas explorativas. Javier Seguí (1996: 29) distingue el dibujo ‘como oficio de tanteo’ propio de la fase de ideación del proyecto, del dibujo ‘preciso como herramienta de ejecución y control’. Algunos métodos dinámicos de producción se incorporan a la fase de ideación proyecto arquitectónico y representan procesos cuya naturaleza operativa afecta a la naturaleza del edificio. No es objeto de esta investigación abundar en el catálogo de representación gráfica arquitectónica como tal, sino en el proceso narrativo y retórico proyectual. La fase de ideación del proyecto se ha resuelto desde el Renacimiento con el dibujo de tanteo o croquis y la elaboración de miniaturas o maquetas, aproximaciones plásticas del proyectista al ámbito arquitectónico. El desarrollo de las TIC y del Paradigma Digital ha propiciado nuevas herramientas que los arquitectos incorporan a esta fase de creación. Esquemas, diagramas, textos, gráficos estadísticos, audiovisuales, encuestas, noticias,…etc., facilitan el análisis paramétrico de la circunstancia informacional del proyecto a la vez que aclaran y afianzan la conjetura del arquitecto. En sí mismas, estas herramientas se presentan como expresiones acabadas, como fotografías del ámbito proyectual que documentan y alientan la crisis proyectual. Si bien formaban parte de la labor documental del arquitecto ortodoxo, lo eran de manera ciertamente distante al tratamiento que hace de ello el arquitecto contemporáneo. La búsqueda y acumulación de datos que definen los cauces del proyecto no han sido objeto de ser 66 Véase gráfica de la serie en color naranja (fig.1). 67 Véase Ars Magna en Cap. IV, El fin de la mano mecánica y el advenimiento de la ergonomía postdigital. 261 representadas en el ejercicio profesional hasta prácticamente desarrollada las tecnologías propias de la Revolución Digital. El pensamiento positivista que dominó la escena metodológica proyectual a lo largo de la práctica totalidad del siglo XX -salvo excepciones- mostraba el proyecto como una solución a un problema definido en la hipótesis de inicio. Las metodologías lineales de exploración proyectual apenas se percataban en la narración del proceso proyectual y en los efectos que este podía tener en la propia solución. Se pasaba del inspirado croquis de servilleta a los planos acotados como si no hubiera sucedido nada entre medias, o al menos, nada de interés para el cliente. La cocina del arquitecto, aun con reminiscencias del maestro constructor medieval, se ocultaba tras un tupido velo que impedía ver la técnica del proceso proyectual. Apenas incluía estructuras narrativas salvo las empleadas en la representación final del proyecto. Como consecuencia de las propiedades del soporte papel utilizado de forma mayoritaria por el oficio, la narrativa proyectual se ha alejado de configuraciones dinámicas. La aparición del soporte digital permitió incorporar al proyecto expresiones audiovisuales dinámicas que formalizaron de un modo diferente la circunstancia en torno a la fase de ideación del proyecto. La evolución de los programas de edición de video y de animación han permitido estandarizar la incorporación de estas técnicas al proyecto arquitectónico contemporáneo. Ray y Charles Eames, pioneros en el empleo de un soporte dinámico como herramienta de exploración proyectual, recurrieron a esta técnica en la confección de más de 80 películas cuyo fin no era otro que aclarar y comunicar estados críticos sobre circunstancias muy diversas referidas al ámbito de lo arquitectónico. El interés de Ray y Charles en materias de comunicación se remonta a 1952, cuando A rough sketch for a Sample Lesson for a Hypothetical Course, ‘Esbozo para una lección-tipo de un curso hipotético’, vió la luz a propósito de un encargo de su amigo George Nelson68. En esta ocasión era una ‘exposición de una clase típica’ de cincuenta y cinco minutos para el Departamento de Bellas Artes de la Universidad de Georgia, en Athens (Colomina 2006: 258). Además del despliegue audiovisual, la propuesta incluía ‘una colección de olores sintéticos embotellados que debían lanzarse al auditorio durante el show a través del aire acondicionado’.69 La creencia de los Eames de que los profesores debían conocer la Teoría de la Comunicación70 resulta de una vigencia abrumadora en el contexto actual de la profesión. Recopilar 68 George Nelson, arquitecto, diseñador industrial y director de diseño de la compañía de muebles Herman Miller, introdujo a los Eames en la compañía en 1945. Charles y Ray desarrollaría casí toda su producción en el seno de la compañía. 69 George Nelson, The Georgia Experiment: An industrial Approach to Problems Education, manuscrito de 1954, citado por Abercrombie, George Nelson, 145, y por Beatriz Colomina (Íbid: 259). 70 Los Eames leyeron Una teoría matemática de la información (1949) obra en la que Claudde Shannon demuestra que todas las fuentes de información se pueden medir. Sentó también las bases para la corrección de errores, supresión de ruidos y redundancia, conceptos también explorados por los arquitectos en el largometraje A Comunications Premier (1953). 262 información, seleccionarla para construir un discurso crítico sobre la circunstancia del proyecto y transmitir el resultado potenciando la narrativa mediante el uso de medios dinámicos, empieza a formar parte del corpus metodológico de algunas escuelas de arquitectura71. El uso del video convierte al arquitecto en director cinematográfico y pone en sus manos todo un despliegue de técnicas de representación propias del séptimo arte, que por otra parte no ha dejado de ser una disciplina cercana a la arquitectura. Sendas formas de mirar la realidad se contaminan mutuamente, no sólo desde el punto de vista formal con la incorporación de arquitecturas ficticias (Metrópolis) o reales (Mon Oncle, Housewife) a la película, y viceversa, sino también al compartir técnicas y procesos constructivos de la obra. Fig.1.Taumatropo, 1825. John Ayerton. Fig.2. Zoótropo, 1834. William George Horner. Fig .3. Zoótropo. Bartlett School of Architecture, curso 2011-2012. Unit 22. El zoótropo o zoetrope fue un juguete muy popular en la primera mitad del siglo XIX y uno de los avances precursores del cine. Creado en 1834 por William George Horner, está compuesto por un tambor circular con unos cortes, a través de los cuales mira el espectador para que los dibujos dispuestos en tiras sobre el tambor, al girar, den la ilusión de movimiento. Evolución del Taumatropo o Wonderturner, inventado por John Ayrton en Paris en 1824, el zoótropo representa el eslabón perdido entre el cine y la arquitectura, al combinar el dinamismo de uno y la miniaturización de un escenario o maqueta. El zoótropo ha sido rescatado como técnica del proyecto arquitectónico por la unidad 22 de la Barlett School of Architecture de Londres72. La participación o interacción entre sujeto (proyectista) y objeto (proyecto) supone un hecho diferencial en la narración del proyecto arquitectónico cercano a la naturaleza también dinámica del Entorno Aumentado. Tanto las versiones vistas predigitales como las que utilizan la 71 Véase el trabajo de profesores como Izaskun Chinchilla –uso de zootropos en la fase de ideación del proyecto- y alumnos como Keiichi Matsuda –uso de animaciones en las fases de ideación y representación del proyecto- en la Barlett School of Architecture. 72 Dirigida por los profesores Izaskun Chinchilla y Carlos Jiménez. 263 tecnología digital aportan esa condición temporal tan arraigada en los procesos arquitectónicos contemporáneos. Fig.4. Everyday the same dream, 2009. Paolo Pedercini, La Molleindustria. Fig.5. Serious Games, 2010. Jordane Pâquet. Fuente: <http://www.jordanepaquet.fr/mon-actualite/307/composantes-duserious-game/> (Consultada el 5 de agosto de 2013). Los serious games o ‘juegos serios’ constituyen pequeños cortos de animación que integran la interacción del jugador. La retórica narrativa, la capacidad multimediática y la propuesta pedagógica de comunicación del mensaje (fig.5) son características de este formato vinculado al videojuego. Se trata pues de un soporte de información crítica que reune interacción y dinamismo, una evolución del zoótropo analógico. El colectivo independiente italiano La Molleindustria desarrolla su trabajo en formato serious game en oposición a la industria del videojuego mainstream. El tratamiento gráfico, la jugabilidad y el soporte de sus propuestas son de una factura sencilla, idónea para enfatizar la denuncia crítica implícita en sus videojuegos. Everyday the same dream73 es un serious game (fig.4) que ‘sitúa al jugador en el papel de un hombre cuya vida ha de cambiar’, en palabras del su creador Paolo Pedercini, es un juego existencial corto sobre alienación y rechazo al trabajo’. Éste y otros serious games proponen una narrativa dinámica a la que suman la dimensión interactiva. El espectador se convierte en parte activa del mensaje. En este caso el espectador toma partido como jugador, sin que esta condición lúdica reste un ápice de ‘seriedad’ a la propuesta. La conjetura del arquitecto74, propia de la fase de ideación del proyecto, puede encontrar en este formato una herramienta de gran expresividad y utilidad, tanto en el aspecto de la narración y de la retórica del proyecto, como en la interlocución con el receptor -cliente o usuario-. 73 Everyday the same dream, La Molleindustria. Fuente: <http://www.molleindustria.org/everydaythesamedream/everydaythesamedream.html> (Consultada el 11 de agosto de 2013). 74 Seguí, óp.cit., 1996: 47-58. 264 4.2.3. El chip replicante. La sensibilización artificial del Entorno Aumentado. Manifiesta Herreros (2005: 21) que ‘el proceso de artificialización de la naturaleza ha de complementarse, en pos del desarrollo sostenible del planeta, con la naturalización de la ciudad’. En relación a la segunda vía o Segunda Naturaleza, Herreros75 señala tres elementos o materias primas que la componen: cambio, energía e información. El Entorno Aumentado se advierte como soporte o medio para la construcción de la Segunda Naturaleza de Herreros, el paisaje artificial que propone puede ser explorado en referencia a los tres componentes. De ellos, el cambio y la energía comparten una connotación temporal en su definición relacionada con la capacidad para obrar, transformar o poner en movimiento. El tiempo, sumado a la tercera componente -la información- aproxima la Segunda Naturaleza a otro sustantivo fundamental en la concepción del Entorno Aumentado: la comunicación, en tanto que proceso mediante el cual se puede transmitir información. La naturaleza híbrida (física + digital) del Entorno Aumentado insta al individuo a asumir una nueva percepción del entorno que amplía la comprensión fenomenológica tradicional del medio. Esta circunstancia76 pasa por la sensibilización artificial del Entorno Aumentado, proceso analizado en este texto y expuesto en forma de taxonomía fenomenológica. La clasificación se realiza en base a una estrategia sintética de la compleja realidad sensorial, fundamentada en la analogía con el sistema sensorial humano y en casos de estudio paradigmáticos de cada tipo. La combinatoria de tipos inaugura un abanico de sinergias sensoriales. Actualmente muchos estudios e investigaciones de sociólogos, antropólogos y otros científicos de lo social enmarcan sus trabajos dentro de un paradigma que en palabras de Longina (2008) podría llamarse la influencia de la tecnología en las transformaciones socioculturales. Éstos tratan de comprender y explicar cómo la tecnología puede cambiar el modo de percibir el mundo77, lo cognitivo y por tanto, las prácticas sociales, los hechos, lo cotidiano, el 75 Ibíd. 76 Desde 1999, la Fundación Telefónica apuesta por la convergencia entre el arte, la ciencia y la vida artificial con VIDA. El Concurso Internacional Arte y Vida Artificial se ha convertido en un referente internacional de la materia. 77 Véase la intervención de Amparo Lasén en el panel Modelos y Contextos de la Escucha, X Congreso de la SIBE-Sociedad de Etnomusicología. V Congreso deI ASPM-España. II Congreso de músicas populares del mundo hispano y lusófono: ‘Música, ciudades, redes: creación musical e interacción social’, Conservatorio Superior de Música de Salamanca, 6-9 de marzo de 2008. Disponible en: < https://www.academia.edu/446733/Modelos_Y_Contextos_De_La_Escucha>. (Consultada el 3 de septiembre de 2013). 265 pensamiento. Por un lado, incluyen en el mismo paquete los procesos de percepción, cognición y comunicación; y los medios, artefactos y tecnologías por el otro. A estos efectos Marshall McLuhan y Edward T. Hall señalaron la influencia de los medios electrónicos en el cambio de la percepción cultural del espacio, cómo se percibe y cómo se transforma. Ambos también entendían que toda tecnología es una extensión del cuerpo y de la mente del ser humano; que en el análisis de la comunicación humana se debe tener en cuenta a los medios tecnológicos como ambientes en sí mismos, agentes que tienden a transformar la propia percepción humana y, en consecuencia, la cultura. Estas tecnologías creadas por el ser humano no son sólo extensiones del organismo, de su cuerpo, también se convierten en prótesis. Cada vez que el ser humano sufre un cambio adaptativo como consecuencia de la creación de una nueva tecnología o medio, ocurre ‘una experiencia dolorosa en el organismo’. Aristóteles clasificó en cinco categorías los ‘radares naturales’ del organismo: vista, oído, gusto, tacto y olfato. Recientemente y al ritmo de los avances científicos se han ido añadiendo otros como el sentido del equilibrio, la temperatura, el dolor, la posición corporal y el movimiento. También se han descubierto que unos influyen sobre otros78. No obstante, nuestros sentidos como ya sospechaba Descartes– no son simples captadores de la realidad. Transforman los fotones en imágenes, las vibraciones, en sonido y las reacciones químicas en olores y sabores (Sáez 2012). Tampoco las percepciones que recrea el cerebro a partir de esos estímulos identifican el mundo exterior tal y como es. Por todo ello, no levanta ninguna sospecha la afirmación del psico-biólogo Ignacio Morgado (2012): ‘aquello que nos rodea y la imagen mental que tenemos de ello no tienen mucho que ver’. Pero el animal vivo no sólo recibe estímulos del medioambiente que lo rodea, también lo hace de sí mismo. Sus órganos internos y el movimiento de sus extremidades y sus órganos sensoriales, y los movimientos locomotores del cuerpo entero dentro del espacio, también proporcionan estímulos. Sherrington propuso en 1926 un sistema complementario para clasificar los sentidos (Mantzou 2000:389) distinguiendo entre exteroceptores79, interoceptores80 y propioceptores81, sosteniendo que trabajan por separado. Su teoría ha sido cuestionada por James J. Gibson al afirmar que la percepción es un proceso mucho más activo e integral y que la mayoría de las veces se basa en el concurso de propioceptores y exteroceptores. Según Gibson, los estímulos producidos por la acción son obtenidos, no impuestos. Es decir, obtenidos por el individuo, no impuestos sobre él. Son intrínsecos al flujo de actividad, no extrínsecos a éste y dependientes de él. En vez de entrar en 78 Véase Sinestesia en el Glosario. 79 Intervienen en la visión, sonido, olfato y sensación cutánea. (Ibíd.) 80 Sensaciones recibidas desde las vísceras. (Ibíd.) 81 Intervienen en la sensación somática profunda recibida de los receptores ubicados debajo de la piel, en los músculos y articulaciones, y en el oído interno (presión, movimiento, vibración, posición dolor agudo y movimiento). 266 el sistema nervioso a través de receptores, estos re-entran, acción que sustantiva el tecnicismo feedback o ‘retroalimentación’. La interpretación de la sensación ha sido uno de los invariantes en la historia del arte de todas las culturas, incluso para negarla. La estructura simple del arte tradicional se acomoda fácilmente a las enseñanzas de la Teoría Gestalt82, según la cual toda percepción o creación de formas está sometida a una tendencia hacia la percepción o la producción de estructuras tan simples y penetrantes como sea posible. Fue a partir de 1950, con los trabajos de Gibson y su línea de investigación, cuando este enfoque se revisó y cuestionó. Con respecto al entendimiento lineal y reduccionista de la complejidad del mundo del los sentidos, sostiene Mantzou83 que la noción clásica del órgano sensorial es la de un receptor pasivo pero los ojos, las orejas, la boca, la piel, son en realidad móviles, exploratorios y orientadores. Los modelos referentes de la percepción establecen inequívocamente esta conexión entre sujeto actuante y percepción: la acción guía a la percepción y la percepción a la acción. Esta circunstancia atañe directamente al proyecto de lugares aumentados que integran percepciones múltiples. La propiocepción considerada como la obtención de información desde la acción de uno mismo no depende necesariamente de los propioceptores; y la extrerocepción, considerada como obtención de información desde eventos extrínsecos, no depende necesariamente de los exteroceptores. Como observó Merleau-Ponty84: ‘La cosa y el mundo me son dados con las partes de mi cuerpo, no por una geometría natural sino por una conexión viva comparable o más bien idéntica con la que existe entre las partes de mi cuerpo’. Maurice Merleau-Ponty aseguraba así que no existe realmente una manera de aislar la percepción exterior y la percepción del propio cuerpo ya que ‘varían conjuntamente porque son 82 A principios del siglo XX, se acentuó con los teóricos de la forma -Teoría de la Gestalt- la capacidad innata del cerebro para organizar lo visual según leyes universales y eternas. La teoría de la Gestalt partió del problema de cómo se ven las formas, tomando un camino que presentaba a la forma como elemento que excedía de un mero compuesto de sensaciones. La experiencia no era reductible a elementos o unidades aditivas, según su argumentación, y cuando se la analizaba introspectivamente en integrantes sensoriales se la falsificaba. Así pues, tendemos mayoritariamente a percibir formas simples, compactas y precisas, al mismo tiempo que eliminamos de nuestra percepción las formas vagas, incoherentes e inarticuladas. Se denomina tendencia Gestalt a esta tendencia perceptiva articulante que posee las propiedades formales de la simplicidad, la compacidad, la coherencia,…etc., que se integran en una Gestalt estéticamente ‘buena’. (Ibíd., 396). 83 Ibíd., p.389. 84 Ibíd., p.390. 267 las dos caras de la misma moneda’. El enfoque de Gibson85 es distinto pero se entiende que Merleau-Ponty aunque no se refiere exactamente a la propiocepción, por lo menos analizada como impuesta y obtenida. En cierta manera se aproxima a su enfoque cuando dice: ‘toda percepción exterior es sinónima de cierta percepción de mi cuerpo como toda percepción de mi cuerpo se explícita en el lenguaje de la percepción exterior’. Además, Gibson señala que existe una jerarquía86 entre los distintos sistemas sensoriales activos: ‘Un estímulo tiene siempre un grado de orden sucesivo. Tiene una estructura en el ‘tiempo’. Por lo menos hay una transición en el principio y otra en el final, de tal modo que el estímulo nunca es un instante matemático. Tiene estructura secuencial así como inevitablemente tiene estructura simultánea.’ Consecuentemente, un estímulo se estructura en una parte permanente y otra cambiante. Conviene tener esta consideración muy en cuenta para plantear el impacto sensorial del Entorno Aumentado en el usuario no como una circunstancia homogénea sino como un paisaje multicapa donde conviven incidencias sensoriales dinámicas. Es evidente el nexo entre la percepción y la pauta de comportamiento, pero es necesario considerarlos y examinarlos por separado. En ese sentido, Gibson propone una clasificación de los inputs (los impulsos entrantes) y de los outputs del sistema nervioso (los impulsos salientes). Los sentidos externos se conciben de un nuevo modo, como activos en vez de pasivos, como sistemas en vez de canales y como interrelacionados en vez de mutuamente exclusivos. El artículo de Lev Manovich87 The poetics of augmented space, (Poéticas del espacio aumentado), destaca entre la literatura especializada por su condición pionera en el tratamiento del Entorno Aumentado. Manovich (2006: 220) propone una disyuntiva en base a la dicotomía aumentar/monitorizar. Tomando ésta como referente y teniendo en cuenta la clasificación sensorial de Gibson se puede proponer una taxonomía del paisaje sensorial aumentado en 85 Los movimientos del habla se controlan en un nivel por el feedback de los labios, la lengua, el paladar y el mentón, pero también en otro nivel por el feedback del oído -es decir, escuchándose a sí mismo mientras uno habla. Se ha demostrado que si el feedback auditivo se retrasa artificialmente por una fracción del segundo, el habla es interrumpido, aunque la propiocepción de bajo nivel permanece inalterada (Gibson 1968: 36). 86 La lista provisional que propuso Gibson para la clasificación de los niveles de propiocepción va de los más bajos a los más altos y de los más automáticos a los menos automáticos: propiocepción muscular, articular, vestibular, cutánea, auditiva y visual. 87 Profesor de Visual Arts de la Universidad de California donde enseña ‘Arte y nuevos medios’. 268 relación a dos categorías: output (emisión) e input (recepción). De este modo, el paisaje sensorial output (estimulante) sería aquél conformado por la tecnología que emite información, en oposición al paisaje sensorial input (receptor) que capta información gracias a la monitorización del entorno físico. En todo caso, la clasificación rescata al usuario como referente subjetivo, ya sea receptor u emisor. Impuestos con los órganos sensoriales pasivos Obtenidos con los órganos sensoriales pasivos Impuestos sobre órganos pasivos o extremidades Exteroceptivos Input Propioceptivos Obtenidos (impulsos entrantes) por órganos móviles por extremidades móviles y cuerpo Impuestos Propioceptivos sobre órganos pasivos o extremidades por órganos móviles Obtenidos por extremidades móviles y cuerpo Output (impulsos salientes) Actividad exploratoria de los sistemas perceptivos Actividad ejecutiva de los sistemas ejecutivos Fig.1. Clasificación sensorial de J.J. Gibson. (Mantzou, ibíd., p.396). El sensor artificial y el sentido sensorial del cuerpo conforman un par interactivo de intercambio de información en base a la estimulación. La asociación de los sensores artificiales con los sentidos del cuerpo humano genera toda una combinatoria sensorial dispuesta a ser incorporada en la arquitectura para convertirse en un ecosistema artificial sensible. La combinación de los diferentes ‘cazadores de estímulos’, ya sean naturales o artificiales, dibuja un mapa del paisaje sensorial múltiple y diverso. La intensidad y la complejidad del paisaje recae en la diversidad de ‘especies sensoriales’. Desde la pentasensorial, con un gradiente máximo de complejidad a la monosensorial, el paisaje artificial construye ámbitos sensoriales básicos que interactúan de modo complejo con el sentido humano. A partir del paisaje monosensorial táctil, acústico, visual, gustativo y olfativo, la agrupación por pares se traduce en paisajes bisensoriales, cuyo ejemplo más común es la televisión. Las posibilidades matemáticas de combinación de sensores analógicos y digitales son por tanto elevadísimas. 269 Según Strate88, McLuhan enfatizó el papel de los medios en la percepción sensorial, declarándose tomista al respecto. Veía el arte como un medio de capacitar a los sentidos y abrir las ‘puertas de la percepción’89. En lo que respecta al Entorno Aumentado, las puertas de la percepción están abriéndose más y más según evoluciona la tecnología. A pesar de ello, el cambio de paradigma ha de ser asumido socialmente, para lo cual es necesario buscar otras articulaciones externas al dominio tecnológico, como puede ser el mundo del arte. Son conocidas las aseveraciones que McLuhan realizó a propósito de los sentidos y su vínculo con respecto al medio. McLuhan (1962) afirmaba que el sentido del oído nos sitúa siempre en el epicentro de la escena arquitectónica. El campo perceptivo que se dispone 360º entorno al sujeto fue definido por el canadiense como espacio acústico. Esta disposición esférica disiente de la disposición perceptiva de otros sentidos y de la geometría asimétrica en el plano horizontal del cuerpo humano. El sentido auditivo nos colocará irremediablemente en el centro de la acción y en el centro del lugar que ocupemos. El sujeto se sitúa dentro de lo percibido. Por el contrario, el sentido de la vista nos desplaza fuera del ámbito percibido, observando el interior. La percepción visual es lineal y unidireccional, a diferencia del espacio polar auditivo. La intensidad con la que percibimos el espacio auditivo es constante, mientras que podemos regular la percepción del espacio visual ajustando el enfoque desde el punto de vista fijo. Es la mirada de un espectador voyeaur90, desde una posición objetiva y objetivante que McLuhan identificó como espacio visual. La interacción de este espacio con el polar auditivo, tanto en su versión analógica como digital, procuran una convergencia compleja en el lugar aumentado. La anatomía perceptiva91 del Entorno Aumentado infiere al sujeto hábitos de comportamiento en base a los nuevos canales perceptivos. El desarrollo de la máquina y las nuevas comunicaciones en la Revolución Industrial ya supuso una manera diferente de percibir la realidad. El auge de 88 Óp.cit., 67. 89 Parafraseando la alegre afirmación de Aldoux Huxley. 90 Strate, ibíd., 2012, p.67. 91 ‘Lo visual enfatiza el razonamiento cuantitativo regido por el hemisferio izquierdo del cerebro, crea una imagen monolítica y lineal de la civilización occidental, mientras que lo acústico, regido por el hemisferio derecho, crea un pensamiento cualitativo, se basa en el holismo, no en un centro cardinal sino en varios centros que producen diversidad enfatizando las cualidades tipo norma de dicho pensamiento cualitativo. Lo sonoro es protagonista ahora del frente. Es por eso que deberíamos luchar contra la hegemonía de lo visual para ganar tiempo, para promocionar lo cualitativo frente a lo cuantitativo, para desarrollar el hemisferio derecho, para crear resistencia y compensar la balanza. ‘Ganar tiempo’ significa operar en relación a esos ocho siglos de ventaja de hegemonía de un sentido sobre el otro, de lo visual sobre lo sonoro. Si promocionamos y difundimos lo sonoro estaremos trabajando en esa línea, estaremos en ese frente, y ese es uno de los objetivos de Madridsoundscape.org: promocionar la escucha como una nueva vía de conocimiento de la sociedad, como una herramienta epistemológica que sea capaz de promover los aspectos cualitativos de la existencia humana’. (Longina 2008). Disponible en <http://www.escoitar.org/>. 270 las TIC y el Paradigma Digital en el siglo XX han situado al ser humano a las puertas del Entorno Aumentado. Si para memorizar los textos en la Edad Media o en la Antigua Grecia eran imprescindibles el verso y la música, ¿cómo afecta a la tradición oral -paisaje sensorial acústicolos instrumentos de comunicación propios del Entorno Aumentado? Desde tiempos anteriores a la escritura se define como tradición oral la forma de transmitir, la cultura, la experiencia y las tradiciones de una sociedad a través de relatos, cantos, oraciones, leyendas, fábulas, conjuros, mitos, cuentos,…etc. El abandono de la supremacía de la tradición oral en favor de la cultura literaria, y especialmente la alfabetización, supuso una inversión en la jerarquía del espacial perceptual en beneficio del espacio visual y en detrimento del espacio acústico. La comunicación del mensaje en los tiempos anteriores a la escritura precisó del lenguaje oral, lo que supuso el empleo de recursos mnemotécnicos que ayudara a tal fin92. La canción, los versos, formatos como el cuento, el romance y otros recursos lingüísticos favorecían el recuerdo del contenido del mensaje. Este hecho resultó enfatizado con la invención de la imprenta de Gutenberg (McLuhan, óp.cit., 1962), responsable de las características propias de la civilización Occidental. La perspectiva histórica nos indica que es fácil darse cuenta de que el invento de la imprenta en el siglo XV está muy distante cronológicamente del invento del fonógrafo -prácticamente en el siglo XX-, casi ocho siglos de hegemonía de lo visual sobre lo sonoro. La imprenta permitió conservar el pensamiento escrito y la imagen, ejerciendo tecnológicamente su difusión. Asimismo transformó un ambiente sonoro en un ambiente visual y al hacerlo cambió también la forma de percibir el mundo en la sociedad occidental. La capacidad de la materia para asimilar ‘inteligencia artificial’ depara una larga lista de objetos ‘inteligentes’: edificios inteligentes, teléfonos inteligentes, coches inteligentes, juguetes inteligentes, electrodomésticos inteligentes, tejidos inteligentes, geles inteligentes…etc., en una lista que va aumentando según evoluciona la actividad de los laboratorios de I+D y la producción de las multinacionales del sector. Hoy en día la sociedad está habituada a calificar a los objetos artificiales de inteligentes. Objetos cuya respuesta se diseña en función de la información que perciben del medio. El mito de la Inteligencia Artificial93 acompaña al ser humano desde el momento en que un individuo pensó en construir otro ser semejante (fig.3). A menudo, la réplica artificial se ha moldeado tomando la figura del ser humano como patrón (fig.2), renegando de la abstracción en favor de lo figurativo. La inteligencia artificial que propuso Fritz Lang en Metropólis toma forma en el cuerpo del robot María. 92 Véanse los estudios de Parry (1987) sobre la cuestión homérica y el descubrimiento de fórmulas mnemotécnicas integradas en la estructura del poema. Nótese el significado del término griego ‘rapsodizar’, rhapsoidein, ‘unir canciones’. 93 Véase Cap. IV, Topología del Entorno Aumentado. Deriva digital hacia la eclosión 4.0. 271 ¿Cómo han imaginado los arquitectos el edificio inteligente? ¿Ha transformado la tecnología el lugar donde se ubica o tan solo se ha almacenado en él? La respuesta a estas cuestiones lleva a analizar circunstancias como la integración de las TIC en la arquitectura desde aplicaciones domóticas o inmóticas, a menudo estrategias parasitarias de estructuras herederas de tiempos pasados. La tecnología se ha tomado frecuentemente como un gadget, un chisme más que propone un control diferente, y a veces anecdótico, sobre el entorno. Por el momento, la incorporación del paisaje artificial sensorial en el entorno físico no ha implicado una transformación radical extendida en la envolvente arquitectónica tradicional. Fig.2. Revista AD, 1970. Portada. Fig.3. Galaxy, 1954. Portada. Fig.4. Un ácaro cerca de un grupo de engranajes de MEMS94. La interacción del ser humano con el dominio digital del Entorno Aumentado pasa por sensibilizar dicho entorno. Como operador de ese dominio, el cuerpo humano constituye en sí mismo un estímulo que produce una variación en el medio físico cuya magnitud afecta al campo informacional digital. La parte del Entorno Aumentado que se encarga de esta empresa es el sensor. Un sensor electrónico responde al estímulo con una señal eléctrica que transfiere la información de esa magnitud que a la postre se convertirá en información digital. Del mismo modo que el fotógrafo de animales debe ocultarse para obtener una instantánea que muestre al animal en libertad sin que éste se cerciore de la presencia humana, el sensor en muchas ocasiones debe ser imperceptible para no condicionar la actividad que pretende medir. La tecnología de sistemas micro-electromecánicos (MEMS) ha evolucionado de tal modo que el tamaño de estos dispositivos se ha reducido hasta acomodarse en ocasiones a una escala de micras (fig.4). 94 Fuente: Laboratorios Nacionales Sandia (Sandia National Laboratories), tecnologías SUMMITTM, <www.mems.sandia.gov>. (Consultada el 5 de abril de 2013). 272 Otro factor importante para implementar la tecnología sensorial al paisaje tradicional es el económico. Salvo sensores muy concretos, se pueden encontrar en el mercado una gama amplísima a un precio realmente económico. Basta pensar en el precio de una cámara web sensor óptico- para hacerse a la idea. La durabilidad del campo sensorial artificial también ha mejorado en los últimos años. Por otro lado, los sensores son dispositivos que han existido siempre. Forman parte de los seres vivos y permiten transmitir información. Las fuentes de información también han existido siempre. Empíricamente cualquier manifestación de energía se puede medir. La transferencia de información desde el medio natural al artificial a través de un sensor permite una interacción inmediata. La sensibilización del Entorno Físico permite al ser humano predecir, por ejemplo, el comportamiento de la naturaleza, la predicción del clima95, la detección de movimientos sísmicos o de maremotos96. Los paisajes sensoriales atienden al comportamiento humano y anticipan recursos destinados a acomodar o al menos a hacer más eficiente nuestra conducta. De la misma manera que el alcantarillado romano, o el gas y la electricidad de la Revolución Industrial, la red sensorial habilitará una nueva experiencia de la ciudad97. A menudo se califican estos entornos inteligentes como ‘sensorialmente conscientes98’. Existen multitud de clasificaciones que atienden a la variada tipología de sensores y a la magnitud que se desea medir. Algunas se refieren al tipo de señal de entrada: térmica, de movimiento (acelerómetros, brújula, GPS), infrarrojos, caudal de aire, corriente eléctrica, de posición, humedad, de presión y fuerza, de turbidez de un fluido, magnética, lumínica..., etc. Otras, al tipo de señal emitida por el sensor: analógica o digital, es decir continua o discreta; otras, a la naturaleza de la señal eléctrica generada por el sensor: activos o pasivos. 95 Nótese la diferencia que se hace en la cultura anglosajona entre ‘tiempo’ y ‘clima’ (Time vs Weather) y que no existe en los pueblos mediterráneos que usan el ‘tiempo’ para referirse indistintamente al clima y al tiempo horario. Algunos explican esto por la tradición eminentemente marítima del pueblo anglosajón y la necesidad de conocer el pronóstico del tiempo en el mar. 96 El sistema DART (Deep-Ocean Assessment and Reporting Program) dispone con éxito una barrera de sensores en el Pacífico Norte. (El País, 11 de agosto de 2005). 97 Recuérdese el cambio que experimentaron los primeros espacios públicos que contaron con red Wi-Fi gratuita, por ejemplo la Plaza de Santo Domingo, en Madrid. 98 Los antiguos romanos creían que cada lugar tenía un espíritu característico –su genius loci- que se podía manifestar, si se le observaba cuidadosamente, en forma de serpiente. La idea era correcta pero no tenían la tecnología necesaria (Mitchell 1999). 273 Piezoeléctricos Fotovoltaicos Termoeléctricos Generadores de señal Magnetoeléctricos Electrocinéticos Electroquímicos Resistencia variable Analógicos Capacidad variable De parámetro variable Inductancia variable Transformador variable Sensores Fotoeléctricos Geometría variable Mixtos Efecto Hall Bioeléctricos Incrementales Codificadores de posición Absolutos Digitales Autorresonantes Caudalímetros de vórtices digitales Sensores inteligentes Fig.5. Árbol sensorial. Universidad Nacional de Colombia, ‘Medidas e instrumentación’. Asimismo, si estableciéramos esa clasificación en función de las especificaciones técnicas del dispositivo obtendríamos una lista interminable de la que una muestra podría ser (fig.5): sensores de movimiento (acelerómetros, brújula, GPS), infrarrojos, caudal de aire, corriente eléctrica, de posición, humedad, de presión y fuerza, de temperatura, de turbidez de un fluido, magnéticos, de luz y sistemas táctiles,…etc. Atendiendo a la interpretación y proyecto del paisaje sensorial del Entorno Aumentado como receptor y/o emisor informacional de las acciones operadas por el usuario-actor, se puede establecer la siguiente clasificación en base al tipo de acción interactiva que ha de generar el usuario, y más concretamente, el tipo de sentido corporal que emplea el usuario para activar el paisaje sensorial que le rodea. Junto al paisaje visual absolutamente integrado en la realidad 274 contemporánea y al gustativo99, los paisajes táctil, sonoro y olfativo son analizados a continuación en una colección representativa de casos de estudio. Paisaje Táctil Asir, tocar, deslizar, empujar, tirar, agarrar, percutir, pisar,…etc., son acciones vinculadas al sentido táctil integradas en la rutina diaria de cada individuo. El tacto experimentado al tocar el pasamanos de una barandilla de abedul diseñada por Alvar Aalto, las pisadas huecas sobre el linóleo natural, la textura fría de un muro de hormigón,…etc., forman parte del subconsciente colectivo de la historia fenomenológica de la arquitectura. Allá donde el usuario extiende su capacidad sensorial recibe información sobre la materialidad construida. El paisaje sensorial táctil se convierte en interactivo cuando se torna artificialmente sensible: la presión de una pisada que activa el movimiento de las escaleras mecánicas; la mano que toca una luminaria y se enciende; el gesto manual sobre una pantalla táctil,…etc. Fig.6. Strawscraper. Diagrama de la cronología del proyecto, 2013. Estocolmo. Belatchew Arkitekter. En este grupo quedaría enmarcada la arquitectura que incluye dispositivos o materiales piezoeléctricos100 descubiertos en el siglo XIX. Los materiales piezoeléctricos (paisaje sensorial táctil receptor) alimentan airbags, encendedores y otros pequeños dispositivos, si bien hay abiertas múltiples líneas de investigación abiertas en el ámbito de la arquitectura que exploran el intercambio energético que se produce en la piezoelectricidad. La propuesta del estudio sueco Belatchew Arkitekter para rehabilitar un rascacielos con filamentos piezoeléctricos capaces de transformar la oscilación del viento en electricidad (fig.6) ha resultado de gran interés para el ayuntamiento de la ciudad de Estocolmo (Ruth 2012). La arquitectura ‘blanda y peluda’ pronosticada hace un siglo por Salvador Dalí tiene similitudes con esta arquitectura de filamentos. 99 Aunque objeto de interesantes reflexiones, es demasiado peculiar para abordar su análisis en esta tesis. 100 La piezoelectricidad es la propiedad de ciertos cristales cerámicos, naturales o poliméricos que no tienen estructuras simétricas y que consiguen transformar la presión o el movimiento en energía. 275 Este tipo de paisajes proponen a menudo intervenciones que consideran en el pavimento la interacción piezoeléctrica. Un ejemplo de ello es el Sustainable Dance Floor, proyectado en 2008 para el Club WATT de Rotterdam por Daan Roosegaarde cuyo interactivo táctil permite generar electricidad mediante el baile. Los sensores electrónicos asimilan la presión de los pasos de baile sobre el pavimento transformándola en impulsos eléctricos que alimentan a su vez dispositivos lumínicos. El pavimento se construye con módulos de 65x65cm, cada uno de los cuales produce más de 25 watts. Este efecto ha sido también estudiado para tránsitos pesados de vehículos a motor. En definitiva consiste en aprovechar la energía potencial ocasionada por un desplazamiento físico (fig.7). Fig .7. Sustainable Dance Floor, 2008. Esquema de funcionamiento y fotografía de la pista. Fig .8. Onskebronn, 2010. Berlin. La instalación interactiva Onskebronn, proyectada por Phase 7 en una estación de metro de Berlín, propone una pista de baile con tecnología LED que responde en tiempo real a los pasos de los peatones. A diferencia del Club Watt, la propuesta berlinesa ‘aumenta’ un lugar exterior. Entre los proyectos a gran escala que integran esta tecnología cabe destacar la instalación durante dos meses de 2008, en la estación Yaesu del metro de Tokio, de un suelo generador de electricidad (Rull 2013). El suelo contenía miles de piezas de 35mm que generaban electricidad con las pisadas de los peatones. Cada persona de 50 kg produjo 0.1 vatios por segundo en dos pisadas. Gracias a los 800.000 usuarios diarios se obtuvieron 10.000 vatios/segundo, el equivalente a la luz necesaria para encender una bombilla de 100w durante 100 minutos. Esta energía se empleó para abrir puertas y encender pantallas informativas. Fig.6. Pavegen. Funcionamiento de la baldosa. Fuente: < www.pavegen.com> (Consultada el 12 de agosto de 2013). 276 El pabellón Plinthos101, proyectado por el estudio de arquitectura Mab Architecture para el Interior Design Show Atenas de 2010, es un ejemplo de paisaje monosensorial táctil. El visitante entra en un recinto construido en su totalidad por fábrica de ladrillo hueco doble que configura un cerramiento de suelo y paramento vertical permeable a la luz y al sonido. Los sensores táctiles que activan este paisaje se encuentran localizados en los extremos de pequeños mástiles articulados fijados al suelo del interior del pabellón. El visitante toca (paisaje sensorial táctil receptor) estos juncos con la mano y ocasiona una vibración del mástil, que inmediatamente emite un destello lumínico. La frecuencia de este destello queda registrada por una cámara de video. Esta señal es procesada a su vez en un ordenador que devuelve al recinto un paisaje audiovisual compuesto por luces de LEDS en colores RGB y sonidos. Fig.7. Pabellón Plinthos. Planta, esquema sensorial y fotografía del acceso, 2010. Mab Architecture. Por último, cabe incluir el lugar kinético102, en su acepción táctil, en esta colección de casos donde el sensor realmente interpreta la posición presencial del usuario sin que éste toque ningún dispositivo. El usuario se comporta como si estuviera ‘tocando’ el fluido que le rodea, como si estuviera moviéndose dentro de una piscina con agua. Paisaje sonoro ‘The universe is the potential map of auditory space. We are not Arguseyed but we are Argus-eared. We hear instantly anything from any direction and at any distance within very wide limits. Whereas the eyes are bounded, directed, and limited to considerably less than half the visible world at any given moment, the ears are allencompassing, constantly alert to any sound originating in their boundless sphere’ Carpenter & McLuhan (1960: 69). El ser humano condensa la experiencia con la vista, aprende al mirar y con ello a ver. Mientras la visión es síntesis, la audición es holística (Longina 2008). La distinción entre campo visual y mundo visual responde a esta interrelación e implica por tanto una disyuntiva entre lo visto y lo 101 102 Véase El entorno transfigurable. El crepúsculo de la estética estática. Véase El ocaso de la mano mecánica. 277 percibido -interiorizado-. La visión sintetiza, selecciona, y la selección está mediada por la percepción, que a su vez está mediada por la cultura. Al analizar el medio de la imprenta como una nueva tecnología se descubrió el impacto que tuvo en la sociedad la transición de la tradición oral a la mecanización de la escritura, pero afortunadamente hoy103 las nuevas tecnologías aplicadas a los medios de comunicación han vuelto a construir un espacio acústico que, al ser digital, conlleva otra serie de implicaciones socioculturales. Sin embargo, este espacio sonoro se caracteriza por la amputación de las fronteras de tiempo y espacio a la red Internet. Al ser eliminada la síntesis propia de la visión, el sentido que se extiende es el sentido del oído, cuyas características esenciales, tanto físicas como culturales, no han sido tan estudiadas en este nuevo contexto. La capacidad sonora del entorno aumentado es habitualmente considerada en relación con la visual, pero la multiplicación dimensional que la capa digital otorga al lugar aumentado puede suponer una revisión del alcance de esta percepción, por ejemplo, en el paisaje sonoro de la ciudad. La localización acústica se servía del sonido para calcular la distancia y dirección de objetos emisores de sonido. Fue utilizada desde mediados de la I Guerra Mundial hasta principios de la II Guerra Mundial, cuando el radar dejó obsoleta esta técnica, para la detección pasiva de los ruidos procedentes de los motores de aviación. La sustitución del ‘mecanismo’ acústico (figs.8, 9 y 10) por las nuevas propuestas digitales indujo un cambio en la construcción de la cartografía sonora del Entorno Aumentado. Desde entonces, proyectos como Ruido Aleph (fig.12), propuesta de una acumulación sonora generada desde el flujo constante de sonido urbano104, nos muestran una realidad afectada por dominio digital sonoro. Figs.8, 9 y 10. Localizadores sonoros: 1943, US Army; circa, 1921; Checoslovaquia, 1920. El arquitecto danés Daan Roosegaarde tomó como atención para el proyecto de instalación en el Netherlands Media Art Institute de Amsterdam la consideración de un vínculo interactivo entre los visitantes y la galería de arte en forma de dos ‘setos’ de fibras que acompañaban el tránsito 103 Ibíd. 104 ‘Cada segmento sonoro se construye en la fragmentación y superposición de lapsos de un minuto en un periodo de tiempo determinado [así, 1440 minutos es el sonido de 24 horas continuas fragmentado en 1440 segmentos de un minuto que son superpuestos simultáneamente]. La progresión de la masa sonora puede crecer infinitamente, y este acto, en teoría, generaría ruido blanco desde un origen concreto’. Fuente: 278 del visitante a través de un corredor105. Así fue cómo surgió Dune, una instalación que constituye un paisaje receptor bisensorial táctil y sonoro106 donde el movimiento y el sonido emitido por los visitantes conforman este paisaje sensorial. ‘Cuando haces mucho ruido el paisaje se vuelve loco’, comenta Roosegaarde. El proyecto, deudor del paisaje Touching the Wind (Fiber Wave) (fig.13) que Makoto Watanabe proyecta en 1996 para el Museo K de Tokio, tiene una segunda derivada con la instalación de los juncos 107artificiales en la ribera del Río Maas, en el parque De Esch en Rotterdam. Fig.11. Phonurgia Nova, 1673. Trompetillas para escuchar en las salas de un palacio, propuestas por Athanasius Kircher. Fig.12. Ruido Aleph,. Andrés Martínez Ruiz. Fig .13. Touching the Wind (Fiber Wave), Museo K, 1996. Makoto Watanabe. Tokio. La instalación Volume, proyectada en 2006-07 por el estudio UVA para el patio del museo londinense V&A configura una retícula de LEDS de 2.5m de altura de propiedades similares al proyecto de Rosegaarde, si bien el paisaje emite en este caso luz polícroma y música. Las sendas o caminos sonoros forman parte de la casuística propia del paisaje emisor sonoro. Este tipo de Entorno Aumentado cuenta ya con numerosos ejemplos localizados en ciudades de todo el mundo. Tanto la versión interior, por ejemplo, la que conforman las audioguías de un museo, como la exterior sintonizada desde dispositivos electrónicos portátiles -telefonía móvil, ordenadores portátiles…etc.- geo-referencian el sonido gracias a locative media. La figura 14 105 Proyecto disponible en: < http://www.youtube.com/watch?v=vSSG9gJjP2w> (Consultado el 5 de abril de 2012). 106 Cada tallo tiene un micrófono que recoge el sonido de los visitantes. Éste se procesa mediante un programa de software que controla el encendido de la fibra óptica. El sonido constituye el 30% del estímulo de este paisaje, el otro 70% consiste en información proveniente de detectores de presencia alojados en la punta de cada tallo. 107 Hoy son numerosos los ejemplos de arquitectura peluda que aprovechan la condición sensorial del pelo. Como es sabido, la función del pelo en la naturaleza está ligada a la protección solar, la protección bioclimática térmica, la protección impermeable al agua y hasta la hipersensibilización de la epidermis humana. 279 describe tres localizaciones sonoras, tres puntos geográficos diferentes108 donde el usuario del teléfono móvil podrá escuchar con sus auriculares los sonidos dispuestos. Fig.14. Tactical Sound Garden Toolkit, 2006. Mark Shepard. Fuente: AD July/August 2007. `La web semántica tiene un protagonismo esencial; allí se construye y no se representa: del plano figurativo al patrón, de la perspectiva a la inmersión, del objeto al proceso, del contenido al contexto, de la recepción a la negociación, de la observación a la acción y, cómo no, del automatismo cerebral a la mente distribuidora’. (Longina 2008). La web 3.0 o web sensorial constituye una estructura tecnológica que permite la proliferación de proyectos que proponen una dimensión sensorial. Es en este nuevo contexto donde se localizan proyectos como Madrid Sound Scape que ‘aporta ese granito de arena a una causa que únicamente pretende solucionar ese olvido histórico cuya consecuencia ha sido la exclusión de la escucha como ingrediente fundamental de la existencia humana’. Esta cartografía sonora (paisaje emisor sonoro) implica entender que una aproximación al sonido de un lugar es ‘una aproximación a su patrimonio y que percibir, comprender y concebir nuestra identidad sonora es la de nuestros lugares y nuestras gentes’. Este proyecto sonoro forma parte de una tendencia extendida en muchas ciudades. El proyecto Soundcities109 propone una cartografía de todo el planeta, con un banco sonoro de memoria de múltiples localizaciones. 108 Puede apreciarse en las indicaciones de la fig.11 la latitud y la longitud de cada posición. 109 Fuente: <http://www.soundcities.com/> (Consultada el 12 de agosto de 2013). 280 Paisaje olfativo Agrupa los paisajes sensoriales que reaccionan a la interacción humana mediante estímulos olfativos en forma de olores o fragancias. Tal es el caso de uno de los primeros proyectos de Usman Haque (2007: 13), Moody Mushroom Floor (fig.15). Una instalación ‘inteligente’ en la línea del del Colloquy of Mobiles de Gordon Pask, instalada en 1968 en ‘Cybernetic Serendipity’, que desarrolló en la Barlett School of Architecture de Londres en 1996. En palabras del autor110 ‘la intención primera fue crear un dispositivo de comportamiento automodificable que operara a escala arquitectónica, en particular en una habitación. Podría tender a modificar sus outputs en función de los inputs de manera que simularan una rudimentaria ‘inteligencia’. El suelo inteligente está conformado por ocho ‘champiñones’ que acumulan en su interior combinaciones diferentes de experiencias sensoriales basadas en luz, sonido y fragancias. Su objetivo es atraer o repeler la atención del visitante según la combinación emitida. En función de la reacción del visitante –el camino que elija queda registrado por unos sensores de presión ocultos en el suelo- el dispositivo genera una segunda secuencia de sensorial de luz, sonido y fragancia’. Fig.15. Moody Mushroom Floor, Usman Haque (2007). Usman Haque prorroga la exploración de este campo interactivo de los olores en el proyecto Scents of Space. Habitualmente los olores forman parte del proyecto edificatorio con propósitos relacionados con la identificación corporativa o la publicidad. El olor se usa como reclamo en establecimientos comerciales. El proyecto de Haque trabaja con la ubicación espacial del olor, en respuesta a la interacción del usuario, definiendo espacios perfumados. 4.2.4. A propósito del reciclado digital: el proyecto nómada. El lugar digital se opone a las prácticas tradicionales de archivo. Marton (2010: 31) destaca el carácter transfigurable111 de los objetos digitales y su capacidad para ser editados y operados de modo interactivo como la cualidad diferencial de la técnica de archivo de la información digital. El contenido se puede modificar, suprimir o subrayar según va pasando de mano en mano. El alcance transfigurable del objeto depende del interés que tenga su creador en protegerlo de 110 Haque (2007: 13). 111 Véase Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo. 281 manipulaciones imprevistas. Este espíritu editable es recogido por la cultura de código abierto surgida como consecuencia de la actuación de los hacker y las licencias Creative Commons (Himanen 2001). La transfigurabilidad representa una característica inherente a los objetos que pueblan el Entorno Aumentado. La impostura de los creadores de información digital sobre este particular suscita un debate abierto entre los partidarios de la libre accesibilidad al código y los partidarios del código ubicuo, oculto e imperceptible. De una parte el colectivo hacker, de otra, las grandes compañías TIC. La agenda concentrada del arquitecto reserva días, semanas y meses de trabajo preciso, especializado, colaborativo y transdisciplinar. Más tarde que pronto, el proyecto madura y acaba por ceñir su geometría a un lugar digital de extensión cada vez más diversa: punto jotapejé, punto deuvedoblejé, punto doc, punto eco,…etc. Esa cuantiosa colección de información termina perfectamente archivada en carpetas que se guardan en la biblioteca del estudio112. De momento y hasta que la cadena disciplinaria oficial, con todos los agentes intervinientes incluidos técnicos, administración, clientes, constructores,…etc., no abogue definitivamente por el ‘apagón de papel’, reconociendo la identidad válida de estos lugares vectoriales, la información seguirá transformando su naturaleza binaria en pasta celulósica de papel113. El proyecto de arquitectura creado ex novo desde la tecnología digital desvirtúa su naturaleza original cuando abandona el soporte original. La impresión en papel cercena dos de los cuatro grados de libertad que posee su estructura digital, las tres dimensiones espaciales y la temporal. Así, el plano fijo que enmarca el renderizado final del modelo editable anuncia el nacimiento de la imagen-icono estática y el agotamiento del ‘lugar digital’ como sistema posibilista de un conjunto dinámico de soluciones. Imaginemos por un momento que los edificios solo fueran construidos para ser fotografiados y editados en papel. Imaginemos que no pudieran ser habitados, transformados, usados. Que ningún individuo pudiera ubicarse en esa arquitectura; tan sólo una imagen, una poderosa imagen. Este escenario es el que comparten los lugares digitales proyectados por el arquitecto. El papel acaba con el potencial del lugar digital y las virtudes (en el sentido de virtualidades) de su tecnología: dinamismo, interacción, capacidad de edición y transfiguración,...etc. ¿A dónde van a parar todos esos lugares después de que hayan cristalizado en una imagen impresa que se muestra a los ojos del promotor, del jurado o del propio arquitecto? La comprensión de la naturaleza del objeto digital como un sistema abierto e inacabado induce a valorar su integración en procedimientos relacionados con la segregación y clasificación 112 La acelerada producción de la industria tecnológica demanda constantemente nuevos sustantivos. Tecnicismos, neologismos, barbarismos y otras voces a menudo resuelven la nomenclatura tecnológica simulando la realidad. Carpetas, bibliotecas, nubes (Dropbox) cambian su significado original para ordenar el caos digital. 113 Véase la descripción que Richard Sennett (2009) hace de los oficios en El artesano. 282 material que cualquier proceso de reciclado practica sobre el producto consumido. El arquitecto McDonough y el químico Braungart (2006) afirman en Cradle to cradle que el logro del desarrollo sostenible pasa por la conexión del ciclo de vida biológico y el ciclo artificial de los productos. De modo análogo a la filosofía de McDonough y Braungart, el ciclo físico y el ciclo digital podrían llegar a consensuar su capacidad de reciclado, de tal manera que se optimice la información en otros posibles escenarios. Desde estos presupuestos sostenibles cabe pensar en una reutilización de los escenarios digitales en entornos virtuales de su misma condición, devolviéndolos a la realidad artificial a la que pertenecen para que puedan ser recorridos por los Sims o para que configuren el paisaje urbano de la próxima edición de Grand Theft Auto114. El ciclo digital quedaría así cerrado y el proceso de reciclado sería completo y tendría como protagonista, en esta ocasión, el género del videojuego. La vía transdisciplinar está abierta y no presenta contraindicaciones técnicas. La compatibilidad del software de modelado 3D con los motores gráficos empleados en el desarrollo de videojuegos es posible115. En tiempos de crisis para la disciplina arquitectónica, el arquitecto se re-inventa. Un cambio en el soporte de la información ha implicado históricamente alteraciones de los procesos proyectuales creativos y, por extensión, una crisis en la profesión. La vinculación del arquitecto con el campo del diseño y el análisis de videojuegos está comenzando a ser algo cotidiano tanto en el ámbito académico como en el profesional. El estudio de estos lugares virtuales que sirven de interfaz para la acción de jugar es un tema de gran complejidad que no sólo requiere conocimientos técnicos de programación. Hasta hace pocos años era éste un campo exclusivo de programadores informáticos. En la actualidad, diferentes entidades vinculadas al entorno digital experimentan con sinergias entre el campo del diseño industrial, del planeamiento y el videojuego. La industria del videojuego demanda profesionales cualificados en temas específicos como el diseño de texturas, de modelado de escenarios urbanos, el diseño arquitectónico, el diseño de vestuario o el diseño objetual industrial. Estas atribuciones quedan al alcance del arquitecto, cuyas capacidades profesionales pueden brindarle una nueva cuota de mercado. La inclusión teórica y práctica de esta materia en la formación académica permitiría habilitar a muchos profesionales para lograr una integración en este sector empresarial carente de profesionales cualificados en ‘lo arquitectónico’. 114 Serie de videojuegos creada en 1997 por David Jones y continuada por Sam Houser y Dan Houser, Rockstar Games. 115 3D max es a CryEngine 3 lo que Masdar City de Sir Norman Foster a Call of Duty. Crytek, el estudio alemán creador del CryEngine 3, afirma que el nuevo motor gráfico es su ‘mejor trabajo en términos de utilidad y escalabilidad’, por eso, considera como algo positivo el ver cómo se ‘utiliza fuera de la industria de los videojuegos.’ Crytek ha confirmado que más de 250 instituciones académicas han licenciado su motor gráfico CryEngine 3 para usarlo como base en trabajos relacionados con la física, arquitectura, diseño, arte o computación entre otros. 283 El tipo de soporte de información determina la práctica y desarrollo profesional de las disciplinas del entorno arquitectónico. Un cambio en el soporte ha implicado históricamente alteraciones de los procesos proyectuales y por extensión una crisis en la profesión. El uso de la pasta papel facilitó la distribución de la información, a pesar de las dificultades para implementar cambios en el proceso de proyecto. Este material permitió aumentar la densidad de información y profundizar en el detalle de lo edificado. El Renacimiento florentino normalizó su uso en los talleres. La invención de la imprenta sumó la cualidad editable a este material, permitiendo la reproducción de la información, pero no su edición de forma interactiva. Las editoriales se erigían, primero desde el oficio artesanal y después desde la práctica industrial, como los procesadores de textos pioneros que distribuían información de manera nunca vista hasta entonces. La acción de editar depara significados muy diferentes si se aplica a un medio digital o a un texto en papel. Editar un archivo digital alude implícitamente a la cualidad manipulable de la información. Por el contrario, cuando se trata de la edición de un libro no se hace mención a esta característica sino a la accesibilidad a la información por parte de todos los lectores al poder acceder a la distribución del libro. La generalización de los archivos digitales en la década de los noventa, en la práctica de la arquitectura, implicó el acceso de los oficios y subcontratas al lugar digital del proyecto. La interacción interdisciplinar en la fase de proyecto arquitecto técnico, empresa promotora o constructora con sus oficios específicos- propició la implementación en el objeto de capas específicas de información. El objeto arquitectónico aumentó su definición de manera integral, ampliando su escala descriptiva. Si bien los planos en papel también admiten cierto grado de interactividad y manipulación, el modelo digital puso de manifiesto la gran superioridad en cuanto a la capacidad interactiva de la información. En este sentido, la reflexión sobre el carácter abierto de un archivo de de un programa de diseño asistido nos lleva a pensar en la posibilidad de tratar el objeto digital como un hipertexto abierto. El hipercad quedaría constituido por un lugar digital integral que se vincula parcialmente otros archivos de la misma o distinta extensión. Este enfoque de almacenamiento de datos suscita el abandono del lugar digital como referente geométrico y lo convierte en un proyecto red cuya extensión puede ser elegida por el diseñador: el hiperproyecto. De este modo, un punto determinado en la geometría del proyecto podría vincularse con un video, un sonido, una imagen u otra representación o simulación. Esta postura queda recogida en cierta medida en programas del entorno BIM que emplean una base geométrica para solapar información referente a la construcción, confort interior, cálculo de instalaciones, estructuras o presupuesto de ejecución, pero también en formatos vinculados a la ‘nube’, donde programas como Google Drive articulan la posibilidad síncrona de colaboración. La reflexión de Attila Marton (Ibíd., 31) sobre la composición de la textura granular y modular de los archivos digitales, refiriéndose a la estructura binaria de ceros y unos que desde un principio fundamentó de manera sencilla la interaccion con el código, nos introduce en el campo de la encriptación segura del mensaje. Por muy complejo que sea éste, al final se llegará a descifrar el cero o el uno que hay que sustituir para lograr la modificación prevista. La naturaleza binaria del archivo digital, ideada en un principio por Leibniz, puede quedar obsoleta si el desarrollo la informática cuántica se presume cierto. La computación contemporánea basada en bits, precisas combinaciones de unos y ceros y ADN de esta era 284 digital, puede evolucionar hacia otras instancias bien distintas, la de la mecánica cuántica de las partículas subatómicas. ‘En ese territorio infinitesimal, la lógica del sentido común ya no parece funcionar. Un uno puede ser un uno, o puede ser un uno y un cero y todo lo que hay en medio, todo al mismo tiempo. Suena absurdo, especialmente para quienes están familiarizados con el mundo del sí/no de la informática convencional.’ (El País, 9 de abril de 2013). Retomando el hilo argumental del reciclado de información digital, y antes de valorar cuál podría ser su hoja de ruta, es preciso distinguir los posibles escenarios que podemos encontrar en la industria del videojuego. Cabe distinguir tres tipos de videojuegos en relación con las propiedades de los lugares virtuales que contienen. Por un lado, hay videojuegos que no dan opción al usuario de modificar el paisaje digital del juego116. Pensemos por ejemplo en un videojuego de carreras de coches en un entorno urbano. El escenario urbano está ya modelado por el equipo de diseño y listo para conformar el decorado del trazado antes de que el jugador atraviese la línea de meta. Estamos ante un paisaje digital cerrado, como por ejemplo el del Gran Theft Auto. Un segundo tipo de videojuegos proponen un marco escenográfico para que los usuarios integren o generen lugares digitales diseñados por ellos mismos. Las reglas del juego proponen un urbanismo interactivo donde las agrupaciones de lugares construyen auténticas ciudades. Se trata de un paisaje digital abierto, compuesto por una suma de lugares digitales abiertos, como sucede por ejemplo en Minecraft. El tercer tipo permite al usuario optar por la integración de lugares ya diseñados en el entorno propuesto. En este caso, el jugador elige su escenario de un catálogo de arquitecturas digitales cuyo precio suele cuantificarse por el tamaño -número de polígonos del gráfico- del archivo. Este sistema es propio de los mundos virtuales. La enorme diversidad de producto digital dispuesto a ser consumido que encontramos en el mercado proporciona un repertorio pormenorizado de tipos espaciales. Comprar un videojuego es comprar una arquitectura que se va a habitar, a perfeccionar y a recorrer en todo su laberinto espacial, adaptándola a la circunstancia propia de cada usuario, como sucede por ejemplo en Sim City o en Second Life (fig.1 y 2). 116 El carácter abierto o cerrado del paisaje digital del videojuego tiene grandes similitudes con el juguete propiamente dicho. Un juguete ‘cerrado’ no permite su manipulación o customización116. Obviando el proceso de montaje (a menudo lo que más interesa a muchos jugadores), el Scalextric invita al niño a conducir las miniaturas. La capacidad propositiva del juego de inducir procesos creativos en el niño es bastante reducida si la comparamos con juguetes como un muñeco. El muñeco si puede ser transformado y customizado a gusto del niño, se trata de un juguete abierto. 285 Fig.1. Cartel del Primer Concurso de Arquitectura y Diseño en Second Life. Autor: Stephan Doesinger. Fig.2. Second Life. Mapa de Bay City, 2010. El proceso de reciclado del lugar digital en el videojuego tiene su fundamento legal afectado por los derechos de autor de las creaciones. EULA117es una suerte de constitución para los mundos virtuales que específica derechos y obligaciones para los usuarios, un acuerdo a modo de Contrato Social entre los diseñadores del videojuego y los jugadores, donde se recogen, entre otros, los derechos de propiedad del videojuego. Jonas Heide (2006) en su análisis del reparto de las cuotas de poder existente en el mundo virtual de un videojuego asegura que: ‘Mientras el poder sobre acciones definidas por algoritmos es ejercitado por el código del juego, el que define el espíritu del juego y la interaccion entre jugadores está impuesto desde la EULA del videojuego o documentos análogos. Otra de los propósitos de la EULA es fortalecer la separación entre el mundo del juego y el mundo exterior. Blindar el videojuego para desconectarlo en su mayor medida del mundo real agota las posibilidades de trascender las normas virtuales que el usuario acata cuando decide formar parte del mismo. Dejar resquicios a la posible entrada de la ley significa perder el control del mundo virtual.’ Según Taylor (2001) los derechos de propiedad intelectual de las construcciones de los videojuegos son exclusivos de la empresa que lo desarrolla, circunstancia muy diferente a cómo se ordenan los fundamentos de la propiedad intelectual arquitectónica, donde el autor es propietario de los derechos de su creación. La customización masiva propia del siglo XXI y la participación colectiva en la configuración de objetos digitales cuestiona el concepto tradicional de ‘autor’ y contribuye a la construcción de una nueva ecología de las cosas. 117 Acrónimo de End-User License Agreement. 286 4.2.5. El proyecto procedimental: arquitectura opensource y proyecto colaborativo. El compañero de Marshall McLuhan en la Fordham University, John Culkin, afirmaba en 1967: ‘construimos nuestras herramientas y luego ellas nos construyen a nosotros’. Esta aseveración alude al vínculo reversible entre las herramientas digitales contemporáneas y la metodología del proyecto arquitectónico; consecuentemente, también afecta a la crítica arquitectónica. Acontecida la Revolución Digital (Negroponte 1998), el proyectista incorpora a su oficio la retroalimentación o feedback como estrategia metodológica interactiva que permite evolucionar el proyecto de patrón de Christopher Alexander hacía el proyecto procedimental. Fig.1. Colectivos españoles. Arquitectura viva nº 145, Nuevas formas de trabajo: redes y plataformas. Fig.2. Visualización de los artículos sobre ciencias (en verde), matemáticas (en azul) y tecnología (en amarillo) con más actualizaciones en la Wikipedia en inglés. El par inform-ación - inter-acción suscita procesos creativos alejados del diseño objetual unilateral, en favor de estructuras que articulan procesos colaborativos. Si el feedback permite alimentar el proyecto arquitectónico con información procedente de fuentes heterodoxas, el procedimiento lineal fundamentado en el método heurístico de prueba y error -surgido al albur del Paradigma Positivista que identifica el proyecto con una solución única y óptima- se demuestra incapacitado para asumir la naturaleza dinámica de nuestro tiempo. El proyecto arquitectónico de estructuras aumentadas abarca la condición dual impuesta por el Entorno Aumentado, por cuanto reúne estrategias proyectuales que afectan tanto a su condición física como a la digital. Esta circunstancia se produce con independencia de la escala del objeto a proyectar, pues tanto un edificio, como un desarrollo urbano, como un mueble proponen una dimensión compleja en base a estas dos naturalezas. El proyecto habrá de cubrir el desarrollo del sistema híbrido al completo, considerando indistintamente los soportes que intervengan. El diseño de la capa digital y su geo-referencia en el plano físico implica el diseño de la topología digital pero también de su percepción por el ciudadano a través de los dispositivos electrónicos establecidos para tal fin. 287 Ian Bogost (2007:9) define la ‘retórica procedimental118’ como ‘el arte de la persuasión a través de representaciones basadas en reglas e interacciones en vez de emplear la palabra, la escritura, imágenes, o imágenes en movimiento’. En este sentido, el proyecto procedimental se proclama como un método o protocolo que organiza y procesa la información de los entornos aumentados. Su naturaleza o ‘fuente’ abierta119 ya fue avanzada en la década heroica de los sesenta por la computación120, confinada en una estructura matriz que habría de ser nutrida por agentes externos. El proyecto arquitectónico se convierte de este modo en un sistema mediador cuyo arquitecto-proyectista-comunicador define la jerarquía de las atenciones y ejecuta la estructura informacional que habilitará eficazmente la toma de decisiones, como sucede en el caso de la propuesta Dream Hamar del estudio Ecosistema Urbano. Asimismo, sostiene Mario Carpo que ‘el futuro cibernético soñado por el maquinismo del siglo XX no nos ha traído robots, sino (2009: 19) la extensión del uso de Internet como herramienta de información y comunicación colectiva’. Sin la retroalimentación, el proyecto procedimental resultaría vacío. El proceso proyectual no alcanzaría un nivel superior de comunicación y la ‘unión de las cosas’ vaticinada por Bruno Latour (matters of concerns), y encauzada por el ‘Internet de las cosas’, no articularía una realidad híbrida capaz de subvertir la ecología tradicional de las atenciones del proyecto arquitectónico. El proyecto se convierte en un sistema aglutinante de la interacción informacional de las partes implicadas. Ahora bien, esta cualidad dinámica se opone a la naturaleza de muchas administraciones públicas que entienden el edificio como objeto acabado y modelado desde la normativa vigente, y firmado por una única mente pensante. La proliferación de estos sistemas encuentra en el marco profesional actual un escollo importante a salvar. El proyecto del ecobarrio del Quartier de Vauban, en Friburgo, es un ejemplo pionero de proyecto procedimental. El desarrollo del proyecto agrupó a tres colectivos que participaban desde diferentes implicaciones: el Grupo Proyecto Vauban, en representación del ayuntamiento; el Comité Vauban, espacio consultivo de debate y propuesta; y el foro Vauban encargado del trabajo participativo y social. La articulación del procedimiento y la extensión de la metodología de proyecto a la gestión del barrio constituyen un ejemplo paradigmático de proyecto y gestión participada. Junto a Vauban se podrían añadir otros casos de estudio como el proyecto de Dream Hamar o el proyecto Elemental de Alejandro Aravena. En abril de 2007, Studio Wikitecture promovió, en colaboración con Wiki, una iniciativa para proyectar un marco conceptual colectivo capaz de estructurar proyectos arquitectónicos. Wikitecture 2.0: Proyectando la arquitectura de la colaboración del proyecto arquitectónico se constituye como una interfaz para el desarrollo experimental de nuevos procesos de diseño. En el Studio Wikitecture, (Prieto 2010) unos cuantos arquitectos concurren al concurso ‘Isla de la arquitectura’ en Second Life (fig.1), ‘mientras que los arquitectos-avatares de Second Life 118 Del inglés, Procedural Rethoric. Del inglés, Opensource Architecture. 120 Para profundizar en el concepto de arquitectura de código abierto véase: <http://www.ted.com/talks/cameron_sinclair_on_open_source_architecture.html>. (Consultado el 5 de abril de 2013). 119 288 (RLASL121) exploran metodologías de diseño interactivo operando desde el programa Wikibuild.’ La influencia de Internet en la Academia ha revolucionado los formatos tradicionales y ha abierto nuevas posibilidades y formatos pedagógicos. La consideración de nuevos formatos de interacción entre usuarios, alumnos y pedagogos ha supuesto la emergencia de nuevas pedagogías constructivas donde el colectivo aprende simultáneamente. Las plataformas de teleenseñanza digital han proliferado exponencialmente compitiendo con la presencialidad de la enseñanza tradicional. Entre todas las propuestas, una destaca por su éxito: el MOOC o massive on line course, cuya pedagogía es en origen libre y abierto a los usuarios que quieran participar, aunque algunas variantes como el xMOOC infieren cierto grado de control en la interacción. 4.3. El hábitat del Entorno Aumentado. ‘Therefore, this essay will discuss how the general dynamic between spatial form and information which has been with us for a long time and which I outlined above functions differently in computer culture of today. Since the kinds of environments I offered, as examples above do not have a recognizable name yet, I will give me a new name - an augmented space (…): augmented space is the physical space overlaid with dynamically changing information. This information is likely to be in multimedia form and it is often localized for each user.’ Lev Manovich, The Poetics of Augmented Space: Learning From Prada. 4.3.1. La vivienda aumentada. Ciudadanización de la domus. Autores como Amann (2011), El espacio doméstico: la mujer y la casa, Colomina (2006), La domesticidad en guerra, Herreros (1994), Mutaciones en la arquitectura contemporánea: el espacio doméstico, o Heynen (2005), Modernity and Domesticity: Tensions and Contradictions, revisan en sus ensayos la trascendencia de los modos de vida que configuran el espacio doméstico contemporáneo. A lo largo de casi dos siglos, los límites antropológicos dibujados en el mapa doméstico o domesticidad (en boca de otros autores) responden a parámetros diversos. En el proceso de formación del Entorno Aumentado, dicotomías como privado-público, producción-consumo, individual-colectivo, ocio-trabajo, urbano-rural, femenino-masculino, 121 Los RLASL tienen una cuenta de Wikitecture en Flicker con fotos y comentarios sobre el proceso de diseño; el proyecto más votado por todos los colaboradores sería el seleccionado para ser construido en la isla. 289 artesanal-tecnológico o comunicación-aislamiento son continuamente cuestionadas, subvertidas sus demarcaciones y en muchos casos, resultan obsoletas. La vivienda se ha transformado en un espacio nuevo de hibridación asociativa de estos conceptos. Desde distintos enfoques, éstos y otros autores complementan la reflexión escrita por los especialistas en el Entorno Aumentado. Teóricos como Echeverría (1999), Los señores del aire: Telépolis y el tercer entorno; Manovich (2005), The poetic of the augmented space; Mitchell (2005), Placing words. Symbols, Space and the City; o Matsuda (2010), Domesti-city. The dislocated home in augmented space, coinciden en señalar la incidencia de la tecnología digital como plataforma vehicular del cambio operado en el mapa de la domesticidad contemporánea. Esta emergencia del dominio digital en la vivienda infiere al programa doméstico y a los modos de habitar síntomas de deslocalización. La migración de contenidos tradicionalmente domésticos hacia localizaciones urbanas, y viceversa, están propiciando la reconsideración de la vivienda contemporánea y el desarrollo de un nuevo modelo habitacional122. Históricamente la vivienda ha supuesto un referente y un símbolo de identidad cultural. Los modelos habitacionales han aflorado en circunstancias antropológicas diversas relacionadas, por ejemplo, con los modos de vida del usuario. Simultáneamente, la arquitectura doméstica ha ofrecido refugio y protección, salvaguardando la habitabilidad frente al enclave entendido en términos de seguridad, clima, suministro de víveres, comunicaciones,…etc. De la misma manera, el hábitat ha sido transformado por el desarrollo de la técnica y el uso de nuevas fuentes de energía. La evolución de las ciencias en el siglo XX, el desarrollo de las tecnologías de la información y la comunicación y la extensión del dominio digital han inducido el cambio de modelo operado por la deslocalización espacio-temporal del programa doméstico. La metodología empleada para esclarecer esta hipótesis señala una doble vía de investigación: Desde la antropología y sociología. Rastreo y análisis de los modos de vida en el ámbito doméstico y posterior contraste con el perfil contemporáneo del usuario de la vivienda aumentada. Desde el imperativo del Paradigma Digital en lo arquitectónico. Historia crítica de las manifestaciones de la interferencia mediática e informacional en el ámbito doméstico. El análisis comparado de estas dos indagaciones ha de poner en relieve la circunstancia cambiante a la que se refiere la hipótesis. Por otro lado, el estado del arte de la vanguardia de la vivienda aumentada se afronta desde una metodología que presupone un doble formato operativo: 122 Análisis crítico de la literatura existente. Método de casos. Análisis descriptivo, heurístico e inductivo de casos elegidos por su interés particular para la investigación, destacando por su relevancia los proyectos de Se invita al lector a localizar la ‘nube’ (cloud computing) entre los conceptos dicotómicos anteriores. 290 Ion Cuervas-Mons, en colaboración con Think Big Factory, Usman Haque y Keiichi Matsuda. 4.3.1.1. Perfil antropológico de la vivienda aumentada. Del morador al electronómada (-11.000, +1998). El proceso de abandono del nomadismo en favor del sedentarismo comenzó en el Neolítico, periodo donde tuvo lugar la Revolución Agrícola hace aproximadamente 10.000 años de manera generalizada en todos los continentes, y se consolidó definitivamente con la fundación de las primeras ciudades (Jericó 11.000 a.c.). La ciudad es el máximo culmen y cristalización del proceso de sedentarización. Desde ese momento, el ser humano convive en una vivienda permanente sujeta a pocos cambios. Siglos después, la revolucionaria emergencia del paradigma renacentista que situaba al ser humano como centralidad fue reemplazada por otros paradigmas entre los que cabe destacar uno: la existencia individual del ser humano. La revista Time eligió en 2006 al internauta como ‘persona del año’, en reconocimiento a los millones de personas que anónimamente contribuyen como usuarios generadores de contenido en multitud de sitios web que habilitan esta opción (wikis, YouTube, MySpace, Linux,…etc.). La portada fue dedicada al usuario anónimo, ‘You’, el homenaje (fig.3) en primera plana decía así: ‘Si, tú. Tú controlas la Edad de la Información. Bienvenido a tu mundo.’ ‘Yes, you. You control the Information Age. Welcome to your world.’ Se da por válida, hoy más que nunca, la dualidad orteguiana acerca de la condición integral existencial del individuo en la estructura: yo + circunstancia. La tradición ortodoxa positivista ha propiciado la consecución de un yo íntegro sobre el que ha de proyectarse la circunstancia, de manera que ésta sea racionalmente consecuente del primero. Asimismo, hay muchas evidencias de que el flujo informacional del yo hacia la circunstancia ha sido invertido en la contemporaneidad. La circunstancia individual del ser humano ha visto multiplicada su razón de ser y alcance de manera cualitativa y cuantitativa, y ha evolucionado de un sistema estructural radial a una estructura fragmentada en red. Este hecho resulta intrínseco y diferencial al devenir de la condición humana en el siglo XIX, y aparece como consustancial a la Revolución Digital. La exaltación de la circunstancia nos viene dada, de una manera taxativa y apenas discutible, por la deriva tecnológica de la sociedad. El usuario contemporáneo genera, captura, analiza, visualiza y almacena una cantidad desmesurada de contenidos digitales relacionados con su circunstancia. De acuerdo con un 291 estudio123 de 2008, ‘aproximadamente el 70% del universo digital es creado por individuos’. Sostiene Manovich (2009) que la cantidad de los contenidos generados por los propios usuarios –no profesionales- está a la par de la cantidad de datos almacenada y creada por las computadoras (sistemas de seguridad, aplicaciones basadas en sensores, centros de datos para cloud computing, etc.). Se puede afirmar sin temor a equivocarse que la circunstancia del yo contemporáneo es una circunstancia mediática y a menudo programable (fig.1). Fig 1. A Map for the Programmable World, 2009. Institute for the Future. Fuente: <http://www.iftf.org/>. (Consultada el 10 de agosto de 2013). Si echamos la vista atrás, el trabajo de los historiadores abarcaba una cantidad pequeña de datos -biblioteca renacentista, videoteca de cine, museos, galerías de arte…etc.- en comparación con las cantidades enormes de datos que provee la Red y sus billones de usuarios. De igual modo, en el siglo pasado las fuentes de información procedían en su mayor parte de un pequeño número de lugares. La excesiva e inabarcable cantidad de información digital a disposición del usuario ha producido cambios en el modo de rastrear, clasificar y almacenar datos. Para habilitar una selección eficaz de la información, la mirada del usuario ha pasado de ser lineal y deductiva a 123 IDC (International Data Corporation). The Diverse and Exploding Information Universe. 2008. Disponible en: < http://www.emc.com/>. (Consultada el 18 de septiembre de 2012). 292 ser transversal e inductiva, y a participar de una sistemática de análisis escalar de la información. Expuesta esta naturaleza dual del individuo, cabe proyectarla a su ámbito doméstico en unos términos antropológicos que son objeto de reflexión y consideración en la construcción del Entorno del Aumentado. Por un lado, del análisis antropológico resultará una aproximación introvertida que explora la vivienda como refugio del yo. Por otro, tomará forma la consideración de la vivienda como una estructura que organiza la circunstancia mediática, una interfaz soporte del entorno aumentado individual. La vivienda media entendida como interfaz del morador está afectada por el cambio tecnológico, poco a poco renueva el estándar que fijan los componentes tecnológicos, casi siempre ‘de golpe’ y sin mediar arquitecto alguno. Las modificaciones fortalecen la configuración nodal de su estructural informacional, capacitándola para ser compartida en red por los distintos usuarios. El camino emprendido hace pocas décadas hacia un estadio de completa integración digital y presencial (vivienda aumentada) que responda de manera eficaz a la carácter dual de la circunstancia mediática individual, comienza a dejar sentir sus frutos. Por un lado, el usuario incorpora la tecnología TIC que provee el mercado, por otro, las iniciativas concretas surgidas en el seno académico y profesional del I+D cristalizan en forma de prototipos cuya intención es tender puentes entre las dos realidades con una clara intención de integración y fusión. Cuando la incorporación de las TIC se produce por iniciativa individual del usuario, lo hace en una vivienda organizada en torno a unas condiciones sociales, antropológicas y de adaptación bioclimática locales, mientras que en el caso de la vivienda aumentada producto de la investigación organizada, se suele obviar este empaque fundamental. Además, la inercia de la ortodoxia arquitectónica académica ha preferido tradicionalmente la materialidad tectónica de lo permanente124 en detrimento de las atenciones que tienen que ver con la arquitectura intangible. 124 Incluso, la identificación de la verdad con la materia de Adolf Loos o el Form (ever) follows function de Louis Sullivan. 293 Fig.2. Liu Bolin camuflado en una tienda china de telefonía móvil, 2005. Fig.3. Time, diciembre-enero 2007. Muy al contrario, la heterodoxia promotora del cambio hacia la asimilación del entorno fluido y bipolar, la desmaterialización de una estética tectónica de la construcción en favor de las instalaciones (Banham & Dallegret 1965), la consideración de estrategias flexibles y adaptables en cualquier fase del proceso arquitectónico, así como la asimilación de la convergencia de un entorno digital inmaterial que busca cómo aumentar la extensión tradicional de lo arquitectónico supone una alternativa a lo convencional. Bauman (2003) propone el cambio, lo transitorio, como inmanente a la modernidad líquida: ‘los sólidos conservan su forma y persisten en el tiempo: duran, mientras que los líquidos son informes y se transforman constantemente: fluyen. Como la desregulación, la flexibilización o la liberalización de los mercados’. Para Herreros (2005) el cambio se erige, junto con la energía y la información, como uno de los tres ingredientes intangibles de la Naturaleza Artificial. El cambio fundamentado en la mutabilidad tecnológica es una característica congénita del Entorno Aumentado. Con esta atención que predispone el proyecto hacia la arquitectura líquida, la instalación Remote (fig.4), de Haque, Donaldson, Hasegawa & Tremmel (2008), se convierte en un ejemplo que perturba la relación entre el lugar, el tiempo y el morador-usuario. Proyectado en el ámbito de la investigación académica y de la transversalidad disciplinar, Remote supera la barrera física de la cuarta pared. El proyecto conecta dos lugares, uno en Boston y otro en el mundo virtual de Internet Second Life125, de manera que lo que sucede en uno se manifiesta en el otro y viceversa. Todo sucede en sendas habitaciones provistas de una silla, una lámpara y una máquina de humo, en su versión digital o física126. 125 Second Life es un mundo virtual que nació en junio de 2003 en el que el usuario, no necesariamente de perfil lúdico, queda representado por su alter ego virtual. Los avatares participan de un entorno digital con múltiples posibilidades, en muchas ocasiones superando la realidad física. 126 Más información disponible en: <http://www.haque.co.uk/remote.php.>. (Consultada el 10 de octubre de 2012). 294 Fig.4. Remote, 2007. Localización geográfica del proyecto en Google Maps e imágenes de los dos lugares. Usman Haque, Neill Donaldson, Ai Hasegawa y Georg Tremmel. El grado de humedad, el nivel de luz, los cambios de temperatura o el número de personas que se sientan en la silla de la habitación de Boston constituyen parámetros que ocasionan cambios en la habitación de Second Life: aumenta la niebla, se oscurece, la lámpara cambia de color de azul a rojo o aumenta el tamaño de la silla. De manera recíproca suceden los efectos provocados por las acciones de los avatares en la habitación de Boston. La conexión se produce en tiempo real. En Remote la visualización de las dos realidades no se da de manera simultánea, pero si es simultáneo el tiempo y los efectos que producen las interacciones sucedidas en los dos entornos. ¿A quién está destinada la vivienda híbrida que propone el Entorno Aumentado? Con esta pregunta retórica se podría dar comienzo sino al olvido de la modernidad y su familia-tipo127, sí al cambio paradigmático del arquetipo. En Programa y Modos de vida (Amann & Roig 2009) se retrata en este sentido la transformación suscitada en torno al usuario de la vivienda contemporánea y la asincronía existente entre el ámbito doméstico estándar de principios del siglo XXI y la condición antropológica del individuo contemporáneo. La referencia central para la casa actual no es ya la familia –sean cuales sean sus características– sino el individuo. Frente a la condición grupal, la individualidad orquestada desde el operativo digital incide en las propuestas arquitectónicas introduciendo la diversidad frente a la homogeneidad, la flexibilidad, el sentido de la ocupación y la posibilidad de identificación frente a las abstracciones impuestas. 127 Según el Censo de 2001 (INE), existen 14.187.169 hogares en España, un 19% más que en el año 1991, habiéndose producido transformaciones importantes en la estructura y el tamaño de los mismos. El cambio más notable es el aumento de hogares unipersonales (de 1,6 a 2,9 millones) en detrimento de los hogares más numerosos, de los cuales, los habitados por mayores de 65 y, más aun en términos relativos, de 85 años presenta una clara tendencia a seguir creciendo. Los hogares formados por una familia y alguna persona no emparentada se han multiplicado casi por cinco. Los jóvenes se emancipan a edades más tardías: de los casi 7 millones de personas entre 25 y 34 años, 1.8 millones siguen viviendo con alguno de sus padres a pesar de que ya están incorporados al mercado de trabajo. Por otra parte, el aumento de las rupturas matrimoniales ha provocado que más de 167.000 de los hogares unipersonales sean hombres separados o divorciados. Respecto al tipo de relación que alojan las propuestas, todas ellas permiten y favorecen relaciones de convivencia en intimidad tipo familiar, veintinueve de ellas dan cabida a relaciones de tipo amistoso y veintidós de ellas posibilitan ser ocupadas por personas con un vínculo laboral o de otro índole . A pesar de todo, el referente estable de nuestras viviendas sigue siendo una familia con dos hijos y tanto las denominaciones de las normativas, como los símbolos gráficos siguen todavía tomando a ésta como referente. 295 Parece evidente que la sociedad actual, al menos en su versión desarrollada, es protagonista de un cambio histórico en cuanto a las formas tanto de socialización como de individualización. Este proceso se corresponde con ‘una nueva forma de organización de los comportamientos, que se caracteriza por el mínimo de coacciones y el máximo de elecciones posibles’128. Los avances tecnológicos inducen modificaciones en las pautas de comportamiento ya en las etapas en la formación. El sistema educativo moderno tomó forma en Europa durante las guerras religiosas de los siglos XVI y XVII. Su extensión en todo el mundo fue promovida por la formación de los Estados-Nación (siglos XVIII y XIX). Su consolidación final se basó en una serie de definiciones que se convirtieron en los pilares de la educación ‘tradicional’, como parte de una ecología sistémica de transmisión institucionalizada de la cultura129. La Revolución Digital ha transformado las metodologías de enseñanza a partir del cambio del soporte de información. Esta circunstancia suscitada en el ámbito académico es reflejo de lo que sucede fuera de las aulas (fig.5.). Paradójicamente, la característica diferencial de nuestros días no es realmente la diversidad – que siempre ha existido– sino la homologación. En un panorama de información y comunicación global, en un mercado de intercambios y de copias de sistemas políticos y financieros, de proliferación de imágenes simultáneas, bebemos 1.000.000 de botellas/hora de Coca Cola, y cientos de franquicias se propagan por los países para vestirnos y reformar las casas según los mismos modelos130. Fig.5. Porcentaje de estudiantes según sus respuestas a la pregunta ‘¿Quién te enseñó a manejar Internet? Fuente: Encuesta La 128 Ibíd. 129 Véase ‘Viajes al futuro de la educación’ en: <http://cippec.org/viajesalfuturodelaeducacion/>. (Consultada el 20 de agosto de 2013). 130 Vicente Verdú en Amann (2011). 296 Generación Interactiva en Iberoamérica. Fundación Telefónica (2008). Frente a la incierta objetividad del discurso tipológico, basado en la estabilidad de las formas asociadas al habitar y en el afán quirúrgico de evitar la insalubridad propiciada por la primera Revolución Industrial, se promueve un sistema de narraciones de identificación del sujeto y su subjetividad (yo + circunstancia). Se universalizan los modos de vida -los occidentales aprendemos a comer con palillos y los orientales a comer sentados- a la vez que se produce un máximo de singularización entre las personas. Frente a la casa como una máquina de habitar, aparece la casa donde habitan las máquinas, donde habita el hombre en comunión con la máquina. El individuo del siglo XXI es un modelo mestizo, con muchas identidades y pertenencias múltiples, que elige determinadas estrategias de vida según sus valores y creencias, que van cambiando a lo largo de su existencia. Esta característica de individuo flexible le capacita para adaptarse sin problemas a las circunstancias vigentes en cada momento. No se vive sólo una vez, y menos ahora con el aumento de la esperanza de vida131. Como demuestran las estadísticas, el amor para toda la vida da para tres experiencias, se crece con la ilusión de ser ‘alguien’, pero mejor si puedes ser tres o cuatro en una continua metamorfosis vital. En este sentido, la arquitectura debe albergar a todos los ‘yoes’, tanto lineales como superpuestos, incluso al yo virtual que cambia de identidad y adopta versiones falsas en su relación con los demás a través de Internet. De la producción de bienes se pasa a la producción de realidad. Del consumo de objetos al consumo de ficción. El presente discontinuo se instala en el espacio y en el tiempo y borra los límites de las dualidades establecidas: trabajo-ocio, público-privado, exterior-interior. En torno al puesto de trabajo132 se construyen las microciudades y, simultáneamente, el hogar y su brazo vehiculizado, se llenan de actividades laborales al introducir el fax, el móvil y el ordenador. Amann (2011) y Matsuda (2010) sostienen que la vivienda no es ya una unidad espacial, sino mental. Esta propiedad no-física de la vivienda contemporánea explica la migración parcial del programa doméstico hacia ámbitos ajenos a la vivienda -y viceversa-. 131 Las niñas españolas nacidas en 2007 vivirán 84.06 años, mientras los niños lo harán 77,67 años. Fuente: INE (2009), <http://www.ine.es/revistas/cifraine/0509.pdf>. (Consultada el 10 de abril de 2012). 132 El Observatorio de la Responsabilidad Social de las Empresas (ORSE) publicó a finales de 2011 un estatuto que incita a las empresas a manejar de mejor manera su correo electrónico, que puede transformarse, según el ORSE, ‘en una herramienta devastadora’. Conscientes del problema, empresas como Canon Francia incitan a sus 1.800 empleados a no utilizar su buzón de correo una vez cada tres meses, para así privilegiar los intercambios cara a cara. Según ORSE, el 56% de los usuarios pasa más de dos horas al día administrando su buzón de correo y el 38% recibe más de 100 mensajes al día. El 65% declara revisar su correo electrónico cada hora, pero en realidad lo hacen mucho más a menudo, a veces cada cinco minutos. Fuente: ‘La ‘infobesidad’, una nueva epidemia del mundo laboral’, <http://vidayestilo.terra.es/salud/vida-sana>. (Consultada el 9 de septiembre de 2013). 297 Fig.6. Convocatoria de la conferencia de Steve K. Roberts en el Mariani Courtyard del Apple Amateur Radio Club. En la medida en que las interacciones mediatizadas por la tecnología forman parte de nuestra vida, los lugares programados con anterioridad a la Revolución Digital han de ser ocupados de nuevas maneras. El exoesqueleto de la arquitectura doméstica tradicional ha de procurar la producción y el trabajo individual. Las conexiones inalámbricas en red y los dispositivos portátiles han producido nuevos patrones de ocupación del espacio público y privado. Las versiones múltiples del nómada postmoderno han sido estudiadas por Virilio (1986, 1997) y Deleuze & Guattari (1987) como un proceso o condición post-industrial. Los términos technomadismo (Roberts133) y electronomádicos (Mitchell 2004) surgen con emergencia en alusión a la nueva ocupación de la ciudad, un nuevo tipo de ocupación ‘blanda’ (Matsuda 2010: 32), ‘en la que la decisión de definir el programa retorna parcialmente al usuario’. Esta aseveración contradice la teoría de tipos y tipologías arquitectónicas y urbanas, donde prevalece el uso inherente y definitorio del edificio. La domesticidad portátil, frente a la sedentaria computadora de sobremesa, customiza los lugares más insospechados, pasando por los habituales aeropuertos, metros, parques públicos o establecimientos hosteleros y otros no- 133 Steve K. Roberts es el primer technómada (también acuñó el térnimo). Su Nomadic Research Labs está disponible en <http://microship.com> (visitado el 01 de julio de 2013). 298 lugares o lugares in-between. Sobre la habilidad de construir nuevos límites que confinan el espacio público-privado, Mitchell (2004: 158) escribe: ‘Once, the natural condition of cities was opacity; architects created limited transparency by means of door and window openings, enfilades, open rooms, and public spaces. Today, the default condition is electronic transparency, and you have to work hard to produce limited zones of privacy.’ Las prestaciones tecnológicas ubicuas del espacio público contemporáneo (también en Internet) facilitan el technomadismo pero ejercen a la vez un control vigilante sobre la privacidad individual (Gran Hermano). Habitualmente este registro digital de la libertad individual infringe la ley134 (fig.7). Casos de espionaje masivo como el destapado por el exempleado de la Agencia de Seguridad Nacional estadounidense (NSA) Edward Snowden135 o el caso Wikileaks136 de filtración de información clasificada reflejan respectivamente los peligros de la condición ubicua de las TIC y la seguridad de la red. Fig .7. Cartel de la convocatoria. Fig.8. Portada de Time, junio 2012. Edward Snowden. Fig.9. Portada de Time, diciembre 2010. Julian Assange, fundador y director de Wikileaks. En referencia a la polivalencia programática del lugar público, Matsuda (2010: 34) compara la arquitectura con la computación en ‘la nube’ (Cloud computing), en la que un número de servidores (probablemente en la otra cara del planeta) dan servicio a múltiples usuarios que desempeñan tareas diferentes. Recuerda a su vez el concepto de arquitectura hardware-software 134 Para un escenario extreme de vida bajo vigilancia, véase el documental We Live in Public de Ondi Timoner’s, 2009. 135 (El País, 1 de julio de 2013). 136 (El País, 29 de mayo de 2011). 299 desarrollado por Archigram y Superstudio en la década de los sesenta. La cloud arquitectura celebrada por Mitchell (2004: 162) debe admitir ‘patrones de uso impredecibles y espontáneos’: ‘Architecture of the twenty-first century can (…) be far less about responding to such rigid programs and much more about creating flexible, diverse, humane habitats for electronically supported nomadic occupation.’ La portabilidad tecnológica ha transformado el concepto de tiempo muerto, incorporando a la agenda individual nuevos microespacios de tiempo que ocupan los espacios ‘de espera’ de la era pre-digital137. La vigencia de esta escala micro determina la estructura y la extensión de formatos de información alternativos surgidos para su consumo en tales circunstancias. El longplay ha dado paso a la información fragmentada, idónea para estas situaciones de ocupación nómada. 4.3.1.2. Interferencia mediática en el ámbito doméstico. Cartografía multimedia de la vivienda. La penetración del Entorno Aumentado en el ámbito doméstico acentúa los aspectos relacionados con las tecnologías de la información y la comunicación, habilitando una nueva dimensión estructural vinculada a la comunicación. La necesaria revisión histórica del concepto de vivienda desde este punto de vista precisa replantear la cartografía doméstica de la vivienda como mediateca. Los medios de comunicación, desde los lenguajes y canales pretéritos hasta los contemporáneos, han irrumpido en la organización doméstica alterando los modos de habitar establecidos. La transferencia tecnológica, casi siempre procedente y originada en otros ámbitos no domésticos, se ha producido a menudo desde la disrupción. Los dispositivos TIC han interrumpido rutinas milenarias y toda una simbología del hogar. La condición efímera o temporal de los productos tecnológicos ha obligado a los moradores a adaptarse al ritmo que marca el mercado –porque es el mercado el que crea la demanda, y no viceversa-, resultando la tecnología un conjunto de instrumentos y utensilios que llevan aparejada la necesidad evolutiva de actualización y renovación. El espacio doméstico estándar se ve urgido de articular la necesaria incorporación discontinua de dispositivos electrónicos relacionados con las TIC. 137 Según la encuesta ‘Google. Ámbito España. Datos 2013’ incluida en el informe Sociedad de la Información en España 2013 realizado por la Fundación Telefónica, el 68 % de los usuarios de smartphone aducen como primer motivo de acceso a Internet: ‘Me entretiene cuando estoy esperando (por ejemplo, tren, autobús,…etc.). Fuente: <http://www.fundacion.telefonica.com/es/arte_cultura/publicaciones/sie/sie2013.htm>. (Consultada el 16 de enero de 2014). 300 La vivienda mediática o mediateca doméstica se suma a la tradición de las construcciones híbridas, cuya función mixta yuxtapone el canal y/o medio de comunicación a la arquitectura doméstica. Esta estructura ha sido construida, por un lado, por múltiples prototipos artesanales autoconstruidos, pero también por tecnologías avanzadas homologadas. La medioteca doméstica replica asociaciones simbióticas existentes en diferentes ámbitos urbanos. Así, la disciplina publicitaria, celebrada en la postmodernidad por Dennise Scott Brown y Robert Venturi, ha protagonizado numerosos casos de estudio. La consigna ‘el medio es el mensaje’ de McLuhan encuentra un fiel reflejo en este tipo de arquitectura transmisora, como en el caso de la Billboard House, que como si se tratara de un hombre-anuncio, integra en la vivienda la publicidad exterior de una valla publicitaria (fig.1). La firma de diseño multidisciplinar tailandesa Apostrophy’s concurrió al concurso convocado en 2011 para la Baab Lae Saun Fair con este proyecto integrador que combinaba tres vallas en una fachada cinética que proponía diferentes patrones en ambas caras de la vivienda, y además se constituía en vehículoanuncio138. Otras arquitecturas han supuesto un atributo ‘parlante139’ de lo construido, enviando un mensaje claro de la función que cumplen. La cualidad meta-mediática la encontramos también en construcciones vinculadas al campo de la señalética. Fig.1.Billboard House, Apostrophy’s. Fuente: Pasajes de Arquitectura nº 122: 18. No todas las consecuencias del actual allanamiento digital de la vivienda obedecen a una misma naturaleza. La diversidad de efectos responde fundamentalmente a la multiplicidad de formatos donde se vierte la información. En referencia a la visualización del mensaje, cada tamaño específico de pantalla lleva asociado un uso concreto. Con suerte, la popular regla140 para 138 El proyecto surge como respuesta al problema financiero que suponen las altas tasas de arrendamiento que ha de pagar la clase media en Bangkok. Con este sistema híbrido el plazo de pago se reduce de 20-30 años a 2 años. El propietario-residente recibe el ingreso extra generado por el alquiler del espacio publicitario y adapta la vivienda a sus necesidades. Fuente: Pasajes de Arquitectura nº 122: 18. 139 Boullée promovió la idea de añadir a la arquitectura una dimensión expresiva de su propósito, una doctrina que sus detractores etiquetaron como Architecture Parlante, elemento fundamental en la formación arquitectónica Beaux-Arts en el final del siglo XIX. 140 Consiste en multiplicar por diez el número de pulgadas que mide la diagonal de la pantalla y expresarlo en centímetros. Así, una pantalla de veintiocho pulgadas demanda una distancia de 280 301 calcular el tamaño apropiado de la televisión, en relación al lugar donde se va a ver, ha dimensionado y organizado el amueblamiento de los espacios comunes domésticos, pero hubo un tiempo, a lo largo de muchos años, que no fue así. La incorporación de los primeros aparatos de televisión en las viviendas norteamericanas de los cincuenta, o de las españolas de los sesenta, se efectuó replicando las dinámicas de organización del espacio propias de la inclusión de tecnologías anteriores como la radio. Generalmente el televisor se disponía en un rincón eminentemente social que permitiera a todos los miembros del grupo familiar la visión del aparato. Si la superficie de la vivienda lo permitía, se prefería no integrarlo en el ‘salón’ donde se recibían visitas a base de café en porcelana y pastas. El salón es el lugar donde se exponía la información familiar, el lugar representativo del status del grupo. Retratos y pinturas de los seres queridos se mezclaban con logros individuales o colectivos. Souveniers de sitios lejanos y ‘detalles’ de latón o metacrilato poblaban las boisseries lacadas, los murales de castaño y las mesitas bajas de apoyo141. El fin último de estas estancias consistía en servir de telón de fondo a una conversación mantenida muy de vez en cuando entre algún miembro o miembros de los moradores de esa vivienda y visitantes ocasionales. Fig.2. La Domesticidad en guerra, Beatriz Colomina. 2006. Fotografía de la portada. Fig.3. Remember Pearl Harbour, 1941. Anuncio de la radio GE. Fig.4. 1950s vintage advertisement for Television Sets Women Fashion Photo. El hogar que nunca se encendía, recuerdo de la fuente energética pretérita, ocupaba una posición destacada en el salón (fig.2). Frente al paradigma energético del fuego (Fernández-Galiano 1996), elemento estructurador de la vivienda compacta desarrollada en torno a estrategias de eficiencia energética, el paradigma informacional de las TIC propone un hogar diametralmente diferente: el hogar digital. El grupo doméstico reunido en torno al fuego pasará a hacerlo en torno a la radio (fig.3) y a la televisión, para posteriormente disgregarse con la llegada de los dispositivos portátiles. El hogar mediático no se ubicaba en el salón, lo hacía en la ‘salita’ o centímetros. Esto no se refiere a la calidad de la pantalla o a su resolución, únicamente al ángulo focal del televidente. 141 No en el sentido profesional empleado en hostelería sino en el sentido literal que le daba el usuario cuando, después de retirar los adornos, transformaba la mesa baja en un puf donde apoyar cómodamente los pies. 302 ‘cuarto de estar’. Allí se instalaban los muebles verdaderamente cómodos y la televisión se mostraba en todo su esplendor, habitualmente encima de un mueble que la situaba a la altura de los ojos de los televidentes. Ahora bien, la familia cuya vivienda carecía de esta estancia, o bien la que gozaba de una superabundancia tecnológica, instalaba la ‘caja tonta’ en la estantería de un mueble (figs.5, 6 y 7), a poder ser con puertas y cerradura para censurar su uso, de modo que la carcasa de plástico resultara oculta. En el caso de una vivienda ‘unifamiliar’ del New Deal estadounidense, la televisión se ubicaba directamente en el sótano, con unas condiciones de confort no demasiado reconfortantes, pero con un factor lumínico similar al de las salas de cine. El papel doméstico de la tecnología y su lugar en la jerarquía de la colección de objetos que poblaba la casa enseguida se vieron alterados, adaptándose a unos tiempos que poco a poco veían emerger la Sociedad de la Información. El aparato de televisión pasó de estar oculto o camuflado en un segundo salón a constituir el orgullo de una casa vacía que mostraba y medía su poder en pulgadas. La tridimensionalidad, el equipo de sonido, la computerización, la disposición en red de los dispositivos mediáticos y otros avances de las TIC, ponen en valor muchos hogares actuales: más poder adquisitivo, más tecnología142. En España, la familia se reunía frecuentemente en torno a la televisión después de las cenas de los días laborables, en un ritual menos anárquico que el de los días festivos. La arquitectura interior pre-digital a menudo dificultaba la visión óptima de la pantalla. Molestos reflejos de ventanas próximas, sillones mal orientados que podían llegar a ocasionar graves lesiones en la anatomía del televidente, interferencias en el campo de visión debidas a una mala distribución de las circulaciones o la reverberación y contaminación de la fuente del sonido eran síntomas frecuentes de un espacio que aún no había asumido su nueva condición mediática. Fig.5. Anuncio en prensa de RCA TableTop TV. Fig.6. Anuncio en prensa de Admiral TV. Fig.7. Anuncio en prensa de Zenit TV. 142 El crecimiento exponencial del poder computacional y los costes cada vez más bajos, permitirán el acceso masivo a la tecnología en todo el mundo. La Ley de Moore seguirá cumpliéndose al menos por dos décadas: la capacidad de los transistores se seguirá duplicando cada dos años. 303 La media de horas de visionado de televisión fue aumentando progresivamente con la multiplicación de la oferta de la parrilla y la venta masiva de aparatos. Irremediablemente, esto trajo cambios en el diseño del mobiliario doméstico. Los tresillos, chesters y otras piezas de asiento corto y respaldo casi perpendicular, idóneos para la conversación y la lectura, no lo eran tanto para ver un largometraje de dos horas de duración. La ergonomía de estos muebles obligaba a una posición de la columna vertebral cercana a la vertical y al apoyo de los pies en el suelo. Los brazos quedaban liberados para permitir al usuario el empleo del lenguaje manual para acompañar la conversación. El nuevo televidente precisaba de un mueble cuyo diseño resultara propicio para el descanso corporal. Poder reclinar la espalda para liberar la tensión muscular generada en torno a la columna vertebral, estirar las extremidades inferiores buscando la relajación de sus músculos o apoyar la nuca para favorecer el reposo de los músculos cervicales fueron tres requisitos a considerar por la nueva ergonomía. Poco a poco el ángulo entre el torso y las piernas se iría haciendo más obtuso, para lo cual, se precisaría de un mueble que permitiera el descanso de las extremidades inferiores. La aparición del puf sobre la mesita de apoyo, o la incorporación de la chaise lounge integrada en el sofá se generalizó en muchos salones. Por otro lado, los efectos que la televisión ha suscitado en las distintas generaciones de usuarios tienen diferente sesgo. Mientras los más jóvenes del grupo prefieren una inmersión mediática profunda143, los de edad anciana, educados en la tradición oral y acostumbrados a conversar en los momentos de coexistencia grupal, participan activamente del visionado audiovisual interrumpiendo con animados comentarios, generalmente molestos para los demás. La conversación en los salones de las casas fue apagándose poco a poco con la desaparición de la generación anciana, en favor de la concentración y el silencio. La interacción colectiva sería sustituida por la inmersión individual, potenciada si cabe con la entrada en la vivienda de dispositivos portátiles más pequeños: la tablet y el smarthphone144. El confort lumínico resulta clave en el diseño de estos ámbitos. La llegada de las máquinas digitales a la vivienda de la clase media propició el cambio en los criterios de iluminación 143 Véase definición de medios fríos y calientes de McLuhan en ‘Intrawall vs Extrawall. Al otro lado del espejo’, correspondiente a El fin de la mano mecánica y el advenimiento de la ergonomía postdigital. 144 Según el informe Sociedad de la Información en España 2013, p.26, realizado por la Fundación Telefónica, el 75,5% de la conexión móvil de banda ancha en el hogar se realiza a través de un dispositivo de mano. En cuanto a las actividades realizadas con Internet, el 65,7% usa el smartphone para hacer comentarios en redes sociales sobre contenidos televisivos. Fuente:<http://www.fundacion.telefonica.com/es/arte_cultura/publicaciones/sie/sie2013.htm>. (Consultada el 17 de enero de 2014). 304 natural y artificial. La iluminación cenital eléctrica tradicional alumbraba uniformemente la totalidad del contenido de la estancia. Las fuentes luminosas debían iluminar aquí la mesa de cerezo, allí el óleo, aquí las figuras de latón, allí el rincón de las fotografías,...etc. Las arañas de prismas de vidrio agotaron su popularidad en los setenta en favor del plafón cenital u otras pantallas de iluminación difusa. Si bien cambiaba el diseño estético de la luminaria no lo hacía su posición en la estancia, siempre en el centro del techo del salón. Para evitar la incidencia de reflejos indirectos en la pantalla del aparato de rayos catódicos los televidentes fueron sustituyendo la iluminación cenital por otras que cualificaban focalmente la cantidad y el tipo de luz. La combinación de diferentes tipos de iluminación está siendo interpretada por la domótica contemporánea, que propone al usuario una colección de escenas lumínicas activadas por control remoto en función del uso que se haga de las estancias. La iluminación adecúa y segmenta gradualmente la vivienda contemporánea. Los aparatos electrónicos portátiles disminuyen su tamaño y aumentan su presencia en todos los ámbitos. La red infinitesimal digital que ya se vislumbra con el desarrollo de la nanotecnología mejora las condiciones portátiles de la tecnología. La portabilidad y profusión de los dispositivos electrónicos ha propiciado que el estar común tienda a segregarse en favor de pequeñas células de estar, destruyéndose así los grupos con estructuras jerárquicas muy marcadas para dar paso a una conjunción de individuos que cohabitan en el ‘respeto tecnológico’. En el otro extremo del gradiente de privacidad doméstica, el dormitorio recuperó en parte su acepción del siglo XVIII como el lugar donde se recibe a los amigos íntimos, definitivamente no es el lugar sólo para dormir. Aunque sigamos utilizando incorrectamente esta denominación, el dormitorio es un lugar de repliegue individualizado145, la referencia al camarote del barco, a la casa dentro de la casa. Un lugar complejo que en el caso de las parejas que comparten lecho, les obliga también a compartir su intimidad, un lugar que es el espacio de la evolución de unos niños que necesitan estar supervisados, luego acompañados y que posteriormente demandan una absoluta independencia en la adolescencia ligado a sus cambios hormonales y primeras experiencias sexuales. Sería absurdo no reconocer el protagonismo que frente a la arquitectura tienen las tecnologías en cuanto a la influencia en los hábitos de vida desarrollados en la vivienda. El mundo exterior penetró en el interior por medio del teléfono, la radio y posteriormente de la televisión. Actualmente la dinámica se ha invertido, del teléfono único y fijo ligado al domicilio hemos pasado a los teléfonos móviles personales de cada miembro del grupo habitacional. El televisor único del ‘salón’, ha sido sustituido por las pantallas de los muchos ordenadores portátiles o de sobremesa que se ubican en cada habitación de la vivienda. Internet y todo lo que ello conlleva, ya sea ocio o negocio, permiten la conexión directa con el mundo y empiezan a no diferenciar entre comunidad familiar, restringida o ampliada. Pero si por una parte, la vivienda empieza a convertirse en la heterotopía del alojamiento moderno, el nuevo grupo de moradores demanda 145 Amann & Roig, óp.cit., 2009, p.58. 305 una relación con la Naturaleza más sentida que la que la pixelada. Desde el gran ventanal que enmarca el paisaje natural, pasando por la terraza y el huerto bonsai hasta llegar a los espacios ajardinados de la comunidad ampliada pero todavía no urbana demandamos lo natural en distintas dosis. La antigua convención racional que segregaba de manera inconexa ‘lo artificial’ de ‘lo natural’ está siendo contaminada por predisposiciones de alcance mucho más complejo. La contemporaneidad se aleja de enfoques simplistas y resulta articuladora de múltiples derivas que afectan a los hábitos de vida. Si bien por un lado los efectos de la Revolución Digital son palpables en los hogares de todo el planeta, la extensión del Paradigma Sostenible impulsado por las ciencias ambientales a partir de la primera mitad del siglo XX ha propiciado la comprensión del ámbito doméstico desde un enfoque ecológico creciente. La ecología participa necesariamente de la construcción del Entorno Aumentado y de las herramientas que éste propone146. Las computadoras demoraron dos décadas la incursión en el ámbito doméstico. Tras una primera etapa exclusiva de ocupación de centros de cálculo de universidades y diferentes organismos de la administración, se extendió su uso al tejido empresarial. El centro de cálculo debía reunir unas condiciones de ventilación y refrigeración óptimas para contrarrestar el intenso calor generado por aquellas máquinas. En la década de los sesenta, los espacios arquitectónicos que albergaban estas máquinas eran fríos y ruidosos pero invitaban al intercambio de información, a socializar, según Mitchel (2005), debido a la duración del procesado de un trabajo de un investigador o de un alumno. El propio Mitchel147 cuenta como las pequeñas y privilegiadas comunidades que poblaban aquellos lugares148 se veían a sí mismos como ‘los depositarios del único, avanzado y a veces peligroso conocimiento’. En los comienzos de Internet, la conexión a Arpanet o Ethernet condicionaba la actividad universitaria de los estudiantes, que preferían enclaustrarse en sus habitaciones con acceso a la red a dejarse ver por bibliotecas u otros lugares del campus sin conexión. La ubicación del lugar de trabajo quedaba así condicionada por la habilitación comunicativa y la disposición inmediata de la información volcada en la red, cuestión que se ha hecho extensiva en nuestros días. ¿Qué ha significado poder deslocalizar el lugar de trabajo del lugar donde se encuentra la fuente de información presencial o el canal de comunicación profesional? 146 Véase en Cap. IV Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo. 147 Ibíd. 148 Se refiere a su etapa recién estrenada de profesor en la Universidad de Yale, años sesenta. Según el propio Mitchell, en el centro de cálculo experimentó una pedagogía propia del artesano y del taller de diseño que obedecía al carácter casi iniciático de la actividad. Recordemos que años más tarde y en un ámbito académico distinto, aquel centro evolucionaría en el Media Lab del MIT, institución de la que fue decano. 306 Fig.8. Preferencia entre las pantallas (6 a 9 y 10 a 18 años). Fuente: Encuesta ‘La Generación Interactiva en Iberoamérica.’ Fundación Telefónica (2008). El primer registro que se conoce del término ‘computadora personal’ apareció en la revista New Scientist en 1964, en una serie de artículos llamados ‘El mundo en 1984’. En el artículo titulado The Banishment of Paper Work, Arthur L. Samuel, del Centro de Investigación Watson de IBM escribió: ‘Hasta que no sea viable obtener una educación en casa, a través de nuestra propia computadora personal, la naturaleza humana no habrá cambiado’. La introducción del ordenador personal en la vivienda supuso incorporar un instrumento de apoyo a la docencia que procesaba textos y también incorporaba algunas aplicaciones lúdicas en un lugar que permitiera al estudiante concentrarse. Generalmente el ordenador entraba en casa para uso y disfrute de una generación de estudiantes más que para la generación profesionales que ya disponía de una máquina digital en el lugar de trabajo, o bien todavía no habían dado el salto digital debido a la última remesa de máquinas de escribir electrónicas. El estar, como nodo social, estuvo vetado. La sala de estar o el dormitorio de los menores fueron los lugares donde tradicionalmente se instalaron las primeras computadoras personales o PC. El carácter casi siempre bilateral de la comunicación que propone la pantalla de ordenador frente a la relación multilateral establecida entre televidentes y la pantalla de televisión, generó un ámbito temprano de insoslayable intimidad. La extensión de viviendas con conexión a internet permitió afianzar la práctica de teletrabajo. Muchas disciplinas autónomas freelance, recuperaron la vivienda como espacio de trabajo, recordando los tiempos medievales en los que el artesano tenía el lugar de trabajo en la parte baja de la vivienda. A menudo el ordenador personal de sobremesa ocupó también los espacios intermedios o residuales de los pasillos, vestíbulos, distribuidores, antesalas,…etc. La disponibilidad del ordenador portátil sumado a la conexión con una red de Internet inalámbrica ha diluido aún más el lugar de trabajo preestablecido y sedentario. 307 La deslocalización de la computación plantea una nueva etapa en la cartografía mediática de la vivienda que surge de la combinación de dos conceptos recientes: los wearables149 o wearable computing y la pervasive computing150. La distribución de la capacidad de computación en múltiples dispositivos o pervasive computing elimina la exclusividad de un único aparato cuya ubicuidad en el espacio doméstico deba ser objeto de reflexión. Ya no se precisa de ningún espacio concreto para la conexión con la capa digital sino que la capa digital resulta integrada en múltiples objetos electrónicos que incorporan su pequeño ordenador (Internet de las cosas). Esta dispersión afecta al propio usuario, cuyo cuerpo tecnológico151 comienza a vestir wearables, unos ordenadores invisibles que adoptan forma de reloj, de cinturón, de vestido, de gafas, de uñas,…etc., y que se suman a la circunstancia mediática de la vivienda152 característica del Entorno Aumentado. 4.3.1.3. Interferencia informacional en el ámbito doméstico. Del Post-It de nevera a la realidad aumentada. ‘Durante unos cuantos días habremos observado detalladamente algunos usos de nuestros equipamientos domésticos. Las máquinas, ¿proporcionan control o descontrol? ¿Nos conectan o nos aíslan? ¿Las ordenamos, nos ordenan, nos desordenan? Sea como sea, eso que llamamos intimidad se construye a través de ellas, revelando insospechadas conexiones, barreras, repartos, solidaridades, ritmos, límites, accesos (…).’ Francisco Cruces153, 2011. 149 Véanse ‘Conclusiones: Tendencias de futuro que empiezan a estar presentes’ en el informe Sociedad de la Información en España 2013, p.20, realizado por la Fundación Telefónica. Fuente: <http://www.fundacion.telefonica.com/es/arte_cultura/publicaciones/sie/sie2013.htm>. (Consultada el 16 de enero de 2014). La definición y etimología se encuentra en el Glosario. 150 Véase ‘Se materializa el pervasive computing’ en Sociedad de la Información en España 2013, p.17, informe realizado por la Fundación Telefónica y disponible en: <http://www.fundacion.telefonica.com/es/arte_cultura/publicaciones/sie/sie2013.htm>. (Consultada el 17 de enero de 2014). La definición y etimología se encuentran en el Glosario. 151 ‘El ámbito de la salud ha sido pionero en la generación de este tipo de dispositivos que El ámbito de la salud ha sido pionero en la generación de este tipo de dispositivos. De hecho, muchos autores consideran que su uso da lugar a una nueva rama de la salud que se puede denominar salud personal y según la cual los propios usuarios pueden ser los protagonistas en el control de su salud’. Fuente: <http://www.fundacion.telefonica.com/es/arte_cultura/publicaciones/sie/sie2013.htm>. (Consultada el 15 de enero de 2014). 152 Para más información, véase PAPADOPOULOS, Despina (2007) ‘Wearable technologies. Portable architectures and the vicissitudes of the Space Between’, Architectural Design, vol. 77, nº 4, p. 62-67. 153 Proyecto Prácticas culturales emergentes en el Nuevo Madrid (Ministerio de Ciencia e Innovación, CSO 2009-10780). 308 La Revolución Industrial introdujo la máquina tecnificada en el recinto doméstico. El cambio de paradigma definió una nueva arquitectura doméstica centrada en su mayor parte en estrategias relacionadas con salubridad. La Revolución Informacional inductora del estado del bienestar y de la Sociedad de la Información (Castell & Himanen 2001) ha puesto en crisis la estructura de la vivienda contemporánea, con consecuencias en el tratamiento de la información que se efectúa en el espacio doméstico a lo largo de la historia reciente de la ciudad. Como parte esencial de la vivienda aumentada, la estructura informacional -ubicua o a la vista- de la capa digital participa de un nuevo modelo de arquitectura doméstica. Sostiene Fernández-Galiano154 en El fuego y la memoria que el espacio doméstico se ha organizado tradicionalmente en torno a las fuentes de energía. La mejora acontecida en la modernidad de las redes de instalaciones supuso la descentralización de la vivienda en torno al núcleo energético. La sustitución del pozo por las tuberías de suministro de agua permitió repensar el agrupamiento de viviendas, la sustitución de las redes naturales de transporte -ríos, lagos, mares-, tradicionales cauces de agua y basura, por sistemas de transporte artificiales desvinculan la vivienda y la ciudad de la topografía. A otra escala, la sustitución del hogar por otras fuentes artificiales de calor y su cualificación hacia otros tipos de confort térmico o hacia la preparación de alimentos implicó la dispersión de la centralidad energética que aglutinaba a los moradores de la vivienda, favoreciendo la individualidad frente a la comunidad. Aunque resulte más evidente con la energía, el parámetro de la información también ha definido la organización de las estructuras tradicionales. De hecho, está siguiendo de cerca los pasos de la electrificación, con consecuencias sociales igualmente profundas. El trabajo intelectual ya no precisa de esfuerzo físico, el comercio no se ve impedido por la distancia, la comunidad no tiene que depender de los lazos de parentesco y los contactos entre las personas se producen de formas inimaginables (Mitchell 1999: 5). En su brindis por la Aldea Global, Mitchell155 planteó la reformulación de los vínculos sociales partiendo de la deslocalización de las conductas humanas provocada por la Revolución Digital. Esto parece hoy un hecho indiscutible. Como ya se ha visto, el desarrollo de tecnología portátil e individual llega a reducir la necesidad de espacio social del homo social a prácticamente sí mismo. En los albores del Entorno Aumentado, se ha pasado de la globalización impulsada por la Red a la glocalización diseñada por los usuarios. Esta alteración aún no ha transformado la vivienda, pero como veremos más adelante, sí lo ha comenzado a hacer en la ciudad. 154 Óp. cit., 1991. 155 Ibíd., 121. 309 La comparación de ‘información’ vs ‘tecnología’ depara un punto discordante en lo referente a las tecnologías de la información y la comunicación. Si bien la generalización de electrodomésticos en los hogares estuvo y está sujeta a largos periodos de adaptación, la transferencia de las TIC a los individuos se produjo, y produce, mediante procedimientos mucho más rápidos. Desde que se inventó la cocina de gas o el inodoro hasta que una mayoría de las viviendas pudieron contar con estos servicios pasaron décadas. Su uso estaba ligado al status social del ciudadano. Hoy el uso generalizado del ordenador personal o de teléfono móvil se ha extendido con una velocidad infinitamente superior en todo el planeta. El coste del chip156 de un microprocesador de un teléfono móvil inteligente asciende a una cantidad muy pequeña. Es evidente que la digestión de las TIC no se ha hecho de manera igualitaria, pero sí más homogénea y ecuánime que en el caso de otras tecnologías, distanciándose de las actitudes clasistas que marcaron los siglos anteriores. Fig.1. Planta de una vivienda obrera típica de la Revolución Industrial157, Glasgow, 1848. Fig.2. Planta y diagrama de circulación de una vivienda tradicional y una moderna. Alexander Klein, 1928. (Hillier & Hanson, 1997). Fig.3. Planta y genotipo de una vivienda moderna de Hans Scharoun. (Hillier & Hanson, 1997). A lo largo de este proceso, el ámbito doméstico ha ido incrementando su capacidad tecnológica, lo que ha supuesto la incorporación a la vivienda de un compendio de información operativa a disposición del usuario. El manual de instrucciones de una vivienda ha ido sumando páginas y páginas desde la integración de las primeras máquinas en el s.XIX. Aquellos primeros artefactos instrumentalizaban la domesticidad con la sencillez y el músculo de la mecánica iniciática. La cocina de carbón, el retrete, el agua caliente, la electricidad,…etc., no requerían de un gran aprendizaje para su correcto uso. Hoy en día es tal la cantidad de información a asimilar para 156 Véase Glosario. 157 Obsérvese el hacinamiento de usuarios y la ausencia de condiciones higiénicas mínimas (una ventana de 1x1.75 m² para toda la vivienda). 310 poner en funcionamiento la tecnología doméstica que muchos usuarios-consumidores no llegan a rentabilizar la oferta de prestaciones158. La información subyace a la materia159 y por extensión a lo arquitectónico. La organización de la vivienda del jefe de los Kraal responde entre otras circunstancias a la necesidad de preservar su seguridad. Así lo describen Hillier y Hanson (1997) en un diagrama de circulación que muestra el ‘genotipo’ de la construcción (fig.4). La información que trasciende y explica la organización del edificio fue objeto de estudio y racionalización por Alexander Klein en 1928. En sus indagaciones planteó una vivienda para un número exacto de usuarios -variables de la función- en base a la cual se optimizara la funcionalidad de algunos parámetros domésticos. La comparación de la arquitectura tradicional y la moderna (fig.2), conceptualmente muy diferentes, y su diagramatización en esquemas de circulación y uso ponían de manifiesto la atención quirúrgica que el Movimiento Moderno operó en el proyecto de arquitectura, clasificando usos y acortando tránsitos. En este sentido y en oposición al arquetipo tradicional, la propuesta moderna de la figura 4 demuestra una relación nítida y óptima entre las actividades que acontecen en la vivienda. Fig.4. Planta de la vivienda del jefe de los Kraal y genotipo de su circulación. (Hillier & Hanson, 1997). La arquitectura racional del Movimiento Moderno aportó soluciones eficaces a las condiciones insalubres de las viviendas de la primera Revolución Industrial, en un intento de erradicar el ambiente insano de las infradimensionadas, mal ventiladas y orientadas, y deficientemente 158 Piénsese en la típica situación en la que el usuario se enfrenta al control de las escenas lumínicas de una habitación de un hotel ‘de diseño’. 159 La tesis de Ignacio Borrego (2012) profundiza en este tema. 311 construidas células habitacionales del XIX160. Estas tipologías industriales resultaban incapaces de asimilar simultáneamente los nuevos avances de las tecnologías del momento. Esta circunstancia alentó en las dos primeras décadas del siglo XX la eclosión del Movimiento Moderno y la generalización de un nuevo estándar de vivienda mínima. Por primera vez en la historia de la arquitectura, la vivienda se convirtió en el problema fundamental a explorar por los arquitectos y las administraciones, que se ocuparán en el desarrollo experimental de nuevos tipos de vivienda social, pública y privada, como respuesta a los cambios sociales y a la ingente demanda de vivienda a raíz del movimiento migratorio del campo a la ciudad. En la fase de proyecto de la vivienda contemporánea habitualmente se da respuesta a un estudio detallado de la disposición en planta de usos y circulación, circunstancia que sumada al acatamiento de las prescripciones normativas reproduce enfoque proyectual que replica los preceptos del Movimiento Moderno, obviando por otro lado atenciones relacionadas con la energía, el tiempo y la información. La cotidianidad supera la arquitectura del ámbito doméstico. En la mayoría de los casos, unas cuantas instalaciones se han superpuesto a los esquemas espaciales vigentes desde el Movimiento Moderno, pero todo sigue obedeciendo a los mismos patrones. Es necesario definir nuevas reglas de juego, y ello implica en primer lugar tomar conciencia de que la primacía tipológica como posibilidad instrumental, basada en la estabilidad de las formas asociadas al habitar, pierde consistencia como método de identificación proyectual según los individuos van transformando sus pautas desde la vida familiar sedentaria hasta una deslocalización en el mundo descriptible como nomádica, ajena a los patrones espaciales tradicionales161. En el ejercicio arquitectónico que se refiere a la postproducción del edificio, el manual de instrucciones de la vivienda forma parte del ‘Libro del edificio’ que redacta el proyectista162 y a menudo resulta ineficaz y obsoleta su estructura narrativa frente a otros manuales, por ejemplo de un smartphone o de un automóvil. La localización inmediata de esta información y su visualización mediante tecnologías contemporáneas (por ejemplo, realidad aumentada) harán sin duda más accesible y sencilla su comprensión. Con el paso del tiempo la vivienda va siendo perfeccionada por el usuario que irá generando información con celeridad, almacenada de manera generalmente ineficaz. La información a menudo se produce de modo involuntario. La formación de hábitos implica el establecimiento de rutinas que aumentan la eficacia de los procedimientos domésticos163. Raras son las viviendas que cuentan con una biblioteca que 160 Véase planta de un tugurio obrero (fig.1) típico de las ciudades británicas industriales en el siglo XIX. 161 Aman & Roig, óp. cit., 43. 162 Cabría preguntarse qué porcentaje de usuarios lo utiliza. 163 En el proyecto de Michael Webb Rent-a wall-collage para Archigram nº7, 1966, el avatar Fred X Shooman jun. III proponía una arquitectura doméstica encargada por correo. Una arquitectura que satisfacía las necesidades del consumidor a la moda que podía ‘cambiar la atmosfera de las noches árabes 312 organice la información eficazmente. El libro de recetas, como ejemplo de compendios de información existentes en la vivienda, pasó de guardarse en un cajón de la cocina como un utensilio más, a ocupar un lugar junto a los clásicos del estar. Las redes sociales y los canales de comunicación on line están cambiando, de nuevo, esta dinámica. Las instrucciones audiovisuales on line permiten conocer el proceso de preparación de un plato sin dar lugar a interpretaciones equivocadas. Además, el usuario puede publicar y compartir en tiempo real sus experiencias gastronómicas. La reflexión acerca del proyecto de una cocina aumentada pasa por asimilar las capacidades tecnológicas mediáticas e informacionales incluidas en la capa digital, como por ejemplo propone Thinkbig Factory en Openarch, un prototipo construido de vivienda aumentada, o Keiichi Matsuda en Augmented City. La realidad aumentada propone volver a localizar este libro de recetas en el área de trabajo, pero con un soporte diferente que permita una mayor interacción y operatividad. Los protocolos de información de los productos domésticos no son objeto de ningún control que exceda al realizado por el propio usuario. Los sellos de calidad de los bienes inmuebles o de los perecederos almacenados garantizan el producto hasta el momento en que se consume, pero nadie nos avisa de cuándo ha de ser consumido. Al abrir el frigorífico, el olfato es el sentido que nos indica si algún alimento se encuentra en mal estado. ¿Qué ocurre si propio el frigorífico pudiera leer la fecha de caducidad del yogur y nos avisara cuando quede poco tiempo para su caducidad? ¿Y si con nuestro consentimiento pudiera reponer el stock como si se tratase de una máquina expendedora? Fig.5 y.6. Augmented (hyper) Reality: Domestic Robocop. Keichi Matsuda, 2010. Fuente: http://www.keiichimatsuda.com/augmented.php De éstos y otros muchos progresos se ocupa la deriva tecnológica convergente acuñada como ‘Internet de las cosas’. La tecnología digital puede reconocer los códigos de los productos que se almacenan en el frigorífico, convirtiendo este en un almacén digital donde podamos disponer de información instantánea: stocks, dietas personalizadas que favorezcan la salud, combinatoria dietética de esos productos, reciclado post-consumo,…etc., toda una serie de posibilidades que se encuentran ya en los despachos de I+D de las grandes multinacionales de electrodomésticos. a la sencillez Bauhaus’. Webb (Sadler 2005) creía que la sistematización del entorno al completo permitiría la creación del espacio ‘cualquiera’. 313 Con la realidad alternativa no nos haría falta abrir el frigorífico (fig.6) para saber qué es lo que hay dentro y en qué condiciones está. El diseño de la cocina, la pieza que más ha influido en el progreso habitacional de occidente, se entiende como el diseño de procesos que ponen en contacto la red de suministro urbana con la propia vivienda164. Este hecho que en principio puede encuadrarse dentro de la postura antisocial de Mitchell, pues no haría falta ir al mercado, podría integrar en su versión aumentada la conexión visual entre el lugar de suministro y el usuario. La visión de otros avatares comprando en el mercado puede estar tan lograda que se pueda tener una experiencia social íntegra sin salir de la vivienda, como de hecho sucede en el mundo virtual de Second Life. Esta reflexión precipita otra disyuntiva acerca de la capacidad informacional de la vivienda en el sentido de interpretar la acumulación y organización de datos de la capa digital o del desarrollo del proyecto como un medio de comunicación para contactar usuarios y conectara los propios sistemas domésticos entre sí. Cabe diferenciar entre la información generada desde la casa, y comunicada hacia el exterior; o la generada fuera de la vivienda y recibida en el interior. Teniendo en cuenta la hibridación de los dos contextos propios del Entorno Aumentado, resultará conveniente señalar que el límite que separa el interior de la vivienda del exterior no es exclusivo de la puerta de entrada sino de la cuarta pared. En términos de seguridad, el límite doméstico entre lo privado y lo público condiciona la necesidad de información por parte de los individuos que se encuentran a ambos lados. Los moradores necesitan información que les provea de mecanismos de seguridad frente a una agresión externa. Los visitantes necesitan llamar la atención para poder acceder a la vivienda. El límite se constituye en una membrana codificada que permite o deniega el acceso. A lo largo de la historia doméstica, este lugar de intercambio de información ha coincidido con el lugar físico donde se disponía la puerta. En muchos casos una sección de madera maciza separa los ámbitos. Una aldaba metálica o el simple golpeo de los nudillos entonaban el código. La aparición de los porteros automáticos desplazó este límite a la cota cero de la calle. Esta tecnología acabó poco a poco con la figura singular del portero de la finca, cuyo oficio resulta clave en la literatura y en no pocos guiones cinematográficos. Era habitual que ocupara una posición dominante y privilegiada para entablar pactos por su profundo conocimiento de la información comunitaria165. La privacidad ha disminuido considerablemente respecto al siglo XIX y al XX, en lo que respecta a su incidencia en el ámbito doméstico contemporáneo, pero a pesar de ello, el Entorno Aumentado no parece poder prescindir todavía de la estructura física de la casa. Los avances tecnológicos en el control de la privacidad requieren una evolución ética del ciudadano que aun no se ha conseguido. Hemos de preservar nuestra intimidad física sin menoscabo de la privacidad digital, a veces más importante. Ciber-ataques inhibidos con antivirus, cortafuegos 164 Idem en los procesos reversibles. 165 Nótese la acepción despectiva y genérica de ‘portera, identificada con ‘chismosa’. 314 (firewalls), directorios en cuarentena, mensajes encriptados, contraseñas alfanuméricas, detectores faciales y otros instrumentos al servicio de la seguridad del usuario acercan el electronómada de Mitchell a un Entorno Aumentado polivalente, público y con una redimensión del espacio físico íntimo del usuario en base a mínimos, pues en cualquier momento puede invertir su privacidad. Antes de la aparición de los medios de seguridad analógicos -telefonía fija, telefonillo,…etc.- y digitales -videoportero,…etc.-, la vivienda metropolitana reservaba en su distribución un lugar donde se celebraba el primer contacto entre el extraño al clan familiar y los habitantes de la casa. Este filtro se significaba en el recibidor como primer peldaño en el escalafón del canal de comunicación privado y articulación del exterior público y el interior privado. Esta ‘pieza’ conectaba directamente con el gabinete, para tratar de negocios, o con otras estancias ordenadas según el gradiente de privacidad de cada época. En el caso de la comunicación no presencial, el buzón de correo postal, apéndice histórico de la intimidad doméstica, continúa desempeñando su cometido pese a que la bandeja de entrada del correo electrónico le haya relegado a una posición casi nostálgica. La condición humana está ligada a hábitos de obtención, generación y comunicación de información. Desde tiempos ancestrales, las tecnologías que evolucionan estas acciones han dejado su impronta en los objetos domésticos: el espejo del baño, el quicio de una puerta, el felpudo, la maceta junto al acceso de la casa, las puertas de chapa de los frigoríficos o las carpinterías vienen constituyéndose en soportes del universo codificado del lenguaje. Asimismo, el letrero de ‘ocupado’, ‘no molestar’, ‘silencio’, ‘no pisar’,…etc., junto con otros mensajes como, por ejemplo, los que avisan de algo transmitiendo a la vez una significación positiva o negativa con los colores verde y rojo, constituyen los antecesores pre-digitales del solapamiento del campo aumentado de información o cellspace166. En contextos de cierta inseguridad era costumbre dejar encendida alguna luz para aparentar que la vivienda estaba ocupada. El mismo código se ha empleado con las persianas o las contraventanas, que no se cerraban para evitar la apariencia de abandono temporal. Pero no solo los usuarios dejan rastro, ocasionalmente los noticiarios se refieren a informaciones sobre delincuentes que etiquetan simbólicamente el acceso de la vivienda con pegatinas adheridas en la fachada, grafitis, incisiones superficiales y otras tretas que registran y codifican el carácter temporal o indefinido de la ausencia de los moradores para asegurarse así el éxito del allanamiento. Minnesota Mining and Manufacturing Company, más conocida como 3M, es la compañía que tiene patentada la propiedad de los pequeños papelitos de notas recordatorio. Una banda adhesiva ‘poco pegajosa’ compuesta por microesferas copolímeras de acrilato es clave de su éxito. Una vez desempeñado su cometido, el mensaje se despega sin dejar huella dejando paso a otro y otro y otro. Post It (fig.7) incorpora al objeto la capacidad de portar información; es un 166 Véase en Cap.I, Escenario ontológico. Trascendiendo el dipolo de existencia. 315 canal de comunicación sencillo, barato e inmediato. La información que contiene puede o no hacer referencia al soporte o entorno físico al que se adhiere. Fig.7.Orígenes del Post It, 1921. 3M. Fig.8 y 9. Cell, 2010. Keiichi Matsuda en colaboración con James Alliban. Fuente: <http://www.keiichimatsuda.com/cell.php>. (Consultada el 15 de mayo de 2013). Una versión aumentada de las notas amarillas podría convertir el lugar físico de un espacio público en soporte de notas digitales. Cell es una instalación digital interactiva heredera del Post It presentada en el Festival Alpha-ville de 2011 que proyecta en la capa digital la personalidad individual de las identidades de los usuarios. Así lo describe su autor Keiichi Matsuda (en colaboración con James Alliban): ‘Cell acts as a virtual mirror, displaying a constructed fictional persona in place of our physical form. Composed from keyword tags mined from online profiles, these second selves stalk our movements through space, building in size and density over time. The resulting forms are alternate, technologically refracted manifestations of the body, revealing the digital aura while simultaneously allowing us escape from our own constructed identities.’ Este tipo de proyectos pueden emplear localizadores GPS y un sitio web para que el usuario pueda posicionar sus notas digitales en una localización geográfica precisa: un espacio interior, una calle, una plaza o un escaparate se convertirán en sustento de la capa digital. El público podrá ver en sus soportes digitales las notas que otros han dejado; un comentario sobre un restaurante, una indicación sobre una tienda o una recomendación bibliográfica constituyen ejemplos de una temática al menos tan diversa como la que propone la realidad física. Una vez diseñada y ejecutada la tecnología que activa el espacio aumentado, se pondrá la gestión de diferentes proyectos Post It con contenidos diversos. La revisión informacional de la vivienda tiene en el ciclo de la alimentación una de las rutinas a estudiar de mayor complejidad. No se constriñe al mobiliario de la cocina pues se obviarían procesos determinantes como son el suministro de mercancías y la evacuación de residuos. No cabe ninguna duda de que la cocina es la gran protagonista de la historia de los cambios de la 316 vivienda167, fue el primer lugar que se independizó del resto de la casa por motivos funcionales y sociales y también es la pieza que más variaciones e interpretaciones ha sufrido. Esta circunstancia ha sido debida tanto a los cambios de equipamiento –recuérdese que la tecnología entró en el hogar por la cocina de la mano de los pequeños electrodomésticos– como a los cambios sociales168 asumidos por sus usuarios (fig.12). Respecto a la primera causa, la aportación tecnológica pronto respondió a inventos mecánicos, como el espeto asado automatizado169 incorporado a la cocina de una residencia en Nuremberg en 1485 (fig.9). En cuanto a la segunda, el rápido desarrollo industrial taylorista fig.10) y la transferencia de los avances tecnológicos militares de la II Guerra Mundial a la industria civil doméstica de la posguerra tuvieron un papel esencial en la consecuente emergencia del fenómeno del consumismo en la sociedad estadounidense. Fig.10. Kuchemaistrey, anónimo ,Nuremberg, 1485. Fig.11. Cocina Frankfurt, Margarete Schütte-Lihotzky, Frankfurt, 1926. Fig.12. Anuncio en prensa. USA, años50. Si las primeras cocinas amplias y abiertas –con el comedor incluido- de EEUU representaban el rol social de la mujer (‘el ángel del hogar’170) en la estructura familiar norteamericana frente a la 167 Amann & Roig, óp.cit., 62. 168 Como por ejemplo, las consecuencias derivadas de la liberación de la mujer en los cambios de costumbres y la necesaria implicación de todo el grupo en la supervivencia doméstica. 169 Giraba automáticamente, impulsado por una hélice -estructura en trébol negro en la parte superior izquierda del grabado-. 170 La figura 12 es muy representativa del reparto genérico en un matrimonio estadounidense estándar de clase media de la época. ‘Él’, encerando la carrocería de su flamante automóvil, ‘ella’ sartén de acero inoxidable en mano y con una indumentaria impecable, se ocupa de las tareas domésticas. 317 cocina Frankfurt europea171, reducida y cerrada, proyectada para un funcionamiento efectivo por parte del ama de casa trabajadora, las propuestas actuales van ligadas en la actualidad a la idea de espacio con distintos ambientes en relación a distintas acciones que se pueden desarrollar de forma conjunta: elaborar, comer, hablar, estudiar, trabajar, tocar un instrumento, oír música, ver la televisión… y de forma menos regular, celebrar fiestas y acontecimientos especiales. Un espacio de acción y comunicación con distintos grados de intimidad, incluso donde quepan simultáneamente el espacio representativo y el de trabajo. Por otro lado, Amann (2011) afirma que esta solución va ligada al concepto de visibilidad tan demandado en estos días para reivindicar acciones consideradas invisibles por su carácter asociado a desperdicios, suciedad, malos olores y personas al servicio de los dueños de la casa y que por otra parte tienen que ver con el cambio de mentalidad y el auge de la hostelería como cultura que incluso en los restaurantes ha provocado la visibilidad de las zonas de elaboración de las comidas; a los placeres de la mesa, se unen los de la vista y el olfato; al resultado se une el proceso. La vanguardia gastronómica propone en ocasiones experimentos mediáticos como el apoyo de las rutinas de alimentación con proyecciones audiovisuales en el plano donde se come, la incorporación de un canal de comunicación exterior en la mesa de comensales o cualquier otra performance gastronómica. Este proceso de manipulación de la información que revisa el diseño de los conceptos gastronómicos tradicionales tiene un punto de inflexión en la deconstrucción propuesta por la nueva cocina de Ferrán Adriá o Santi Santamaría, acontecida en paralelo a la operada por el deconstructivismo arquitectónico de finales de los años ochenta por arquitectos como Peter Eisenman, Frank Gehry y Bernard Tschumi. Este cambio en el proyecto gastronómico fue acompañado por la puesta en valor de un mobiliario de cocina que había de ser perceptible desde las zonas comunes de la casa172. La recuperación de los clásicos de Knoll y Henry Miller, donde diseñadores como Charles y Ray Eames o Nelson desarrollaron prototipos que cambiaron el concepto doméstico de mueble y la propagación del diseño industrial de la ‘República Independiente de Ikea’ fueron síntomas de la nueva definición de este espacio doméstico. 171 El diseño de la arquitecta Margarete Schütte-Lihotzky fue el resultado de detallados estudios cronometrados de movimiento y entrevistas a futuros usuarios. La cocina Frankfurt fue instalada en 10.000 viviendas del Nuevo Frankfurt de Ernst May, en la década de los 30. 172 La separación del lugar para comer del lugar donde se cocinan los alimentos tiene su origen según Amann (2011) en la separación sirvientes-servidos (Fig.14) que la burguesía del siglo XIX y la extraña sociedad española del XX mantuvieron y difundieron a través de las películas y serie televisivas de la época. 318 Fig.13. Increasing disorder in a dining table, Sarah Wigglesworth y Jeremy Till. Fig.14. A su servicio173, Sara Cleo, Chicago, 1939. Walter Benjamin (1999: 19) advierte que el ‘individuo privado’ comenzó a existir a principios del siglo XIX, como resultado de la Revolución Industrial. La mecanización alejó de la vivienda el lugar de producción, para convertirla en un ámbito privado, opuesto al lugar público de trabajo. Heynen (2005: 6-7) sostiene que esta separación de vivienda y trabajo fue la responsable de la creación de la domesticidad; la casa se asoció con la privacidad, la familia y la mujer, mientras que la esfera pública se convirtió en el territorio laboral del hombre. Meyrowitz (1985) se refiere a la invasión de la vivienda por los media como inductora de una liberación del control masculino de la información, en busca de una distribución más ecuánime y justa de la información: ‘Electronic media undermine all previous societies’ dependence on physical location as the prime determinant of access to and isolation from other people. Electronic media weaken the notion of men’s spheres and women’s spheres, of special huts or buildings, of places that are either sacred or profane. The new potential of electronic media to transform both work and home may finally remove the seeming necessity of the split in domestic and public domains and reintegrate men and women in a single social sphere of work and family.’ A este respecto Lynn Spigel sostiene (Matsuda 2010: 22) que la invasión de la tecnología y su imperativo de vigilancia han transformado la casa en un lugar de producción conspicua, la fusión de la casa y el trabajo causan un entorno donde los ocupantes deben ser vistos trabajando todo el tiempo. 173 Cartel sobre la mejora en el trabajo doméstico (Works Progress Administration). La cofia, el uniforme, los ojos cerrados y la inclinación de la cabeza denotan un profesional y limpio sometimiento. 319 ‘The ultimate paradox, then, is that the postmodern luxury home has become the ultimate work terminal - a place where the resident is in a perpetually interactive state of preparedness- never allowed to simply ‘waste time’. Spigel pone de relieve la idea de que la tecnología libera de las labores domésticas al usuario. El modo de vida inteligente –en una vivienda inteligente- presupone la pasividad de un usuario al que se le da todo hecho. Afirma Spigel174 que ‘la vivienda inteligente está específicamente diseñada para desafiar aquella antigua visión de la robótica que hacía pasivos a los humanos’. Esta afirmación es válida para la etapa inmediatamente anterior al Entorno Aumentado, en la que los robots y los electrodomésticos replicaban los modos de actuar humanos. Matsuda175 señala la oposición en estos términos del Entorno Aumentado al espacio virtual del ciberespacio, destacando la actividad del usuario (o hiperactividad) del primero, inferida por unos niveles de interacción altos, frente a la pasividad del modo de vida inteligente del segundo. Otro ámbito húmedo de la vivienda, el comúnmente denominado ‘cuarto de baño’ también ha sido objeto de transformaciones que responden a razones tanto higienistas como hedonistas. Frente a una normativa dura y garantista que ha obligado a la existencia de unos espacios mínimos completamente dotados produciendo un catálogo de soluciones que se aplican sistemáticamente en cualquier situación, el dato de la diversidad de usuarios y situaciones debería dar lugar a una gran diversidad de propuestas para una pieza tan abandonada como imprescindible, en nuestra cotidianidad ligada a la calidad de vida. La idea de reposo, de placer, de regeneración, se introduce en este espacio ligado a la higiene mediante la introducción de la luz natural y una mayor dimensión. La evaluación de la información procedente de los residuos que tienen lugar en esta parte de la vivienda propicia la aparición de estrategias sostenibles de reciclado. Además, esta consideración también puede aumentar la protección de la salud de los usuarios. Tal es el caso de la información obtenida a partir de los residuos orgánicos producidos por los usuarios cuyo análisis y diagnóstico inmediato176 mejoran el nivel de prevención de los individuos que integran la vivienda. Estas acciones que invariablemente implican pedir cita y acudir físicamente al centro médico, pasar consulta y recoger –otro día- el diagnóstico de las pruebas efectuadas en el laboratorio resultarían sustituidas por la tele-asistencia médica. De este modo, la tecnología introduce en el ámbito doméstico un programa ubicado tradicionalmente en la ciudad. 174 Ibíd., p.415. 175 Ibíd., p.22. 176 Algunas marcas japonesas de sanitarios comercializan inodoros que realizan análisis de orina, logrando así un control diario de la salud del usuario (cantidad de azúcar en la sangre, pulso cardiaco, grasa corporal,…etc). Disponible en: <http://www.toto.co.jp/.>. (Consultada el 20 de septiembre de 2013). 320 Otro aspecto a valorar en la construcción del Entorno Aumentado doméstico es el sistema de almacenaje. Las superficies y capacidades de almacenaje obligatorias por la normativa de vivienda en el siglo pasado eran absolutamente insuficientes y por eso nuestras casas parecían museos donde los objetos se acumulaban a la espera de ser limpiados diariamente. El cambio de orientación en la sociedad de consumo hacia objetos abstractos –placer, cuidado corporal, viajes, música y ocio–, el consumo digital, la introducción progresiva del concepto de sostenibilidad en el consumo, la disminución de volumen de muchos equipamientos tecnológicos, y sobre todo –entre otros muchos factores ligados a los cambios en los hábitos– la ausencia de la mujer en la casa como protagonista de unas labores domésticas diarias de mantenimiento del espacio, han promovido el deseo de unos escenarios limpios y vacíos donde los objetos no estén en exposición177. La incorporación de información digital en tiempo real a la fisionomía de la vivienda incita a la dispersión del almacenaje objetual físico tradicional y a la concentración de su homólogo digital. Estos posibles ‘apéndices’ de la domesticidad pueden ocupar lugares ajenos a la estructura compacta de la vivienda, con una posibilidad de control y manipulación creciente por parte del usuario. 4.3.1.4. Apuntes sobre la casa del futuro. Tres anticipos pre-digitales. El prototipo presentado en 1956 por Alison y Peter Smithson para la edición anual de la exposición la Casa del Futuro patrocinada por el Daily Mail estaba construido completamente en plástico e incluía habitantes vestidos como supuestamente dictaría la moda veinticinco años más adelante, en 1981. La Casa del Futuro (fig.1) era una suerte de performance mediática anticipo del formato televisivo Gran Hermano, el reality show de 24h que triunfó en el cambio de siglo. Gran Hermano fue emitido por primera vez en Holanda el 16 de septiembre de 1999, siendo después adaptado a más de 70 países. En la primera edición española celebrada del 23 de abril de 2000 al 21 de julio de 2000 (9 días) se dispusieron 29 cámaras grabando a los concursantes. La dimensión temporal de aquel ámbito doméstico excedía con mucho lo cotidiano, su hábitat escenografiado se hizo público a la audiencia, el pequeño ecosistema artificial comenzó a establecer sus jerarquías teniendo en cuanta la mediatización galopante. Gran Hermano fue líder de audiencia en casi todas sus ediciones. El precio en el mercado de las cámaras web ha descendido muchísimo y ya son accesibles al gran público; se puede elegir entre múltiples propuestas Gran Hermano. La intromisión -o más bien introvisión- de las webcam en interiores arquitectónicos se ha producido a menudo con la finalidad de proteger la seguridad de los habitantes de ese espacio. La conexión on line ha destapado multitud de casos de espionaje de individuos desaprensivos que han conseguido las claves de transmisión de la señal y se han ‘colado’ como auténticos voyeaurs. 177 Amann & Roig, óp.cit., p.67. 321 La casa de los Smithson, inaccesible para el visitante, estaba situada en el interior de un contenedor -ciego al exterior- que disponía de puntos de observación de modo que el visitante se convertía en un ‘espectador’ de lo que acontecía en el interior de la casa. No había retransmisión de las relaciones sociales que allí se suscitaban pero el visitante podía cotillear a través de los huecos practicados en los muros de plástico. Parte de la cubierta de la vivienda se quedó sin construir para permitir la mirada del voyeur. La Casa del Futuro incorporaba la telefonía dando opción, mediante unos altavoces, de convertir la conversación individual en una especie de manos libres extendido a toda la casa. También se instalaron unos audífonos para la comunicación individual. El teléfono se conectaba a una grabadora cuando los habitantes de la vivienda estaban ausentes u ocupados, anticipando al uso masivo del contestador automático178. En la pared había tableros de control que regulaban la temperatura y la luz, abrían la puerta principal o subían y bajaban la mesa del comedor hasta convertirla en una mesa de café o hacerla desaparecer por completo. La radio/televisión tenía un transmisor de onda corta (proto-control remoto) en forma de dado gigante que permitía también controlar la mesa (Colomina 2004: 65). Cuatro años más tarde (1970) Arata Isozaki proyectó la ‘Responsive House’ (fig.2), un prototipo de vivienda sensible al cambio. Coincidiendo con los autómatas de la Expo70 de Osaka y las tradicionales pantallas Shoji, el arquitecto japonés vio una oportunidad de experimentar hasta qué punto una vivienda era capaz de modificarse según el uso de sus habitantes y las condiciones variables del ambiente que les rodea a través de una combinación de dispositivos robóticos. La atención proyectual de Isozaki hacia un contexto interactivo anticipa la cualidad propia del Entorno Aumentado así como otras situaciones proyectuales complementarias, por ejemplo, la capacidad perfectible de la arquitectura a manos de los usuarios o la capacidad de transgredir la reciprocidad entre uso y espacio habitado. La subversión de los ecosistemas ortodoxos de habitación afecta a la articulación entre sujeto tradicional y contexto. En el caso del Entorno Aumentado, el dominio digital induce un proceso evolutivo hacia la consecución de una ecología digital que medie entre el lugar arquitectónico y la extensión ciberespacial. La Nomad Girl House de Tokio (fig.3) del arquitecto Toyo Ito anticipó en la década de los ochenta de manera explícita las nuevas prácticas del habitar propias del periodo posterior a la Revolución Digital. Sin emplear tecnología digital, este referente sintetizaba la disolución de los límites entre la ciudad y la casa, y entre el individuo y el contexto. La casa de la chica nómada tiene una relación parásita con la ciudad de Tokyo, apropiándose del programa público de ocio y trabajo cuando era preciso. Las configuraciones domésticas Pao 1 y Pao 2 profetizaban una versión unplugged de situaciones propias del ciudadano electronómada, usuario habitual en el Entorno Aumentado. 178 El precursor de este aparato, el alemán Willy Müller patentó en 1935 una grabadora de conversaciones telefónicas pensando en los judíos ortodoxos, obligados a restringir las comunicaciones telefónicas en el Shabath. Aunque fue el Dr. Kazuo Hashimoto el que desarrollo en 1958 los modelos de grabación en cinta magnética que se incorporarían al mercado. 322 Fig.1. House of the Future, 1956. Alison y Peter Smithson. Fig.2.Responsive House, 1970. Arata Isozaki. Fig.3.Tokio Nomad Woman. Toyo Ito. Fuente: ‘El Croquis n.77, ‘JA n.66’ Ed. The Japan Architect Los tres proyectos domésticos integran la tecnología de manera diferente conformando una gradación de la presencia tecnológica. La Casa del Futuro propone una inserción tecnológica ubicua, una carcasa de plástico que circunscribe embebidos todos los aparatos electrónicos. Este prototipo se alinea con la propuesta de Augmented City (2010) de Keiichi Matsuda en el deseo de ocultar el hardware tecnológico tras una envolvente minimalista que dificulta al usuario el acceso a las máquinas. Sin embargo, la Responsive House de Isozaki parece no necesitar la envolvente y presenta los dispositivos trasdosados con una membrana flexible capaz de adaptarse a modificaciones múltiples, circunstancia que subvierte la Nomad Girl House de Toyo Ito, cuya tecnología se muestra dispersa en el tejido urbano de la ciudad de Tokio en su afán de deslocalización del programa. La disyuntiva planteada en estos prototipos pre-digitales sobre la ubicuidad o no de la tecnología forma parte del debate contemporáneo de la construcción del Entorno Aumentado. Frente a la computación ubicua179 e imperceptible de Augmented City, la Reconfigurable House de Usman Haque representa la otra posición, mostrando el entramado tecnológico tal cual es. 4.3.1.5. Anatomía de la vivienda aumentada. El análisis crítico de la casuística que se presenta a continuación sobre la vivienda contemporánea en relación con la implementación en su estructura de fundamentos propios del Entorno Aumentado responde a una descripción heurística e inductiva de casos seleccionados por su particular interés en la investigación. La irrupción del Entorno Aumentado en el ámbito doméstico supone la revisión de muchos límites convenidos, como por ejemplo, los límites que define el lenguaje en el proceso de sustantivación del acontecimiento. Los casos de estudio afrontan esta coyuntura desde enfoques diferentes, proponiendo un equilibrio desigual entre los entornos digital y físico. La anatomía de la nueva domesticidad se construye desde posiciones que valoran de manera desigual la dicotomía que supone la deslocalización del programa en la 179 Véase Glosario. New Songdo City es una ciudad ubicua o ciudad-U que se está construyendo en una isla frente a la ciudad de Inchon, a 60 kilómetros al oeste de Seúl. 323 Red y la concentración presencial de los componentes de la capa digital en el lugar físico de la vivienda. El análisis del desvanecimiento de los mencionados límites acarrea una incursión reflexiva por nuevos conceptos cuya etimología resulta a veces tan dudosa como inexistente. A pesar del cliché estereotípico de ‘seductor’ asignado a hispanoparlantes, italoparlantes y francófonos, la lengua japonesa propone muchas más acepciones para referirse al ‘amor’. Algo similar ocurre con el concepto de ‘nieve’, que cuenta con más de setenta términos distintos en el vocabulario esquimal. La nueva extensión digital del lugar físico y la compleja cualidad líquida de nuestra sociedad (Bauman 2006) posibilitan una casuística ingente y diversa de fusión que acuña sustantivos y verbos a toda velocidad. Afectado por esta convergencia, el usuario se posiciona según su dependencia tecnológica haciendo suyo el aserto de Wittgenstein (1997) ‘los límites de mi lenguaje significan los límites de mi mundo’. La domesticidad que habita se construye con su implicación tecnológica y predisposición cognitiva para asumir el campo epistemológico que articula la capa digital. La domesticidad del usuario depende de la nomenclatura. Cadwell (2000) en su ensayo Virtual Domesticity: Renewing the Notion of Cybernetic Living and Working Environments compara el sistema operativo de una computadora con el espacio doméstico ‘Una computadora es un espacio doméstico para potenciales usuarios. Tiene que ser limpiado, mantenido (renovado), customizado y personalizado’. Mis documentos, Mis imágenes, Mi música, Mi biblioteca, mi amigo, mi comida, mi descanso, mi higiene,…etc., son posesiones en propiedad que ordenan la jerarquía informacional, digital o presencial de esa domesticidad. La fusión que propone el Entorno Aumentado se produce en esos términos, bien sea a un lado o a otro de la cuarta pared. Cada vivienda es interpretada180 de distinto modo por el consumidor, comenzando por la percepción subjetiva que se tiene de ésta. El conjunto se particulariza y customiza con el tiempo y el uso181. La estructura de carpetas de Windows organiza el contenido de la memoria digital replicando las funciones de un gran archivo, que no de un gran almacén. La serie Archivo de Marjan Teeuwen (fig.1) se suma a la línea de investigación abierta por Gordon Matta Clarck. Constituye una colección de archivos repletos de material proveniente de casas destruidas y artículos del hogar: asfalto, placas de yeso, listones, platos rotos,…etc., consecuentemente ordenado y archivado. Todos los objetos se han clasificado para que cupieran en un marco cuadrado y posteriormente se han pintado de blanco. ¿Cómo sería esta operación de archivo en una vivienda común? ¿Qué posibilidades ofrecen las viviendas contemporáneas para ser reordenarlas? La GUI (Graphical User Interface) o Interfaz Gráfica del Usuario permite al mismo modificar la definición gráfica de la estructura organizativa (color del escritorio, tamaño de los ‘objetos’, 180 En el sentido de interpretar una composición musical. 181 Imagínese el alcance de la acción ‘formatear’ aplicada a nuestra casa, como si de una computadora se tratara. 324 tipo de salvapantallas,…etc). Del mismo modo, la home o portal182 de una página web de Internet es cada vez más personalizable y capaz de acomodarse al gusto del usuario, ya no es preciso dominar lenguajes especializados como HTML o Java. John Seabrook (Matsuda 2010: 25) describe en estos términos de privacidad y expresividad el portal (home) digital como opuesto a la casa (home) edificada: ‘A home in the real world is, among other things, a way of keeping the world out… An on-line home, on the other hand, is a little hole you drill in the wall of your real home to let the world in.’ La circunstancia particular del individuo contemporáneo ha migrado parcialmente al Entorno Digital. El registro de información que antes se repartía por la casa -los objetos de Teeuwen-, y que la dotaban de una identidad doméstica, se localiza hoy en la ‘nube’ de Internet. A renglón seguido del discurso de Seabrook, hacemos partícipe de nuestra información personal al mundo de un modo cada vez más doméstico. La tecnología nos permite ordenar los enseres digitales en lugares que participan de la domesticidad que propone la vivienda física. No son lugares ajenos porque los hemos creado nosotros, no son distantes porque los adaptamos a nuestra necesidad: son fiel reflejo de nuestra identidad. La simulación virtual que propone la GUI en el Entorno Aumentado, muy alejada de la mera expresión técnica de un código binario, nos re-conforta183 como lo puede hacer un mueble o una planta colocada junto a una ventana del estar. El entorno web del ciberespacio permite compartir de una manera sencilla la domesticidad digital que el usuario infiere a sus herramientas digitales, además de habilitar un espacio de opinión ajena, como el ‘me gusta’ de Facebook o de otros canales sociales. Puedo compartir mi videoteca, mi biblioteca, mi discoteca, mi colección de fotos (fig.2), mis viajes, mis recetas, mis restaurantes preferidos,…etc. La tecnología invita al usuario a apropiarse de esta cualidad de los lugares virtuales de otros. La vivienda que el morador logra adaptar a sus necesidades (de cualquier tipo) es económica. El coste de la capacidad de almacenaje de objetos en el dominio digital es muchísimo menor que en el Entorno Físico. Tal vez por eso vivimos inmersos en una espiral creciente de datos que nosotros mismos generamos, capturamos, analizamos, visualizamos y almacenamos. A este respecto, apunta Manovich (2009) que ‘nos hemos movido del escenario de ‘Nuevos Medios’ al escenario de ‘Más Medios’’. El 25 de Agosto de 2008 los ingenieros de informáticos de Google anunciaron que el indexado de páginas web en <googleblog.blogspot.com> había alcanzado 1 trillón de URL.184 Durante el mismo mes, YouTube.com informaba de que sus usuarios estaban 182 Nótese que el término original anglosajón home no ha sido traducido por ‘vivienda’ sino por ‘portal’. De cualquier modo, la referencia al ámbito doméstico es literal. 183 La cuestión del confort en la vivienda ha sido entendida, casi al completo, por el Movimiento Moderno desde un punto de vista científico exclusivo del confort climático -psicrometría, acústica,…etc.-, obviando subjetividades y afectos. A menudo, los usuarios ajenos a la disciplina arquitectónica se refieren a la ‘frialdad de un hospital’ para describir ciertos niveles domésticos de confort. 184 Disponible en: <http://googleblog.blogspot.com/2008/07/we-knew-web-was-big.html>. (Manovich 2009). 325 subiendo 13 horas de nuevos videos cada minuto.185 Y en Noviembre de 2008, el número de imágenes alojadas en Flickr alcanzaban los 3 billones de imágenes.186 Fig.1. Archivo. Marjan Teeuwen. Fuente: Pasajes nº 122:14. Fig.2. Mapa de Flickr. 3.324.953 elementos con geoetiquetas (fotografías disponibles compartidas por los autores). El Entorno Digital está capacitado para conectar estos reductos funcionales de la vivienda tradicional, con otras informaciones y con otros lugares virtuales. En la carpeta de Mi higiene, los medidores de champú y de gel de ducha indican la autonomía de los depósitos como si fueran cartuchos de tinta de una impresora. La opción de suministro en tiempo real está activada y dispuesta eficazmente para ahorrar tiempo al consumidor. Las estructuras organizativas no son más que cadenas de información cuya condición objetual resulta permanente en la realidad física. Sólo se pueden manipular destruyendo su estado original. No ocurre lo mismo con un archivo digital, que se puede editar y transformar. La convergencia del Entorno Digital y el presencial ha deparado un cúmulo de propuestas de fusión desde que las TIC hicieron acto de presencia en la disciplina arquitectónica. El estado del arte actual es, en cierta medida, heredero de todas ellas. La disyuntiva transdisciplinar existente entre la naturaleza del hardware y del software, objeto de reflexión ya en la década de los sesenta, sigue vigente en el debate arquitectónico. Cómo abordar este equilibrio en lo que respecta a hacer visible esta dualidad es una de las cuestiones decisivas y diferenciales en los casos de estudio escogidos. Los prototipos de vivienda a analizar corresponden a proyectos que se plantean desde una atención arquitectónica hacia el Entorno Aumentado187. Dos de los proyectos, Openarch (2012) y Reconfigurable House (2007-2008), son prototipos construidos mientras que Augmented (hyper) Reality: Domestic Robocop (2010) es un proyecto teórico. Las tres propuestas están dirigidas, parcial o totalmente, por tres jóvenes arquitectos que exploran la arquitectura del entorno Aumentado. 185 Datos disponibles en: <http://en.wikipedia.org/wiki/YouTube>. (Manovich, ibíd..). Datos disponibles en: <http://blog.flickr.net/en/2008/11/03/3-billion/>. (Manovich, ibíd..). 187 Por extensión, podemos referirnos a la ‘vivienda aumentada’. 186 326 La propuesta Openarch diseñada y desarrollada por Ion Cuervas-Mons 188en colaboración con Think Big Factory189 muestra el resultado de la acción de los dispositivos digitales TIC, casi siempre en forma de proyección de la información de la capa digital mediante computación ubicua. La visibilidad de los sistemas de hardware es apenas apreciable, igual que ocurre en los proyectos de Keiichi Matsuda y al contrario de lo sucede en los proyectos de Usman Haque. Openarch es un prototipo construido en Fuenterrabía, País Vasco. Desde la fase de proyecto esta vivienda ha sido diseñada como una interfaz integradora del Entorno Físico y el Digital. Los usuarios participan de modo activo en una estructura aumentada capaz de transformarse y adaptarse a sus necesidades. Tanto la interfaz digital como el sistema de elementos físicos móviles y enrollables están interconectados de un modo flexible. La implantación de la capa digital en el espacio doméstico se efectúa íntegramente. Frente a una combinación fragmentada de gadgets más o menos conseguida, Openarch representa un prototipo sistémico, exhaustivo y complejo. Sus autores190 se refieren así a esta condición digital: ‘La capa digital a la que a partir de ahora llamaremos D.O.S. (Domestic Operating System) incluye una serie de elementos que permiten a los usuarios estar conectados con cualquier persona o espacio, controlar los elementos de la casa mediante el movimiento del cuerpo, realizar conferencias desde la casa, conocer el consumo eléctrico en cada instante, activar cualquier electrodoméstico desde el trabajo, compartir en video y en directo las recetas de cocina con el resto del mundo, crear tu propio plató de tv en el salón,…etc.’ Esta vivienda experimental, diseñada con hardware y software libre, es en sí misma un laboratorio donde ensayar nuevas técnicas191. Etiquetada también como ‘playground habitado’ o literalmente ‘campo de operaciones habitado’, Openarch supone un verdadero campo aumentado de experimentación, heredero del concepto de kit que en su día exploró Archigram. 188 Ion Cuervas-Mons, arquitecto por la ETSAM, es el autor de Openarch (2012) en colaboración de Think Big Factory; Usman Haque, arquitecto por la Bartlett School of Architecture de Londres, y en colaboración de Adam Somlai-Fischer/Aether Architecture y Reorient team, es autor de Reconfigurable House (2007-2008); Keiichi Matsuda, arquitecto por la Bartlett School of Architecture de Londres, es autor de Augmented (hyper) Reality: Domestic Robocop (2010). 189 Disponible en: <http://www.openarch.cc/es>. (Consultada el 10 de junio de 2012). 190 Ibíd. ‘Las incorporaciones de nuevas tecnologías quedarán documentadas y registradas bajo licencias Creative Commons permitiendo descargarlas en forma de Kits’ (Ibíd). 191 327 Fig.3. Openarch, vista panorámica, Ion Cuervas-Mons en colaboración con Think Big Factory. Fuente: <http://www.openarch.cc/>. La visualización de datos procedente, por un lado, de los canales de comunicación que habilita Internet - redes sociales, correo electrónico, videoconferencia,…etc.- y, por otro, de la red de sensores que monitoriza la vivienda, ocupa los paramentos de ésta, convirtiendo el espacio privado doméstico en un intento de convertir el espacio público mediático donde los avatares invitados interaccionan en plenitud gracias a una conectividad óptima: ‘La colocación de sensores que miden la temperatura, el gasto energético, la luz, la contaminación del aire, incluso el CO2 generado por nuestra vivienda. Sensores conectados directamente a Internet para facilitar la comprensión del gasto energético en ciudades enteras o de la contaminación por zonas.’ Openarch puede representar un modelo patrón de una estructura fractal de la ciudad. La combinación de viviendas aumentadas integradas en la ‘aumentada’ infraestructura urbana de la smart city o ‘ciudad inteligente’ asegura un crecimiento y rendimiento exponencial de la interacción y de las posibilidades de habitabilidad urbana. La capacidad de crecer y expandirse a otros ámbitos debe gran parte de su viabilidad a la sencilla accesibilidad que propone el diseño de su interfaz. 328 Fig.4.Openarch, axonometría de los sensores. Ion Cuervas-Mons en colaboración con Think Big Factory. Fuente: <http://www.openarch.cc/>. El entorno arquitectónico físico y el entorno arquitectónico digital de la vivienda aumentada resultan fusionados en una interfaz que en el caso de Openarch puede adoptar dos versiones: intrawall192, operada desde dispositivos electrónicos; o extrawall, ubicada fuera de la cuarta pared y activada mediante el lenguaje gestual corporal, como sucede en la famosa escena de Minority Report en la que Tom Cruise manipula información digital manualmente. Los 192 Openarch propone un sistema de ‘Internet de las cosas’ en base a ‘una red de etiquetas RFID que permitirá mediante un Smartphone con NFC o un dispositivo de lectura poder interactuar y visualizar la información de los objetos sin la necesidad de activar las proyecciones. Simplemente acercando el móvil podremos apagarlo y encenderlo, incluso obtener información en tiempo real de los datos que genera’. Fuente: < http://www.openarch.cc/es>. (Consultada el 10 de junio de 2012). 329 escáneres 3D de tecnología Kinect193 localizados en el techo de la vivienda reconocen el movimiento corporal y permiten al usuario manipular la versión extrawall de la interfaz, que se puede visualizar de cualquiera de las dos maneras. Incluso apagada la visualización de la capa digital de la vivienda, continúa activa reportando datos a la computadora según la programación precisa del usuario. El carácter dinámico de la vivienda es explorado por Usman Haque, Adam SomlaiFischer/Aether Architecture y Reorient Team en el proyecto doméstico experimental Reconfigurable House que se desencadena como acción crítica hacia la tendencia de la computación ubicua de ‘casas inteligentes’ y en favor del carácter abierto y libre de las estructuras tecnológicas, que deberían ser visibles para facilitar el ‘hazlo tú mismo194’. El proyecto, que propone liberar el código digital de la vivienda para su posible manipulación y así lo hace, está disponible para los usuarios en la web del proyecto195. El concepto de perfectibilidad de la vivienda, entendido como la capacidad de la vivienda de ser perfeccionada por el usuario196 es asimismo explotado en este proyecto que exalta la perfectibilidad, o al menos su ‘aperturismo tecnológico’. Habitualmente la posibilidad de interacción del usuario con la capa digital está muy limitada por el conflicto de intereses que supone para la empresa propietaria de los derechos del software, por lo que ya viene programada ‘de taller’ y protegida con un sistema de seguridad que impide la edición del código. La Reconfigurable House constituye un paisaje sensorial múltiple sensible a la luz, al sonido, al tacto, a las pisadas, a las llamadas telefónicas, a los reproductores mp3,...etc. Los visitantes pueden interactuar con el prototipo conectando y desconectando los sensores o los actuadores. Del mismo modo que Openarch, incluso en el caso de que no haya visitantes la vivienda demuestra una auténtica interacción: ‘si se la deja sola por mucho tiempo, se aburre (…) y se reconfigura a sí misma’. 193 Nótese el diagrama de posicionamiento de los dispositivos sobre la axonometría de la vivienda (fig.4). 194 DIY, acrónimo de Do It Yourself (‘hazlo tú mismo’), es uno de los lemas que el movimiento hacker propone a este respecto. 195 Disponible en: <http://house.propositions.org.uk/>. (Consultado el 15 de julio de 2013). 196 Amann & Roig, óp.cit., 2009, p.52. 330 Fig.5. Reconfigurable House (2007-2008). Usman Haque, Adam Somlai-Fischer / Aether Architecture y Reorient Team. Resulta determinante en la factura de esta arquitectura de bajo coste el manejo de componentes baratos, así como la manipulación y reutilización de dispositivos reciclados en el proyecto. Los propios autores presentan el proyecto como hacking low tech Architeture197 o ‘hackeando arquitectura de bajo coste’. En el caso de la Casa Reconfigurable, ‘los componentes provienen de juguetes que se pueden encontrar en cualquier juguetería de barrio198’. La información captada por los sensores es implementada en el software programado por el lenguaje abierto Processing y el controlador de bajo coste Arduino. El ámbito doméstico contemporáneo absorbe la dimensión digital por vías muy diferentes. La definición del límite que separa la capa digital del continente arquitectónico resulta cada vez más difusa. Las propuestas sobre esta coyuntura encuadran la disyuntiva en escenarios más o menos tecnológicos, pero todas comparten una hipótesis común: emplear el uso de las TIC para maximizar la interacción entre el usuario, habitante de la vivienda, y el individuo global 197 Disponible en: <http://house.propositions.org.uk/>. (Consultado el 16 de julio de 2013). 198 Haque & Somlai-Fischer (2005: 3). 331 permanentemente conectado al Entorno Digital. Esta definición de límite afecta a la configuración espacial pero también a la temporal. Federico Soriano (2002: 160) se refiere al tiempo contemporáneo como a una amalgama de acciones que bien pueden fundamentar parte de las cualidades del tiempo híbrido que impera en el Entorno Aumentado: ‘Un lugar de puntos, de superposiciones, de simultaneidades. Los hechos históricos encadenados son sustituidos por una multitud de acontecimientos que definen un paisaje. Cualquier selección parcial debe ser capaz de hablar de nosotros de un modo completo. No es muy importante dudar sobre si es la mejor vista posible.’ La organización temporal del ámbito doméstico, referida en origen al reloj solar y reajustada posteriormente al laboral, responde en el Entorno Aumentado a nuevas necesidades. El tiempo ‘aumentado’, como se observa en estos casos de estudio de viviendas aumentadas es continuo pero lineal, sin interrupción, sin descanso. Además, no computa lo mismo que el tiempo tradicional199. La Scattered House200, una secuela de la Reconfigurable House, propone un tratamiento más avanzado de la información que su precedente. Los datos recogidos por el paisaje sensorial doméstico y refrescado en ‘tiempo real’ gracias a una conexión web con la aplicación Pachube201, un nodo de información que habilita la interconexión y el intercambio de la información entre la casa y sus objetos, y el usuario, cuya capacidad de conexión se expande con los dispositivos portátiles. El efecto de la glocalización tiene en estos dos prototipos su manifiesto construido. En el plano digital de la red, la información concisa que recoge el paisaje sensorial de la casa se transfiere mediante Pachube a los usuarios, de manera que en tiempo real y en cualquier lado del planeta tienen acceso a la infraestructura doméstica. Por otro lado, el Entorno Físico de la casa se construye con elementos reciclados elaborados por un mercado situado a miles de kilómetros de distancia. La incorporación al proyecto de los componentes sensoriales tiene poco que ver con los cauces ortodoxos de distribución de estos objetos en el 199 Si el lector ha cursado algún programa docente on line sabrá de esta circunstancia. 200 La Casa Dispersa es un prototipo construido en el workshop ‘La Casa Dispersa: creando entornos en red con sensores de bajo coste’, celebrado en Julio de 2008 en el Centro Cultural Húngaro de Londres con motivo del Festival de la Arquitectura de Londres. Usman Haque, Adam Somlai-Fischer, Bengt Sjolen y Kitchen Budapest trataron de demostrar las implicaciones establecidas entre el diseño de entornos y edificios en el contexto de la disgregación familiar y la conectividad ubicua en red. Disponible en: <http://www.haque.co.uk/scatteredhouse.php>. (Consultada el 20 de agosto de 2012). 201 Pachube es un servicio web, creado por Usman Haque, para almacenar y compartir información referente a datos procedentes de sensores del entorno y energéticos. El prototipo Openarch también lo integra en su operativo. Más información en Augmented business (The Economist, 4 de noviembre de 2010) o en la web del proyecto, disponible en: <http://umbrellium.co.uk/portfolio/pachube/>. (Consultada el 23 de octubre de 2013). 332 mercado y mucho con acciones autónomas similares a las conductas del hacker con los soportes digitales. Fig.6. Pachube (Actual Xively, antes Cosm). Usman Haque, Sostiene Haque202 que la Scattered House se proyecta atendiendo a cuatro fundamentos. El primero, consiste en la presencialidad simultánea obtenida mediante la conectividad de localizaciones remotas en ‘tiempo real’, que propone la interacción de varios lugares físicos conectados, lo que significa la superación de la dimensión meramente visual de la conectividad en red. Haque203 afirma que ‘la casa no es un lugar, sino un compuesto de fragmentos’204 (‘Home is not a place, it's a composite of fragments’). Esta segunda precisión propone la 202 203 Disponible en: <http://www.aether.hu/2008/scattered/>. (Consultado el 25 de octubre de 2013). Ibíd. 204 Alusión al celebrado artículo de Reynner Banham (1965) A Home Is Not A House: ‘Cuando tu casa contiene semejante complejo de cañerías, conductos de humos, cables, luces, acometidas, enchufes, hornos, lavabos, trituradores de residuos, altavoces HI-FI, antenas, conductos, frigoríficos, calentadores – cuando contiene tantos servicios que el equipo podría soportarse por sí mismo sin ayuda de la casa, ¿para qué tener una casa para sostenerlo? Cuando el coste de todo este instrumental es la mitad del coste total (o más como sucede a menudo), ¿Qué es lo que está haciendo la casa excepto esconder sus partes pudendas mecánicas de la mirada de los transeúntes? ...’. 333 construcción de lugares en base a la unión de fragmentos, tanto físicamente fraccionados como geográficamente separados: ‘Así es como muchos de nosotros ya vivimos en el siglo veintiuno y contrasta directamente con el ‘entorno bien temperado’ de Reyner Banham. Para muchos de nosotros, esta ‘casa contemporánea’ es una idea construida desde diferentes lugares, fluctuando sobre el tiempo. Pero sin embargo, consiste en una fuerte identidad cultural para el individuo. Creando un espacio que es exactamente como el modo en que vivimos y sentimos los espacios reales, la la Scattered House es un ejemplo de una arquitectura que puede volverse sensible a nuestra noción alterada de ‘vivienda’.’ En tercer lugar, la Scattered House enfatiza la idea de no distinguir entre ‘virtual’ y ‘real’ o ‘local’ y ‘remoto’. La segregación y deslocalización de la casa en partes diversas propone una ruptura con el vínculo contextual, no hay una jerarquía de privilegios con respecto a la localización geográfica. Fig.7. Arduino working model of the intelligent façade and roof system, 2013. Max Fiedlander, Y2, Social Service of Comerce. The Barlett School of Architecture. Fig.8. Placa de Arduino, 2012. Fig.9. Conjunto de sensores. Por último lugar, el proyecto hace referencia a la condición multidisciplinar y multicultural de los participantes, implementada ya desde la fase de diseño y en el propio sistema abierto de producción. La integración de la ‘comunidad’ en el desarrollo de la arquitectura del sistema propicia que la cualidad cultural de ese sistema vaya más allá del usual ‘High Tech’ o del estándar de ‘casa inteligente’. La incorporación de la dimensión temporal, incluso en ‘tiempo real’, en el proyecto de arquitectura alcanza una etapa más evolucionada con la eclosión de las arquitecturas responsivas205. El maridaje de dispositivos tecnológicos digitales y físicos abre nuevas vías de investigación en la vanguardia arquitectónica. El proceso proyectual arquitectónico tiene como 205 Del inglés responsive. 334 protagonista al arquitecto-programador cuya labor pretende optimizar la adaptación sensible del edificio al entorno tomando herramientas digitales que permiten introducir la dimensión dinámica en lo arquitectónico. La colonización sensorial (fig.9) del lugar aumentado permite registrar las condiciones físicas del lugar y ponerlas a disposición de la computadora para ser interpretadas de inmediato por la máquina y por el usuario. La respuesta del edificio a esta toma de datos es previamente valorada por el arquitecto al diseñar el algoritmo ‘responsivo’ del proyecto206. Esta conexión técnica implica una reinterpretación del vínculo de lo arquitectónico con el contexto -tangible e intangible- que revisa las condiciones ecológicas, en el sentido de alterar las relaciones entre usuarios y entre éstos y su hábitat. La incorporación del microcontrolador Arduino207 (fig.8) al proyecto de arquitectura introduce, entre otras, la posibilidad de sumar la parametrización sensorial al control de dispositivos mecánicos capaces de cualificar y adaptar el edificio a situaciones cambiantes. Propuestas de esta índole se producen en programas académicos vinculados a las técnicas emergentes (fig.7), así como en el conjunto de estudios especializados en este tipo de arquitectura interactiva. Tal es el caso del estudio Realities United, integrado por los berlineses Tim Edler y Jan Edler, y sus proyectos de envolventes responsivas mediáticas, o la firma austriaca Giselbrecht + Partner208, y sus fachadas construidas con módulos tridimensionales móviles que responden coreográficamente a la llamada de la computadora. En el caso de Floatable209, Husman Haque propone un espacio conceptualmente contrapuesto a esta inercia o tendencia tecnológica de proyectos responsivos, al reclamar para el usuario un espacio privado con ausencia de interacción electrónica: llamadas de teléfono, e-mails, sonidos, olores y patterns térmicos,…etc. Floatable supone un auténtico oasis temporal, un inhibidor tecnológico para aquellos que quieran preservar su ‘yo’ alejado de la circunstancia contemporánea sobre-mediatizada. Los proyectos experimentales de Keiichi Matsuda resultan de sumo interés para poder visualizar una de las posibles configuraciones del Entorno Aumentado tanto en el ámbito doméstico, Augmented (hyper) Reality: Domestic Robocop (Matsuda 2010), como en el de la ciudad, Augmented City (Matsuda 2010b). Su March Thesis ‘Domesti-city. The dislocated home in augmented space’ es una referencia en este campo de investigación. 206 A disposición del lector una nutrida colección de ejemplos en: <http://robofacades.wordpress.com/>. (Consultada el 20 de agosto de 2013). 207 Arduino es una plataforma de hardware libre, basada en una placa con un microcontrolador y un entorno de desarrollo, diseñada para facilitar el uso de la electrónica en proyectos multidisciplinares. Fuente: <http://arduino.cc/ >. (Consultada el 2 de mayo de 213). 208 Véase Kiefer Technic Showroom, disponible en: <http://www.pleatfarm.com/2010/01/18/dynamic-facade- design-kiefer-technic-showroom/>. (Consultada el 10 de junio de 2013). 209 El proyecto está disponible en: <http://www.haque.co.uk/floatables.php>. (Consultado el 13 de junio de 2013). 335 Fig.10, Augmented (hyper) Reality: Domestic Robocop, Keichi Matsuda, 2010. Frente a los prototipos experimentales de Ion Cuervas-Mons o de Usman Haque, Keiichi Matsuda articula un ensayo teórico alrededor de los fundamentos del Entorno Aumentado, ilustrándolo con información audiovisual. Dada la condición dinámica del Entorno Aumentado, el soporte audiovisual se antoja imprescindible para la explicación y posterior comprensión del verdadero alcance de esta coyuntura tecnológica. Los videos y fotomontajes que ilustran la obra de Matsuda responden extraordinariamente a esta descripción210. Matsuda reproduce en video una escena que tiene lugar en el entorno aumentado de una cocina (fig.10) en la que se observa la superposición de la capa digital de información en los paramentos, el mobiliario y los electrodomésticos. La figura 10 representa un fotograma que muestra una escena en la que el protagonista prepara una taza de té. El buscador de recetas (digital) está abierto por la página de ‘Cup of tea’, que le avisa de que va a consumir la última bolsa de infusión. Sobre el calentador de agua (kettle) aparece una indicador temporal de igual modo que podemos visualizar información referida a la botella de leche. Los planos verticales del mobiliario están cubiertos con información publicitaria que va cambiando su contenido como si tratara de una valla de anuncios de un campo de fútbol 210 Disponible Augmented city en: <http://www.keiichimatsuda.com/augmentedcity.php>, y Augmented (hyper)Reality: Domestic Robocop en: <http://www.keiichimatsuda.com/augmented.php>. (Consultadas el 7 de agosto de 2013). 336 . Fig.11, Augmented (hyper) Reality: Domestic Robocop, Keichi Matsuda, 2010. La escena previa tiene lugar en la figura 11 (representa el fotograma anterior a la figura 10) donde el usuario, cuyas manos aparecen en primer plano, despliega con un gesto el teclado que habilita el campo de escritura del buscador de recetas. Como puede observarse, la capa digital propuesta en este proyecto concentra su carga propositiva, casi en exclusividad, en el tratamiento del paisaje audiovisual, que fusiona los medios de comunicación con otros canales informativos. La técnica recupera y posibilita hábitos de vida milenarios y a la vez desencadena nuevas rutinas relacionadas con estructuras evolucionadas de comunicación. El ciberespacio deja de ser una circunstancia lejana que sucede en una pantalla para convertirse en el contexto líquido que nos rodea. El habitante del Entorno Aumentado percibe el mundo hiper-real de un modo completamente inusual. Como sucede habitualmente en estos casos, la transferencia tecnológica va mucho más allá: ‘el ser humano inventa nuevas tecnologías y éstas, en contrapartida, reinventan el ser humano’211. 211 Institute for the Future, disponible en: <http://www.iftf.org>. (Consultada el 4 de julio de 2013). 337 4.3.2. La ciudad aumentada. Domesticación de la ciudad. 4.3.2.1. La disolución del entorno dicotómico tradicional. ‘La arquitectura ya no es simplemente el juego de los volúmenes bajo la luz: ahora incluye el juego de la información digital bajo el espacio’. William Mitchell, e-topia, 1999. Fig.1. Calle Actual, Calle Futura. Eugène Hénard, 1910. ¿Cómo debe ser la ciudad del futuro? Eugène Hénard a partir de cómo debe ser la calle plantea la Calle del futuro (fig.1). Asociada tradicionalmente al espacio público, la calle es la viva imagen de la ciudad, su referente. Hénard describe la ciudad del futuro en sección donde se adivina el solapamiento, inapreciable en planta, de los usos, de los sistemas energéticos, de las redes de transporte y sobretodo, se identifica la segregación dicotómica212 de lo público y lo privado213. En el plano (fig.1) se aprecian las aportaciones técnicas que vienen a resolver los problemas de insalubridad. Los avances tecnológicos de aquella primera época de la máquina configuran en la cabeza de 212 Véase definición en el Glosario. 213 Alguna vez oí decir al profesor Antonio Miranda (ETSAM) que la dimensión de la calle debe ser tal que un peatón pueda distinguir el contenido de los escaparates de la acera de enfrente. 338 Hénard una Rue Future que plantea la estratificación vertical del sistema de circulación y de la distribución de usos públicos y privados. La circulación de vehículos resulta un problema de difícil solución en esos momentos, aunque también lo fuera en la Roma imperial o en la ciudad medieval. Hénard anticipó el estacionamiento en cubierta de vehículos voladores214 e integró en el subsuelo instalaciones de diferente índole, además del tránsito pesado -exceptuando el tranvía superficial-. Hénard trazó en este proyecto una ciudad del futuro basada en la capacidad de las nuevas técnicas. Una apuesta evidente por el progreso. Un siglo después, la disposición segregada de una ciudad resulta poco operativa e insostenible. La calle como referente comienza a ser puesta en entredicho por los nuevos modelos asociativos entre lo público y lo privado. La frontera escalar que tradicionalmente separaba las dicotomías privado-público, local-global, individual-colectivo y tantas otras acontecidas en la trama urbana a la sombra de la más determinante casa-ciudad queda obsoleta en el Entorno Aumentado. La relación de vasos comunicantes dada entre lo privado y lo público desaparece. Al ser el Entorno Aumentado la suma de otros dos, es factible215 que uno de ellos corresponda a un ámbito privado y otro a uno público, lo que supone un contrasentido pues tradicionalmente un lugar no puede ser privado y público a la vez. Los no-lugares, los lugares in between -intermedios- y otras muchas demarcaciones cuyo uso, geometría o cualidad ha sido desdibujado a favor de otras cualidades son un ejemplo de espacio neutro. En palabras de Marc Augé216 (1995: 77): ‘Si un lugar puede definirse como un lugar de identidad, relacional e histórico, un espacio que no puede definirse como espacio de identidad, ni como relacional, ni como histórico, definirá un no lugar.’ La coyuntura alcanza a todas las dicotomías cuyos conceptos complementarios pueden participar del Entorno Digital. La contaminación de estos límites se produce de manera simultánea en la ciudadanización de la domus y la domesticación de la ciudad. La aceleración que las TIC han inferido a la transformación del criterio relacional entre lo público y lo privado se encuentra entre las causas de esta ruptura. Este argumento resulta alineado con lo que algunos han señalado como ‘el declive del espacio público’, apuntado prematuramente por el sociólogo Richard Sennett (1970, 1973), y cuya característica principal consiste en el desplazamiento de los asuntos públicos a la esfera privada y la ‘ocupación’ de lo público por asuntos privados, como ha expuesto, entre otros, Zygmunt Bauman (2001). Según afirman Vidal & Pol (2005: 281), para Bauman se trata de un aspecto paralelo al tipo de globalización económica neoliberal dominante, y hace notar la desaparición 214 Esa misma hipótesis desencadena el proyecto Skycar City. MVRDV-UWM (2007) Skycar City, Barcelona: Actar. 215 Un individuo puede encontrarse en un parque público inmerso en una videoconferencia privada. 216 Acuñó el término ‘no-lugar’. AUGÉ, Marc (1995) Non-places: Introduction to an Anthropology of Supermodernity, p. 77, London/New York. 339 de los espacios públicos tradicionales, espacios de discusión donde se genera el sentido y se negocian los significados, sustituidos por espacios de creación privada destinados a ser objeto de consumo, consecuencia de la paridad social generada por la globalización, que a unos hace locales y a otros globales. Esta segregación social genera lo que Trevor Boddy (2004) denomina ‘ciudad análoga217’ entendida como un simulacro o analogía de la ciudad porque descuida la ‘civitas’ y la ‘polis’, como también han expresado Jordi Borja y Zaida Muxí (2001). Una ciudad que se construye sobre un loci multiplicado con una nueva extensión que segrega un tejido urbano compuesto según Matsuda (2010: 12) por: ‘datos con etiquetas geo-referenciadas, notas, blogs, fotografías, videos, sonidos, transacciones (…) constituyen el material de construcción, adquiriendo orden y significado según se habita. No puede ser vista con el ojo desnudo, por lo que su verdadero carácter está inexorablemente ligado a la tecnología y a la interfaz que facilite su percepción, el agente mediador entre el sujeto y la ciudad.’ Para Matsuda218 la ocupación de la ciudad aumentada ‘no será una experiencia desconocida y temerosa, sino personal y doméstica’. La domesticidad es una propiedad inherente al ser humano que trata de colonizar su proximidad. El individuo proyecta su identidad en el coche, en su casa, en su trabajo, en sus hijos,…etc, pero también en los medios. A pesar de estar desaconsejado en muchas ocasiones, el individuo continúa nutriendo las redes sociales con su intimidad. Compartir cada vez más y mejor parece ser la tendencia. El agotamiento general de los espacios dicotómicos tradicionales y la emergencia de entidades espaciales que responden a nuevas cualidades son la causa de una circunstancia propia de nuestra contemporaneidad. Así, la urgencia de palabras que definan los nuevos conceptos, que acuñen las acciones, los sustantivos,...etc., está presente y es inherente a la construcción del Entorno Aumentado. Gran parte de su vocabulario comenzó a acuñarse a raíz de la invención de la computación. Al finalizar la Revolución Digital y tomar aceleración el proceso de configuración del Entorno Aumentado, el campo teórico de la crítica y el mercado de la 217 Echeverría (óp.cit., p.112) se refiere a la analogía en los siguientes términos: ‘(…) en el E1 (medio ambiente natural) y en el E2 (entorno urbano) se razona por metáfora y analogía. Hasta la geometría está basada en la proporcionalidad, que no es sino una modalidad de analogía. (…). En el tercer entorno las analogías no desaparecen, pero su importancia es mucho menor. El aparato sensorial humano está determinado hasta tal punto por las relaciones de analogía que incluso el mundo digital acabo adoptando un formato analógico para que los seres humanos lo puedan percibir (…).’ 218 Ibíd. 340 producción tecnológica construyen con premura la sustantivación del nuevo entorno219. En Los señores del aire: Telépolis y el Tercer Entorno, Javier Echeverría propone y justifica, en oposición a la terminología pre-digital (anterior a Telépolis) un conjunto de voces que definen propiedades del Entorno Aumentado del que cabe destacar los siguientes ejemplos: ‘distal’, frente a ‘proximal’; ‘multicrónico’, frente a ‘sincrónico’; ‘representacional’, frente a ‘presencial’; o ‘transnacional’, frente a ‘nacional’. A su vez, ‘tecnomadismo’ (Roberts220) -de technomadism- o ‘electronomadismo’ (Mitchell 2004: 158) de -electronomadics- se suman a las propuestas de Keiichi Matsuda (2010: 39) en relación a la ocupación ‘blanda’ de los nuevos lugares aumentados. Matsuda propone una nueva jerarquía dicotómica con ejemplos como: ‘abierto’ y ‘propietario’ -open vs proprietary-, en referencia a la accesibilidad y autoría del Entorno Aumentado; o ‘duro’ y ‘blando’ -soft vs hard-, para distinguir lo ‘objetivo’ y ‘fijo’ frente a lo ‘subjetivo’ y ‘dinámico’. 4.3.2.2. El umbral aumentado. La sintonización del paisaje. Pablo R. acuñó su recuerdo de Venecia como la ciudad soporte de la Bienal de Arte. Era pintor. Cada rincón de la ciudad escondía una acción artística, como si de una red de franquicias se tratara. La Bienal constituía un conjunto heterogéneo de microimpactos, un guante urbano en la mano veneciana que mantenía cautivo al turista. El recuerdo de Pablo M. evocaba Venecia como una confluencia de sabores y olores que cristalizaba en pequeños puestos de pizza, cicatti y polpete. Las calles constituían auténticos circuitos gastronómicos. El mapa sensorial de Venecia de Pablo M. comprendía una amalgama de nutrientes recomendado por las guías Lonely Planet, Gourmet Tour y un extenso e-mail remitido por su amiga veneciana Sara Martini. Tal era su interpretación de la ciudad, probablemente consecuencia de una infancia transcurrida entre las mesas del restaurante que aun comandaban sus padres. Pablo O. se despertaba con el sonido acuático de los taxis y sincronizaba su biorritmo con el tañir del campanile de San Marcos. En sus paseos, se elevaba sobre la reverberación pétrea de las composiciones polifónicas que Antonio Vivaldi orquestó para el conjunto de cámara de la iglesia de la que fue párroco, sobre las interpretaciones corales en San Marcos, el murmullo de la muchedumbre de Rialto, las sirenas de los vaporettos, los ecos de los gondolieri. El mapa de los sonidos de la ciudad ordenaba el recuerdo de la Venecia de Pablo O. El cerebro humano, sugestionado por la disposición a priori de la subjetividad del individuo, dispone su atención hacia una interpretación particular del conjunto perceptivo. El visitante de 219 El origen de sendas fuentes -anglosajón o asiático- hace que los neologismos tecnológicos coincidan casi siempre anglicismos. Esta cercanía a la invención tecnológica parece advertir en la lengua inglesa una mayor tradición, flexibilidad y capacidad para la creación semántica. Habitualmente la transferencia de la producción tecnológica al mercado tiene lugar primero en Estados Unidos, a continuación el producto se vende en los demás continentes. Esta es la razón por la cual los neologismos derivados por el uso de la nueva tecnología se acuñan en inglés. 220 Steve K. Roberts fue el tecnómada pionero, su Nomadic Research Labs está disponible en: <http://microship.com/>. (Consultado el 10 de mayo de 2012). 341 Venecia está predispuesto a proyectar en ella su circunstancia personal. La ciudad no es la apariencia de una confluencia arquitectónica. Parece que pocos son los recuerdos de ciudades se que se construyen sobre su diagrama infraestructural. A este respecto sostiene Marshall McLuhan (1967) que ‘la ciudad ya no existe, salvo como espejismo cultural para turistas’. La ciudad se constituye como una estructura poliédrica de información localizada en el mercado, en los cafés, en la Bolsa, en las plazas, en la comunidad de vecinos, en la vivienda. Las fuentes de información son múltiples: el ciudadano, los sistemas energéticos, la geometría de su traza, la política,…etc., y su transición obedece a medios de distinta naturaleza: dispositivos electrónicos, Internet, tuberías, aire, carreteras,…etc. Esta estructura informacional propicia, en forma de vínculos o disociaciones, interacciones que se manifiestan en una configuración concreta espacio-temporal de contenidos y continentes, de llenos y/o vacíos. La estructura urbana ordenada según una extensión de las diferentes categorías de información, puede plantearse desde el nodo emisor de información -cada ciudadano, cada máquina- junto con las conexiones, que tejen una red con capacidad de atraer o generar actividad nueva. A veces, los nodos periféricos se manifiestan en piezas de tejido urbano conectados al núcleo central mediante un cordón umbilical de instalaciones -y de información- que los hacen partícipes de la densidad informacional del núcleo madre. La ciudad contemporánea no se agota con la distribución de la traza construida221. La organización espacial de su naturaleza resulta sustituida a diario por otra de índole topológica, donde la distancia en metros no es lo relevante y si lo es la capacidad informacional de los diferentes flujos. A esta circunstancia la denomina Manuel Castells ‘espacio de flujos’222. La percepción de la ciudad como red de información se califica habitualmente con la partícula ‘hiper-’. Hace trascender al sustantivo prefijado, en el caso de la hiperciudad, la realidad presencial del modelo urbano tradicional. En este sentido puede afirmarse que la hiperciudad siempre ha existido porque la ciudad siempre ha denotado información. La coyuntura tecnológica actual permite que la hiperciudad se manifieste mediante otros medios diferentes a los tradicionales. El medio digital aumenta la capacidad informacional del entorno físico urbano. La acumulación exponencial de información en la capa digital responde al proceso dinámico de generación, captura, análisis, visualización y almacenamiento, generada en un 70%223 por individuos particulares (Manovich 2009). La ciudad anterior al siglo XXI fue planeada por una 221 Sobre este particular reflexiona Echeverría (op.cít.,p.89) en el apartado Materialidad vs informacionalidad, 222 Citado en Echeverría, ibíd., p.89. 223 IDC (International Data Corporation), The Diverse and Exploding Information Universe. 2008. Disponible en: <http://www.emc.com/digital_universe>. 342 élite y estructurada en base a una taxonomía jerárquica que padece síntomas de agotamiento224. La ciudad del Entorno Aumentado la construyen en un elevado porcentaje los propios usuarios. El declive de la ciudad segregada propuesta por el Movimiento Moderno y defendida en los sucesivos CIAM ha supuesto la revisión de un modelo urbano que debe asumir un tejido social sostenible, también en términos informacionales. La tecnología dinamita las barreras de contención de usos propios de la ortodoxia conductista y de imposturas positivistas. El tiempo de trabajo se mezcla con el de ocio, el horario laboral ya no se ajusta al reloj solar sino que se diluye en la condición líquida de las estructuras en red. La responsabilidad técnica de lograr un planeamiento urbano de éxito no recaerá exclusivamente en el planeamiento urbanístico de la ciudad masiva del siglo XX. La dimensión digital de la ciudad dinamiza y gestiona las demandas diarias de los ciudadanos. Su versión masiva no basta como soporte social solvente del urbanita contemporáneo. La organización de la información en la ciudad tradicional dispuesta en base al acopio de sustratos independientes ya no resulta operativa en las estructuras urbanas del Entorno Aumentado, cuya naturaleza híbrida ha propiciado organizaciones en red que se ajustan al orden rizomático del hipertexto. La polis del Entorno Aumentado dibuja una red casi de interacciones con tramos de información cristalina que no lleva a más interpretaciones que la meramente literal, pero a la vez, habilita el enlace con otros flujos de información. Cada ciudadano accede a diferentes nodos de información según sus propios intereses vitales: profesionales, sociales, afectivos, de ocio,...etc. Cada uno tiene una experiencia informacional diferente y propia de la ciudad. La realidad urbana no es única, sino múltiple. Tantas realidades como puntos de vista podamos tener de ella: el ciego, el millonario, el niño, el funcionario,…etc.; pero también tantas como cuantas conexiones podamos establecer con la capa digital de la ciudad, en función por ejemplo de las empresas de telecomunicaciones o del tipo de hardware y de software TIC. Hay muchas Venecias, pero muchas más aumentadas. La percepción del paisaje tradicional depende de las características del medio interpuesto entre objeto y sujeto, y de las características del órgano sensorial perceptor. La intensidad de la percepción depende, entre otros factores, de la distancia perspectiva. La percepción del paisaje aumentado no está sujeta a las leyes de la óptica o la acústica biológica. El dato nuevo que aumenta la presencia de un lugar físico concreto se posiciona -vincula- en ese lugar, geolocalizado, dado el caso, por el sistema de referencia GPS. Su percepción está sujeta y programada según instrucciones registradas en la capa digital operadas por el dispositivo del usuario. Esta disposición o capacidad para la acción perceptiva de lo digital define el concepto 224 Por ilustrarlo con algún ejemplo, recuérdense los sucesos desencadenados como protesta social a la implantación de sendos proyectos urbanísticos en el bulevar de Gamonal en Burgos o en la Plaza Taksim en Estambul. ‘En general nos preocupamos del paisaje urbano, no advirtiendo las amenazas sobre el paisaje humano’. (José Saramago en Amann, 2011: 43). 343 de umbral aumentado225 o ámbito perceptivo asignado a un campo de información digital. Es independiente del punto geográfico donde se produce (se ‘ancla’) la localización de la información. La disposición de información está programada para que se haga visible de determinada manera, en un tiempo específico y por un agente concreto. La envolvente digital de un edificio puede empezar a ser percibida -vista, oída olida,…etc.- por un paseante, a través de su dispositivo electrónico, desde la acera de enfrente al edificio o desde una distancia mucho mayor. Tampoco la escala de la información digital tiene que acomodarse a la información física de la tradicional, ni siquiera tiene por qué ser una información estática, si no que su naturaleza transfigurable permite dinamizar esa presencia. Fig.1. Augmented City. Keiichi Matsuda, 2010. La capa digital -o la ‘lectura’ de ella- podrá elegirse independientemente de la condición del ciudadano, que puede abandonar su condición de manera ipso facto, y sumergirse en la liquidez de la ciudad aumentada, sintonizando la ‘ciudad’ que prefiera, tan solo tiene que señalar el punto deseado del dial226 para comenzar a vivir la realidad híbrida. La construcción del entorno aumentado no parece ser completamente accesible al ciudadano. No basta con que el ciudadano-usuario disponga de un soporte digital que le permita acceder a la Red. De la misma manera que la experiencia urbana de un ciudadano de a pié se circunscribe a unos lugares precisos y diferentes a los que componen el mapa fenomenológico de otros conciudadanos, el usuario ‘aumentado’ tendrá activado un acceso restringido a determinados lugares digitales. Este filtro ya se produce desde el propio aparato electrónico, de hecho, las compañías telefónicas ofrecen conexiones diferentes. El número de puntos del dial aumentado disponible para cada ciudadano está regulado por el mercado: si pagas más, tienes mejor acceso a la red de información; si pagas mucho más dispones del dial completo. 225 A propósito de la dimensión del umbral aumentado considérense los conceptos de ‘proximalidad’ y ‘distalidad’ acuñados por Echeverría (ibíd., p.58). 226 Blended Reality Digital Story: The World As I Choose to See It es un proyecto audiovisual del Institute for the Future. El video cuya dirección adjunto muestra una simulación de un paseante que lleva puestas unas gafas aumentadas. Disponible en: <http://www.iftf.org/our-work/people-technology/technologyhorizons/blended-reality/>. (Consultado el 10 de septiembre de 2013). 344 La información digital del Entorno Aumentado está conectada a Internet de modo más o menos ubicuo. Es el internauta el que elige lo que quiere ver, aunque en muchas ocasiones sea una elección condicionada. La carrera por el control de la interacción ya ha comenzado, las multinacionales se posicionan para encontrar un lugar preferente desde donde dominar la Red y la ciudad. Fig.2, Augmented (hyper) Reality: Augmented City. Keichi Matsuda, 2010. El paisaje aumentado que ofrece la ciudad dial añade la dimensión digital a física. La geolocalización digital de la imagen o del sonido o de olor en un punto concreto de la ciudad puede darse según diferentes parámetros. Uno de ellos hace referencia a la naturaleza híbrida del Entorno Aumentado y regula el solapamiento de los dos entornos hibridados en relación con su percepción. El grado de convergencia o fusión que se alcance determinará el carácter del Entorno Aumentado, proponiéndose la siguiente clasificación de su paisaje: 1. Paisaje aumentado supradigital, o de percepción digital exclusiva. Supone una percepción opaca de la capa digital, tal que se impide la percepción del paisaje urbano tradicional, como sucede por ejemplo con una valla publicitaria. 2. Paisaje aumentado transdigital, fundamentado en una percepción mixta. La información digital se muestra total o parcialmente permeable a la percepción de fondo de la realidad física. El gradiente de permeabilidad de la capa digital define así mismo la porosidad digital del Entorno aumentado, algo así como su grado de penetración en la cotidianeidad. La porosidad y la compacidad son atributos propios del espacio topológico227 del Entorno Aumentado. 227 Téngase como ejemplo de información topológica el mapa del metro de Madrid. 345 3. Paisaje aumentado ubicuo, propio de una percepción exclusiva de la realidad presencial. La información digital queda oculta tras el paisaje masivo tradicional. Por ejemplo, el hilo musical de un ascensor. Fig .3. Augmented City. Keiichi Matsuda, 2010. William J. Mitchell (1999) se refiere al paisaje supradigital, por ejemplo el característico de Matrix, como a un ‘tipo de solipsismo alimentado electrónicamente (…) extraordinariamente inútil’. Prefiere referirse a una nueva arquitectura híbrida que integre la percepción digital con la física (paisaje aumentado transdigital): ‘Es posible por ejemplo, incorporar prismas en las piezas oculares de las gafas de realidad virtual, lo que sobre-impresiona gráficos de ordenador en la escena circundante, de manera que da la impresión de que los objetos virtuales en tres dimensiones se mezclan con los físicos’. En el prólogo de e-topía, Mitchell (1999) resume la historia de la ciudad en base a los adelantos tecnológicos. Finalmente concluye: ‘La historia se repite, esta vez porque el sistema de suministro de información ha cambiado. Antes, teníamos que ir a lugares para cosas; íbamos a trabajar, a casa, al teatro, a conferencias, al bar de la esquina o salíamos por ahí, sin más. Ahora tenemos tuberías para bits, redes 346 digitales de gran capacidad para transportar información cuando y donde queramos. Esto nos permite hacer muchas cosas sin tener que ir a ninguna parte; por el contrario los antiguos lugares de reunión ya no nos atraen; las organizaciones se fragmentan y dispersan; los centros urbanos no se mantienen; da la impresión de que la vida pública va desapareciendo’. Como otros muchos analistas, Mitchell atisbó una involución de la vida social y por tanto de la ciudad entendida como foro social. ¿Para qué vamos a salir de casa si lo podemos hacer desde casa con Internet? El solapamiento de los centros históricos de las ciudades con la dimensión digital hace posible repensar y reestructurar la ciudad de un modo casi instantáneo. La forma, el uso, la interacción de muchos lugares que están en desuso porque su condición urbana no permite albergar actividad propia del momento puede ser alterada tanto por sus moradores, como por los visitantes, como por las administraciones. De repente se nos brinda la oportunidad de utilizar una barita mágica para hacer ‘desaparecer’, por ejemplo, el trozo de ciudad que queramos. 4.3.2.3. El entorno transfigurable y el declive de la estética estática. La integración de información en la fachada se remonta a las primeras construcciones, de la misma forma que la comunicación lo hace a la apertura de huecos en los muros. El concepto de privacidad transferido al ámbito social228 y el progreso de las técnicas constructivas en referencia a la capacidad ejecutoria del hueco en fachada suponen dos circunstancias interrelacionadas a tener en cuenta en la historia de la convergencia de la comunicación y la arquitectura. La conexión entre arquitectura interior y exterior está ligada al hueco, y por extensión, al uso del vidrio. La fabricación de vidrio cuenta con al menos dos mil años de tradición. A las fórmulas antiguas que combinaban arena y óxido de hierro se añadieron en la Edad Media ceniza de helecho, potasa, piedra caliza y manganeso. Richard Sennet (2008) recuerda que el proceso de fabricación (soplado) del vidrio era caro y lento: ‘(…) el conde de Northumberland los hacía quitar de las ventanas de su castillo cada vez que salía de viaje. En la Edad Media, lo mismo que en la Antigüedad, normalmente el papel aceitado hacía las veces de vidrio en las ventanas de los edificios más comunes.’ La fabricación de vidrio de espesor uniforme en el s. SVIII gracias a las técnicas mecánicas del laminado desarrolladas por Saint Gobain -frente a la competencia del vidrio soplado veneciano- 228 La tradición calvinista holandesa de no temer a la exposición pública de la privacidad contrasta con la salvaguarda del ámbito privado que postula la tradición islámica; bioclimatismo y moral también se entrelazan. 347 puso a disposición del arquitecto un material capaz de cubrir luces nunca vistas (fig.1). Dos siglos después, el uso extendido de los rayos X en la práctica de la medicina del primer cuarto del siglo XX parece influir en la necesidad que experimentan arquitectos como Mies van der Rohe de hacer visible el interior del edificio, y en última instancia, la disolución total del límite con el exterior (Colomina 2006). Fig.1. Fabrication de la glace à la table à la manufacture de Saint-Gobain. l'Encyclopédie de Diderot et d'Alembert. Fig.2.N Building. Fotografía de Omori Yuki. Fig.3. Ready to wear. A Rhetoric of wearable computers realityshifting media, 2013. Isabel Pedersen. La manera tradicional de implementar información digital en el edificio corresponde al paramento compuesto por una o múltiples pantallas digitales que reproducen imágenes. El precursor analógico de esta membrana es el cine y la televisión. Dado el tamaño de los aparatos de televisión, la configuración de los primeros muros mediáticos se resolvía con una disposición multi-pantalla o en‘muro televisivo’. Su incorporación arquitectónica se remonta a mediados del siglo XX, formando parte de proyectos como Glimpses of the USA, de Ray y Charles Eames, encargado por el vicepresidente Nixon para la Exposición Americana en Moscú de 1959. Siete pantallas de 6x9 metros reproducían simultáneamente más de 2000 imágenes repartidas en dos películas: una de 9 minutos sobre un día de trabajo de un ciudadano en USA; y otra, de 3 minutos sobre un típico día de ocio propio del New Deal estadounidense. Esta visión caleidoscópica del american way of life fue una de las primeras versiones de mosaico televisivo. Todo ello en el marco de la Guerra Fría y bajo la cúpula de Buckmister Fuller. El ciudadano de la sociedad de la información está habituado a percibir cientos de imágenes al día; es difícil focalizar la atención en una sola, porque nunca se da sola. La situación recuerda a las salas de un museo de pintura del siglo XIX donde la acumulación barroca de lienzos cubría la totalidad de los paramentos. Esta situación, contraria a la simplificación del minimalista, ha propiciado una nueva forma de percibir (Colomina 2006) más ágil y no lineal: el mosaico frente al lienzo. Las imágenes ya no ilustran la cotidianeidad, son la cotidianeidad. En octubre de 2011, el portal de fotografía Flickr superó la barrera de los doscientos millones de imágenes públicas bajo la licencia Creative Commons. La fabricación de imágenes resulta inmediata, los soportes son múltiples y los formatos compatibles. En el siglo XIX y gran parte del XX, generar una imagen era lento y a menudo costoso. Grabados, acuarelas, oleos o fotografías, afrontaban la tarea de ‘inmortalizar’ el tiempo. La ceremonia del ritual de la 348 representación preparaba al objeto o al sujeto para la aventura inmutable de resistir el paso del tiempo. Las imágenes constituían fundamentalmente recuerdos. Hoy muchas imágenes se construyen, no para ser recordadas sino para informar. En este sentido, puede observarse que las últimas generaciones nativas digitales, criadas al amparo de las redes sociales, conviven sobreinformados con una hiperactividad digital -entendida en comparación con las generaciones anteriores- que les mueve a comunicar con imágenes o con mensajes cortos su actividad cotidiana. El nexo digital con la comunidad está presente de manera continua en la vida de un adolescente de nuestros días. Tanto que muchas veces no es relevante la actividad en si misma si no la imagen que los demás tienen de ésta; una imagen producida por el individuo en tiempo real y percibida por los demás en un desfase de segundos229. Los primeros mosaicos multimedia de las Situation Rooms de la Segunda Guerra Mundial permitían visualizar simultáneamente multitud de imágenes, llegando a conformar elementos arquitectónicos autónomos reconocibles que encerraban o delimitaban un espacio, como ocurría en la instalación mediática de los Eames para la exposición de USA en la USSR, donde siete pantallas trasdosaban una pared configurando un espacio mediático pionero. En palabras de Charles Eames: ‘Con cuatro imágenes, siempre sabías que eran cuatro; pero al llegar a ocho ya no estabas seguro del todo. Se trataba de imágenes de gran tamaño en las que la anchura ocupada por cuatro de ellas equivalía a la longitud de medio campo de fútbol’ (Colomina 2006, 263). La mirada que escogieron estos arquitectos para cautivar a los moscovitas y al propio Nikita Kruschev no fue la mirada lineal renacentista; se evitó un único punto de vista perspectivo, la profundidad y el detalle a favor de la repetición. Los ciudadanos soviéticos que acudieron a la exposición formaron parte de un auténtico nodo de información organizada estratégicamente en bloques temáticos. La fragmentación informacional de Internet era anticipada con décadas de adelanto. Hacia la membrana aumentada. El Entorno Aumentado asume una doble condición que obedece a su naturaleza dual física y digital. La construcción de arquitectura aumentada según los preceptos que se han visto comprende la interacción de dos capas, una digital ingrávida y otra presencial edificada. Sus consecuencias en la técnica edificatoria tradicional obligan a una revisión del concepto de cerramiento o envolvente del edificio. La posibilidad de eliminar la cualidad estética como 229 Mucho antes de la llegada de la Sociedad de la Información, el Grand Tour repartía pasaportes para visitar la Antigüedad al arquitecto del XVIII y el XIX. Generaciones de arquitectos documentaron lo que aconteció en la Edad Antigua y en el Renacimiento. Múltiples miradas sobre un puñado de iconos croquizados o fotografiados. Una mirada saciada de información que se concentraba en la representación de imágenes. El arquitecto regresaba con cuadernos de viaje repletos de detalles constructivos, acuarelas y fotografías que ayudaban a fijar en la memoria el recuerdo foráneo. Eran necesarios y exclusivos. Una información preciada en las metrópolis de origen. ¿Qué sentido tiene hoy aprehender la arquitectura de esa manera? 349 propia de los sistemas constructivos tradicionales puede técnicamente constituir uno de los efectos de la penetración del Entorno Aumentado en la edificación. En tal escenario, la envolvente del edificio podría dejar de construirse con materiales cuya aportación es exclusivamente estética. Se trata de la sustitución de la envolvente estética masiva, en general poco económica, por una envolvente que localice su estética en la ligereza del bit. Tras ella, la fachada edificada sostenible y energéticamente eficiente que optimiza el comportamiento bioclimático del interior para un confort máximo del usuario. Esta incorporación a la nueva práctica constructiva de materiales tradicionalmente vetados a ocupar posiciones exteriores de la sección multicapa de la fachada masiva supone reformular las propiedades del continente arquitectónico. Los materiales masivos quedarán ocultos tras la piel sin masa digital cuando la percepción del edificio se produzca a través de un dispositivo electrónico. La evolución hacia las wearable technologies (fig.3), o tecnologías que pueden formar parte de la indumentaria de un individuo, hace pensar en algo más que en la pantalla del móvil, el parabrisas del coche o las gafas de Google para conectar con el Entorno Aumentado. A diferencia del cerramiento tradicional grávido, la envolvente digital editable y transfigurable puede habilitar alternativas dinámicas en el uso de la arquitectura aumentada. Puede pensarse desde un enfoque de ahorro energético, por ejemplo, una vivienda que hiberna cuando sus habitantes no la ocupan presencialmente, a la manera de una computadora. Su envolvente digital sería programada por el usuario para mostrar en ese caso un paisaje específico, un salvapantallas. La recuperación de materiales propios de la arquitectura intersticial oculta, como el caso español del ladrillo ‘no visto’ empleado para construir tabiquería si es hueco, o fábricas más potentes en su versión ‘tosco’, se antoja factible para solucionar envolventes que porten la capa digital. Esta tendencia a recuperar materiales socialmente desprestigiados e incluso reutilizados o reciclados forma parte de la llegada del Paradigma Sostenible a la disciplina arquitectónica (fig.4 y 5). El Pabellón Plinthos230 de Mab Architecture (fig.6), una instalación para el Interior Design Show Atenas 2010, se vale de 21.816 ladrillos de hueco doble y triple para construir suelos continuos y paredes permeables. Este exoesqueleto cerámico habilita una instalación interactiva audiovisual que transforma la materialidad arcillosa en luz, color y sonido digital orquestado desde un ordenador. 230 Véase el pasaje sobre el paisaje sensorial. 350 Fig.4. Casa la Clota, Barcelona, 1997. Miralles & Tagliabule. Foto: Malagamba. Fig.5. Casa Never Never Land, Ibiza, 2009. Andrés Jaque. Fig.6. Pabellón Plinthos, Mab Architecture, instalación para Interior Design Show Atenas, 2010. El reloj digital, el teléfono, el ordenador portátil, la tableta, el libro electrónico, a cámara de fotos, el reproductor de música, el ascensor, el portero automático, el frontal del coche, el cajero automático, la pantalla del surtidor de combustible, la máquina expendedora,…etc., integran en su diseño una pantalla digital. Si pensamos en la envolvente de un edificio como una pantalla más, ¿qué significado alcanza el concepto de ‘salvapantallas’? Robert Venturi y Denisse Scott Brown plantearon un enfoque arquitectónico en esta línea en textos como Architecture as Signs and Systems. For a mannerist Time: ‘¡Viva la fachada como pantalla de ordenador! (…) ¡Viva la iconografía – no esculpida en piedra para la eternidad sino que cambie digitalmente para ahora, para que así la propaganda fascista intrínsecamente peligrosa, por ejemplo, pueda ser proclamada temporalmente, no eternamente!’. La fachada definida como paramento exterior de un edificio ha asumido en el siglo XX un papel mediático, comunicativo, de información. Paulatinamente y conforme ha ido desmaterializando su gravidez, el término ha sido sustituido -al menos en las escuelas de arquitectura- por otros más livianos como ‘envolvente’, ‘membrana’ o ‘piel’. La carrera hacia la desmaterialización del soporte físico se produce simultáneamente a la desmaterialización del soporte digital. Del aparato mediático de las fachadas mediáticas de finales del siglo XX y principios del XXI se ha pasado a la capa digital del Entorno Aumentado, cuyo soporte también se aligera o se camufla en objetos tradicionalmente desvinculados de los dispositivos electrónicos, como gafas o lentillas. La construcción del Entorno Aumentado implica la modificación del paisaje de la ciudad en base a su percepción operativa por el ciudadano. La incorporación de información en lo arquitectónico no solo convierte al edificio en un medio sino que puede inducir especialmente en su fase de ideación. La arquitectura aumentada integra procesos dinámicos de transferencia de bits e información. Las diferentes etapas de la vida del edificio -fase de proyecto, fase de explotación y fase de reutilización y reciclado- resultan 351 afectadas por esta fusión de realidades. La interaccion en tiempo real ajusta lo arquitectónico a los deseos de los usuarios y los deseos de los usuarios a lo arquitectónico, en un proceso cada vez más evolucionado (Manovich 2005). En tanto que medio, la información y comunicación transferida en el entorno arquitectónico ha de enmarcarse en una interfaz231. El diseño de esta interfaz ha de procurar una interaccion fluida entre usuarios. El usuario puede entenderse como poblador del lugar o como consumidor de información. La integración de sistemas interactivos hombre-máquina supone una segunda revolución tecnológica, la primera fue la integración de instalaciones relacionadas con las necesidades básicas del individuo, una de las consecuencias de la Revolución Industrial. El diseño de estos sistemas interactivos puede condicionar el proyecto arquitectónico de una manera determinante. La abstracción que propone el diseño de la manifestación del dominio digital ha de generar la interfaz, tal y como Mitchell (2005) propone, ‘con dispositivos técnicos, la forma sigue a la función –pero dentro algunas convenciones acerca de la estructura de la interfaz, y a ciertos niveles de abstracción-’. Por lo tanto, el concepto de edificio como una terminal de información (Bauman, 2002) que configura un nodo de la red global (Fernández 2010) resulta clave para entender posiciones entusiastas de este nuevo paradigma arquitectónico, como la practicada por Robert Venturi y Dennise Scott Brown (2004) en La arquitectura como signo más que como espacio. Por un tiempo manierista. Venturi y Scott Brown, incluso antes de la Semiótica de Eco, inauguraron la vía de la dimensión semántica de la arquitectura. La convergencia de lo arquitectónico y el Entorno Aumentado rescata la línea argumental de estos arquitectos, denostada por entender lo arquitectónico fuera de los presupuestos del Movimiento Moderno (Venturi & Scott 1996). La arquitectura de Venturi & Scott Brown pone en valor el contexto al nivel de las cualidades internas del edificio, circunstancia ya contemplada en los primeros escritos relacionados con la psicología de la Gestalt232 y la percepción de la arquitectura. Complejidad y Contradicción en Arquitectura (1966) acuñó el ‘less is a bore’, azote del purismo y la estética minimalista del último Movimiento Moderno, y exploró el concepto de forma como expresión arquitectónica relacionada con el genious loci. La abstracción como condición estética y herramienta proyectual quedo en entredicho en Learning from Las Vegas (1972). La vía del simbolismo se reconoce entonces como germen de la posmodernidad que, treinta y ocho años después, deriva en ‘el entendimiento de la arquitectura como Signo más que cómo Espacio’ (Venturi & Scott 2008). Pocos arquitectos han tenido que esperar tanto tiempo para ver transcrito su pensamiento en la vanguardia arquitectónica233. Por tanto, no resultan excesivos los 231 Véase Glosario. 232 Context in Architetural Composition, la tesis doctoral de Robert Venturi leída en 1950, recogía este particular. 233 La vanguardia arquitectónica de este primer cuarto de siglo explora fundamentalmente la vía tecnológica, recogida en esta investigación, y la vía energética entendida desde el paradigma de la sostenibilidad. 352 vivas de la cita que acompaña el título del artículo si leemos a Dennise: ‘Robert Venturi y yo hemos tenido que esperar cerca de cuatro décadas para ver los resultados de nuestro pensamiento en nuestro trabajo’. Esta capacidad expresiva de la piel arquitectónica –todo lo excelsa que se quiera- para la representación de imágenes que configuren el signo se antoja nimia al compararla con el potencial cognitivo que supone el terminal arquitectónico. El carácter icónico de la arquitectura, en el marco manierista de nuestro tiempo que proponen Venturi y Scott es solo una parte de las capacidades del terminal. Un terminal que no se agota en la forma analógica y digital sino que conforma un sistema complejo de comunicación. La piel como dispositivo narrativo forma parte del edificio, entendido éste como un sistema metabólico que admite la integración de dinámicas procesales relacionadas con ámbitos tan diversos como el programa, el bioclimatismo, el rendimiento y el contexto energético, el paisaje sociocultural, la hibridación de usos, el ecosistema social de los usuarios,…etc., pero que también atiende a la conexión con el entorno social próximo y a la integración del edificio en estrategias de escala urbana. El edificio aumentado se propone como nodo social y sistema de comunicación cuya envolvente aglutina la capacidad narrativa de la interfaz, que es proyectada y construida por el arquitecto, pero explotada y gestionada por un curador –en el caso de piezas de arte234- u otro profesional encargado de seleccionar los contenidos digitales. El signo como dispositivo, contiene en sí la capacidad potencial de transferir información a resultas de procesos de interacción operados por el vecindario, por unos grandes almacenes o por cualquier otro agente. A pesar la potencialidad del terminal, concepto señalado como uno de los productos entre los muchos que propone el Entorno Aumentado, la consecuencia más desarrollada y más antigua es la que emplea la fachada como soporte mediático de la capa digital (Mitchell 2001) (Kerckove 2005). La fachada ha venido conformando el límite entre lo privado y lo público, entre lo privado y la ciudad. Del conjunto del edificio, la fachada es uno de los elementos constructivos con mayor capacidad icónica y de comunicación (Venturi 2004). En el debate polisémico suscitado a tenor de la selección de terminología apropiada para definir conceptos indicados a esta coyuntura tecnológica, el término ‘membrana’ gana enteros al hacer referencia a un conjunto de morfología laminar y de consistencia blanda, idóneo para referirse a la estructura que confina el límite entre el Entorno Físico y el Entorno Digital. Un límite no masivo, sino construido por muchas capas que responde bien a la geometría del espacio topológico que limita, por ejemplo, en términos de su porosidad o compacidad. En función del tipo de paisaje digital que filtren, las membranas pueden solapar parcial o totalmente la realidad digital con la física. Atendiendo a esta cualidad se puede proceder a la siguiente clasificación: Membrana permeable. La que procura un paisaje aumentado supradigital o de percepción digital exclusiva. Membrana semipermeable. La que atiende a un paisaje aumentado transdigital o de visualización mixta. 234 Como en el caso de la fachada mediática BIX (BIG + PIXELS) de la Kunsthalle de Grazz, diseñada por Realities United. 353 Membrana opaca. Si propone un paisaje aumentado ubicuo cuya información digital resulta invisible235. Fig.7. Clasificación tipológica del paisaje aumentado. Autor: Eduardo Roig. La membrana que define la arquitectura de la ciudad del Entorno Aumentado puede ser objeto de proyecto en tanto una oportunidad para reinventar la condición pública de la ciudad, de manera que no se considere al ciudadano como un mero consumidor mediático de anuncios sino como un agente activo y reactivo frente a la información que proponen las terminales arquitectónicas236. En el Entorno Aumentado los flujos de información pasan de manifestarse en las pantallas urbanas que configuran las fachadas mediáticas de los edificios a hacerlo en los dispositivos electrónicos individuales del ciudadano, pudiéndose éstos considerarse como su último reducto arquitectónico. La ingravidez de la membrana aumentada permite su despliegue y desarraigo del edificio construido para mostrarse en otro tipo de soportes ajenos a la arquitectura tradicional, pero presentes y determinantes en la arquitectura del nuevo entorno. Puede afirmarse que la arquitectura aumentada es objeto de una migración que trasciende la ubicuidad del edificio entendida como extensión de un lugar. Las prolongaciones arquitectónicas de la terminal se muestran al usuario -comunican con él- a una distancia considerable del edificio masivo y a una escala independiente de naturaleza fractal. El proceso de desmaterialización del edificio iniciado tras la Revolución Industrial encuentra en el Entorno Aumentado la posibilidad real de trascender lo material y ocupar el campo informacional de los lugares aumentados. El edificio-terminal cambia su objetividad masiva construida por la subjetividad líquida del soporte del usuario. La arquitectura aumentada, entendida como un sistema arquitectónico, comienza por tanto allí donde se encuentre el usuario. En este sentido, la capa digital asume los atributos relacionales en su papel de agente mediador que infiriere al edificio-terminal una posición (topológica) intermedia. El concepto de mediación se toma aquí en su acepción clásica, por cuanto hace posible la comunicación entre usuario y edificio, del 235 Aunque pueda ser percibida por los otros sentidos. 236 Véase el conocido ensayo de Mirjam Struppek (2006) Urban Screens -The Urbane Potential of Public Screens for Interaction, actualizado en 2012 en la publicación: POP, Susan…(et al.) (2012) Urban Media Cultures, Ludwigsburg: Avedition GmbH. 354 mismo modo que el llamado ‘término medio’ de Aristóteles ejerce una ‘función mediadora en el razonamiento posibilitando la conclusión a partir de la premisa’ (Ferrater 2008:236). El edificioterminal media entre los agentes de naturaleza digital y los propios de la realidad física, desempeñando la función de enlace de la comunicación entre el punto de partida (emisor) y el de conclusión (receptor). Este atributo mediador del Entorno Aumentado impone en el usuario una condición que altera su percepción y comprensión ‘inmediata’ de la ciudad a favor de un conocimiento ‘mediato’. El entorno ‘mediato’ es de naturaleza reflexiva, no intuitiva, por cuanto los elementos que lo componen no se perciben como objetos aislados sino en su interconexión físico-digital. No se identifican los edificios de la ciudad aumentada con las piezas exentas de ajedrez dispuestas sobre el tablero, sino con el conjunto de pequeños cubos que componen el mecanismo del cubo de Rubik. La vivencia de la arquitectura aumentada tiene lugar tanto en el edificio-terminal construido como en la terminal electrónica del usuario que completa la comunicación. En ocasiones, esta última se constituirá como un simple receptor, pero en otras lo hará como un emisor que proporciona feedback a la fuente original. El Entorno Aumentado habilita un tejido urbano inmerso en complejos procesos de comunicación. Lo arquitectónico está presente en la simbiosis físico-digital a lo largo de todas las fases del proceso. Tanto la emisión, como la mediación, como la recepción del mensaje, además de posibles bucles de retroalimentación, constituyen oportunidades del proyecto arquitectónico. Como tales, ¿por qué no integrarlas realmente en un proyecto arquitectónico que alcance a diseñar esta realidad compleja sin amputar partes del proceso? 4.3.2.4. La Ciudad Origami. Por lo general, la manera de plegarse una materia constituye su textura: esta se define no tanto por sus partes heterogéneas y realmente distintas, como por la manera en que estas devienen inseparables en virtud de pliegues particulares. Es lo que Leibniz decía cuando invocaba ‘el papel o la túnica’. Todo se pliega a su manera, la cuerda y la estaca, pero también los colores, que se distribuyen según la concavidad del rayo luminoso, y los sonidos. Gilles Deleuze, Le Pli. La ‘geo-localización’ y los locative media237 transforman el mapa ‘mental’ de la ciudad contemporánea y al mismo tiempo el significado de la arquitectura que la construye. El espacio físico ‘aumentado’ se constituye en la interfaz del ciudadano. El auge creciente de los juegos electrónicos que usan esta tecnología hace que el ciudadano se convierta en un jugador situado en un tablero de juego que se encuentra a caballo entre la ciudad y el dominio digital. Para Fred Adam (2009) ‘la meta-información geo-localizada genera una infinidad de pliegues (fig.2) en el 237 Véase Topología del Entorno aumentado. Deriva digital hacia la eclosión 4.0. 355 espacio físico’. La metáfora de la Ciudad Origami fija esta circunstancia relacionada con el tipo de espacio que propone el Entorno Aumentado, un espacio topológico que se aleja o se acerca de la trama física urbana en función de las cualidades del campo informacional que porta. Fig.1. ‘Airocean’ (Dymaxion Map). Buckminster Fuller. Fig.2. Crumpled City Maps. A propósito del setenta aniversario de la invención del mapa Dymaxion (fig.1), obra del arquitecto y visionario diseñador Buckmisnter Fuller, el Instituto Buckminster Fuller238 escribió el artículo The Fuller projection map donde se realiza la siguiente reflexión: ‘Los mapas del mundo tradicionales refuerzan los elementos que separan la humanidad y no resaltan los patrones y relaciones emergentes del acelerado proceso de globalización. En vez de servir como ‘un medio preciso para ver el mundo desde el punto de vista dinámico, cósmico e integral’, los mapas que utilizamos todavía hacen aparecer la humanidad ‘intrínsecamente disociada, remota, la autointeresadamente preocupada por el concepto político de tiene que ser usted o yo; no hay suficiente para los dos’.’ El ‘Dymaxion Map239’ de Fuller, patentado al final de la Segunda Guerra Mundial, es el único mapa que representa en continuidad la totalidad de la superficie del planeta sin dividir la corteza terrestre, como si de ‘una isla en el océano se tratara’ (Campbell-Dollaghan 2013). La 238 Fuente: <http://bfi.org/about-bucky/buckys-big-ideas/dymaxion-world/dymaxion-map> (Consultada el 9 de agosto de 2013). 239 Véase primicia en el artículo 'Buckminster Fuller's Dymaxion World' publicado el 1 de marzo de 1943, en la revista Life. Disponible en: <http://books.google.es/books?id=WlEEAAAAMBAJ&pg=PA41&source=gbs_toc_r&redir_esc=y#v=onepage&q&f=false> (Consultada el 9 de agosto de 2013). 356 proyección Fuller resulta mucho menos distorsionada que la Mercator240 o la Peters, pero aún lo es menos que cualquier proyección de la Ciudad Origami241. La construcción del Entorno Aumentado se ejecuta sobre una cartografía que pertenece a otro dominio, bien sea el digital bien sea la cartografía clásica. Se antoja necesaria una cartografía que describa con precisión la nueva geografía de la ciudad aumentada (fig.4). Uno de sus atributos es el dinamismo que debe incorporar su suporte para expresar con rigor las capacidades topológicas del nuevo entramado. Fig.3. Inception. Aplicación para iphone y Android Fig.4. LayerApp. Fotografía Sayamobile y Flickr Las nuevas tecnologías han cambiado la visión que tenemos del mundo y la representación del mismo (fig.4). Perales (2009: 17) afirma que ‘somos el mapa y lo escribimos; formamos parte de la capa textual que cubre el planeta y esta capa de información se actualiza en directo a través de cada uno de los nodos que la conforman: nosotros mismos’. El potencial y la repercusión de las herramientas de geo-localización en las prácticas urbanas contemporáneas van definiendo nuevas conexiones entre lugares anteriormente inconexos. El mapa de la ciudad aumentada se manifiesta de forma diferente a cada usuario, que la dobla en pliegues según su interés. En este sentido topológico, la cartografía aumentada se modula como si de un origami se tratara. Los pliegues que se producen en la capa digital tienen lugar como consecuencia de la actividad de soportes diferentes. El usuario dispone de la capacidad de alterar la topología del campo informacional, construyendo una topología arrugada allí donde se producen conexiones en la información. 240 Groenlandia aparece tres veces mayor que su tamaño relativo en el globo. La Antártida se representa como una delgada franja a lo largo de la parte inferior del mapa. 241 El término se toma del título de la ponencia de Fred Adam impartida en el curso Arquitectura y Videojuegos celebrado en el COAM en junio de 2009. 357 La ciudad aumentada conforma una superficie cuyo borde tecnológico242, frontera en la disciplina topológica, confina un hiper-material con una capacidad pionera de conectar lugares. Un único material cuya manipulación recuerda a aquel arte oriental: no se utilizan tijeras, ni pegamento, ni grapas; tan sólo, el papel y las manos para rasgar y plegar en pos de la conectividad ciudadana. Fig 5. Geocaching, 2013. Mapa del área del Retiro, Madrid. Fig 6. Geocaching desde un teléfono móvil. Fig 7. Geocache oficial. La representación de la visualización de la Ciudad Origami no se corresponde con las proyecciones ortogonales clásicas ni obedece a las leyes perspectivas. Se trata más bien de una representación cualitativa del espacio topológico donde podemos mezclar varias visualizaciones simultáneamente junto con otros tipos de percepción. La visión aumentada puede, por ejemplo, solapar la perspectiva con la proyección en planta, como sucede en la película Inception243, o puede registrar una localización de la red de geocatching244 (figs. 5-7), aplicación digital de realidad aumentada (fig.6) que articula una red de objetos ocultos (geocaches) compartidos por una comunidad de usuarios. Todo ello se puede acompañar del sonido programado y localizado en una senda sonora que recorre el usuario. 242 Véase ‘Borde tecnológico’ en Topología del Entorno aumentado. Deriva digital hacia la eclosión 4.0. 243 Esta aplicación para telefonía móvil superpone la capa digital, procedente de una vista de satélite – como la de Google Maps-, y la perspectiva del peatón. Fuente: <http://inceptionmobilearchitect.com.>. (fig.3). 244 Juego de caza de tesoros que usa dispositivos con GPS incorporado. Los jugadores navegan a un lugar específico de coordenadas GPS y después tratan de localizar el geocache (contenedor real escondido). El origen lúdico de esta aplicación ha trascendido a otras aplicaciones como la red de geocaching se semillas de alta producción. Disponible en: < http://www.geocaching.com>. (Consultada el 9 de agosto de 2013). 358 4.3.2.6. Implicaciones arquitectónicas del Entorno Aumentado en el orden ecológico contemporáneo. Fig.1. Environment, power and society 1971. ODUM, Howard. La tecnología del Entorno Aumentado supone un agregado artificial al orden ecológico natural confinado en el Entorno Físico. La interacción entre los organismos vivos y su hábitat se ve afectada por las consecuencias derivadas del Entorno Digital, en la medida en que el ser humano interpreta y percibe la realidad mediante procedimientos artificiales diferentes a los que hasta ahora empleaba. Las propiedades físicas abióticas (clima, geologías,…etc.) y los factores propios inducidos por los seres vivos se ven obligados a convivir con la injerencia del campo informacional característico del Entorno Aumentado. Los ecosistemas contemporáneos asumen el efecto de esta coyuntura a la par que adoptan otras atenciones como las derivadas de la eclosión del Paradigma de la Sostenibilidad. Las posibles sinergias entre este paradigma y el Paradigma Digital inauguran un campo experimental referente de la arquitectura contemporánea. Una de ellas se significa en la capacidad de adaptación a las condiciones del entorno próximo que las tecnologías de la información y la comunicación procuran al proyecto arquitectónico, que adopta estrategias interactivas y responsivas capaces de una lectura analítica y un diagnóstico en tiempo real de las condiciones contextuales. La capacidad de respuesta de la terminal arquitectónica o capacidad empática con las circunstancias bioclimáticas, programáticas, de población, conectivas,…etc., propias del Entorno Físico, más las que provengan del Entorno Digital suman el conjunto de parámetros a incluir en el código de la capa digital. El progreso en la interacción hábitat-máquina hace posible esta monitorización responsiva mediante el conjunto creciente de dispositivos electrónicos económicamente asequibles. El lugar físico, con todas sus propiedades y posibilidades ecológicas, ve así transformada su naturaleza original al sensibilizarse de modo artificial. Sobre la historia de la capacidad técnica humana Mumford (1934) dibujó en Técnica y civilización el mapa del desarrollo tecnológico occidental señalando a grandes rasgos tres períodos: 359 Período Eotécnico. Caracterizado por las tecnologías de las energías hidráulica y eólica, el trabajo del vidrio y la madera. Periodo industrial o Paleotécnico. Coincide con el período de la Revolución Industrial. El empleo del vapor y el carbón como fuentes energéticas, la inmigración masiva del campo a la ciudad insalubre y el paisaje fabril. Período Neotécnico. Mumford (1934) se refería a este periodo –que le tocó vivir- destacando como innovación el vínculo irreversible de la Techné a las minuciosas y precisas operaciones de las matemáticas y la aparente e infinita fecundidad de la ciencia. Este período conocería los metales ligeros, los compuestos sintéticos, la energía eléctrica y la reintegración de los largamente ignorados entornos ‘húmedos’, como la granja, la viña y el laboratorio fisiológico. En la parte final de Técnica y civilización Kwinter (1994) señala una descripción añadida por Mumford, aunque sólo de pasada, sobre el advenimiento de lo que éste llamó ‘el período biotécnico, ya visible al borde del horizonte’. La biotécnica, integrada en el desarrollo de las ciencias ambientales, y por extensión en la ecología, cuyo auge en el último tercio del siglo XX ha suscitado, entre otros, la extensión global del Paradigma de la Sostenibilidad, ejerce una influencia progresiva y transversal en el resto de las disciplinas generalistas. Sostiene Kwinter245 que la integración orgánica sin precedentes de las máquinas y los sistemas infraestructurales tiene lugar en procesos escalares diversos: ‘La integración del sonido, el texto, la imagen y los flujos de datos en crudo hacia el entorno fundido, singular, sensorial del entorno multimedia; la integración de tales microentornos o ‘estaciones’ en sistemas macro o globales permanentemente activados a través de redes de teléfono digital, cable o fibra óptica; y, tal vez lo más importante de todo, la integración fenomenológica del sistema nervioso humano en dichas redes multiniveles y multiescalares a través de las llamadas interfaces interactivas ‘naturales o fluidas’ que utilizan la voz, el gesto y tacto. Estas nuevas arquitecturas pueden entenderse solo en términos de un nuevo tipo de concreción o materialidad, uno que se dirige hacia nuestros ‘modos de atención’ y al sustrato de la respuesta nerviosa y sensorial humana.’ 245 Ibíd. 360 Esta tendencia integradora de un orden estructural orgánico, termodinámico (energético), comunicativo e informacional246 en lo arquitectónico constituye un directriz fundamental en la construcción del Entorno Aumentado, que se presta como instrumento pero a la vez medio inherente y fundamento de este orden estructural. Ello nos lleva a un entendimiento de la realidad muy distinto al que planteaba el mecanicismo o la ‘Termodinámica del equilibrio’; Javier García-Germán (2012) se refiere a ella como: ‘(…) un conglomerado de materia, energía e información en continua evolución que es capaz de, bajo determinadas condiciones de contorno, coagular y formar una estructura con un funcionamiento estable en el tiempo. Este coágulo mantiene su estabilidad hasta que las condiciones de contorno alcanzan un determinado nivel de fluctuaciones –inputs de materia-energía-información- que lo hacen evolucionar hasta que forma otro coágulo con una estructura y un funcionamiento determinado’. García-Germán247 destaca la propiedad ‘coagulante’ de la nueva realidad entendida como un proceso que opera un estado latente y ‘fluctuante’ de la infomasa, descripción exacta de la naturaleza sistémica del Entorno Aumentado. Las propiedades de transfiguración y edición contravienen el discurso lineal y reduccionista del Positivismo, adalid del Paradigma Mecanicista de los siglos XVII, XVIII y XIX. El Entorno Aumentado surge en una coyuntura diferente, alejada de este clasicismo científico; ha abandonado la Termodinámica del equilibrio en favor de la Entropía de los sistemas alejados del equilibrio. Las formas pulsantes, los sistemas autorregulables, y los trazados y transformaciones continuos desarrollados desde 1990 por Peter Eisenman, junto con la utilización de sistemas de reacción y difusión multinivel por parte de Bernard Tschumi en el Parc de La Villette -donde los puntos, líneas y superficies se transforman como si se trataran de órdenes impresas en una pauta musical en actividades de intensificación, transmisión o difusión- constituyen intervenciones decisivas e influyentes en el recorrido de esta vía de integración digital-sostenible. De igual modo lo son las fluctuaciones, inestabilidades, interferencias, sistemas urbanísticos continuamente actualizados por parte de Rem Koolhaas y su perspicaz comprensión de que es la forma blanda248, no la dura, la que contiene el máximo de estructura activa (Kwinter 1994). 246 Para profundizar en la penetración activa de la información en la materia véase artículo ‘Código, conocimiento y mutación. Efectos digitales en el tratamiento de la información.’ 247 Ibíd. 248 Ante la pregunta de cómo sería la arquitectura del futuro, planteada por Le Corbusier a Dalí, éste respondió: será blanda y peluda, como la de Gaudí’. 361 Fig.2. Diagrama de Stefan Behling.2002. Fig.3.Orden fractal en la jerarquía energética de la ciudad. Fig.4. Relaciones conceptuales entre los tres sistemas escalares de energía. La forma arquitectónica no paralelepipédica, denostada por el purismo minimalista del Movimiento Moderno, ha pasado a incorporarse a la arquitectura de vanguardia gracias en parte a los programas de software de evaluación y simulación energética, y su sintonía con el discurso del Paradigma Sostenible. La capacidad volumétrica en términos termodinámicos, la cualidad fisiológica de la envolvente y otras predisposiciones de base morfológica asumen desde parámetros ‘inteligentes’ un compromiso arquitectónico que sobreviene a las simples disposiciones estéticas. La genealogía morfológica de la arquitectura aumentada cuenta para su configuración con un campo informacional que registra datos específicos del contexto y que deberían también aumentar las prestaciones que ésta ofrece al usuario. Desde esta voluntad medioambientalista se establece la conexión entre lo digital y lo termodinámico, entre información y energía. El diagrama (fig.2) de Stefan Behling (2002) sobre la atención termodinámica y medioambiental de la arquitectura propone dos escenarios bien diferentes según se ha venido entendiendo la termodinámica en la disciplina arquitectónica y según debiera entenderse en un futuro. Ábalos (2011) reflexiona de esto modo sobre el diagrama: ‘Hasta hace relativamente poco tiempo la disciplina arquitectónica se ha concretado en estrategias sofisticadas y activas, pese a que, desde un punto de vista puramente físico o termodinámico, el impacto de las decisiones formales es infinitamente mayor que el impacto de los sistemas activos, que vienen a corregir errores originales. En alguna medida, esto ha suscitado un cierto romanticismo en los arquitectos de vuelta al control de los aspectos termodinámicos, como teníamos el control de lo tectónico. Sin embargo, no siempre es cierto aplicado a programas contemporáneos, por ejemplo, asociado a entornos artificiales. Para desarrollarlos de una manera eficiente no siempre la tradición tipológica histórica es adecuada.’. 362 La materialidad de la forma arquitectónica entendida por Stefan Behling se fundamenta en una naturaleza estática que no consume energía para salvaguardar el confort del usuario. Pero el pronóstico, según corrobora Ábalos, no es tal si analizamos entornos artificiales. La capacidad tecnológica operada en el Entorno Aumentado para procesar súbitamente información sobre el estado actual del contexto que afecta al edificio, y posteriormente, ordenar una respuesta ‘activa’ sobre los elementos constructivos incrementa exponencialmente la adaptabilidad termodinámica del edificio. Estaríamos hablando de sistemas interactivos que se aplican a la forma arquitectónica. Los controladores y micro-controladores electrónicos, como la placa Arduino, centralizan la recepción de información procedente del campo sensorial, alimentado por la ‘Internet de las cosas249’, y la ejecución del mensaje transmitido desde el software en cuestión hasta los dispositivos que accionan el cambio morfológico en la envolvente o en otro elemento constructivo. Fig.5. Trash Track, diagrama de monitorización de la basura. Senseable City Lab, MIT. La carga del sistema con datos contextuales puede también producirse mediante una conexión on line a bases de datos climáticos (fig.6). En todo el proceso el usuario está conectado por los soportes digitales portátiles para interactuar con los procedimientos (fig.5). Plataformas como xively.com250 (fig.7) habilitan en ‘la nube’ una centralización de la red de datos procedentes de objetos monitorizados (Internet de las cosas). El registro de información procedente de sensores puede complementarse con el rastreo de la señal que emite un objeto en movimiento. Trash Track251 es un proyecto dirigido por Carlo Ratti, en el MIT, que instrumenta la basura, es decir, incorpora sensores en los deshechos para poder seguir su trayectoria y localización. El resultado del proyecto reveló matices de la cadena de inversa suministro que nadie había observado con 249 El concepto de Internet de las cosas se atribuye a Auto-ID Center, fundado en 1999 y localizado en el MIT. 250 Disponible en : < https://xively.com/>. (Consultado el 20 de agosto de 2013). 251 Disponible en: <http://senseable.mit.edu/trashtrack/how-it-works.php?id=3>. (Consultado el 10 de agosto de 2013). 363 anterioridad, y reclamó la atención del Gobierno y la industria252. El experimento puso de manifiesto el desconocimiento de los flujos reales que acontecen en la ciudad (fig.1). En la misma línea pero cambiando la basura terrestre por la contaminación aérea, el proyecto In the air253 (fig.8), dirigido por Nerea Calvillo, articula una información gráfica que sirve para visualizar en tiempo real la composición del aire y las propiedades de la ciudad de Madrid, con los cambios estacionales que experimenta254. De nuevo, el efecto que ejerce en el usuario la visualización cartográfica de la información de los flujos de la ciudad puede atesorar gran trascendencia, tanta como para influir en la selección de la ruta al trabajo o en la localización de la residencia de un alérgico al polen. Fig.6. Representation of functionality and data flow between the primary agents in Prototype 3, including Human Interface and End User Agents. Kai L. Hansen, College of Architecture IIT. La tecnología que configura el Entorno Aumentado puede incorporarse en las distintas posiciones del orden escalar energético que domina en el paisaje arquitectónico (fig.4 y 5). En la estructura jerárquica que define la manera en que contabilizamos la energía, los objetos 252 (El País, 12 de junio de 2012) 253 Disponible en: <http://intheair.es/>. (Consultado el 2 de junio de 2012). 254 La contaminación aérea supone un grave problema a solventar por las administraciones de las grandes ciudades. La visualización objetiva de estas cartografías de contaminación aérea puede llegar a ser un instrumento incómodo en ciertos ámbitos administrativos. 364 individuales se añaden al edificio, y los edificios individuales conforman la ciudad. Este fractal topológico plantea una ecología relacional entre las partes atendiendo a la micro-escala del fenómeno individual, la mesoescala que relaciona el fenómeno individual con diferentes formas energéticas, y la macroescala que regula los sistemas energéticos responsables de los múltiples tipos de energía (Addington & Schodek, 2005: 220). En la micro-escala, las arquitecturas ambientalistas255 como anticipadoras de una cultura ambiental integral que daría lugar a un grado cero de la materialidad arquitectónica participan activamente de la monitorización digital del lugar. Esto es factible gracias al desarrollo de los programas de control climático, que han incrementado enormemente la precisión del pronóstico bioclimático en la fase de proyecto y afinado las tolerancias en el registro de datos de la monitorización. Este grado cero arquitectónico que atiende a las cualidades del contenido energético del edificio para lograr un confort óptimo está fácilmente vinculado al desarrollo de proyectos que participan del cellspace característico del Entorno Aumentado, tanto en el proceso proyectual (simulación digital) como en lo edificado (monitorización digital). La visualización en tiempo real del comportamiento bioclimático de un edificio tiene consecuencias directas en el control del consumo por parte del usuario. Fig.7.Real-time data feed on web based platform. Fig.8. In the air, 2010. Visualización de la calidad del aire de Madrid. Nerea Calvillo. La arquitectura producida mediante el uso de programas de generación morfológica paramétrica en base a referentes biológicos, entendida como el conjunto de las propuestas fundamentadas en las diferentes escalas de la biomímesis, constituyó una primera simbiosis técnica entre lo natural y lo digital. Hagan (2008) analiza en Digitalia esta conexión y revisa la agenda establecida por la vanguardia arquitectónica en base a la simbiosis producida entre la atención medioambiental, como sustituta de la natural, y la tecnología digital. Esta línea de investigación propone un discurso que se integra en el primero de los tres registros ecológicos proclamados por Guattari (1990) en su concepto de medioambiente interactuante: medio ambiente, relaciones sociales y subjetividad. El imperativo informacional que supone la emergencia del Entorno Aumentado anticipa una ecología de naturaleza mixta físico-digital, soporte habilitante de la ecología mental, medioambiental y social divulgada por Félix de Guattari256. 255 256 Véase en este sentido el trabajo de Philippe Rahm, François Roche o Sanaa. Ibíd. 365 El legado cibernético y la perspectiva del ciborg gestada en la Guerra Fría se suman a la teorización de esta convergencia ecológica matizada en los textos de Deleuze, Latour o Sloterdijk257 e instruida especialmente desde la comunicación y la mediación que propone el Entorno Digital. El antropólogo cibernético Gregory Bateson, autor del influyente Steps to an Ecology of Mind 258(1973) anticipó esta evolución que pauta la relación establecida entre el ser humano y la máquina. Frente a una interiorización tradicional de la individualidad, Bateson presentaba al individuo como trascend-ente a la naturaleza biológica de su cuerpo, a través de los múltiples canales de comunicación que posibilitan el intercambio de información. La identidad de este tiempo digital (Picon óp.cit: 106) se manifiesta como ‘espacial, mediada y distribuida’. A través de su propio proceso de individualización de la identidad del Entorno Aumentado, la disciplina arquitectónica tiene a su disposición la oportunidad de reinventarse como, por otra parte, ha hecho tantas otras veces. 257 Véase: Latour, Bruno (1991) We Have Never Been Modern, traducción inglesa (1993), Cambridge, MA.: Harvard University Press; y SLOTERDIJK, Peter (1998), Bulles: Sphères 1, traducción francesa (2003), París: Hachette. 258 Entre las referencias claves de William Mitchell (Picon, óp.cit., p.106). 366 Conclusiones Este episodio final exige echar la vista atrás para observar por última vez la investigación. Inmediatamente me asaltan dos consideraciones. La primera, ciertamente paradógica, pone en tela de juicio si en este periodo de exploración y de irremediable caducidad tecnológica he logrado sobrevivir a la velocidad del desarrollo de las tecnologías de la información y la comunicación, o por el contrario, he sido devorado. Según retrocedemos en el tiempo, el conocimiento del pasado permitía anticipar el futuro. Los fundamentos probabilísticos de la Teoría del Caos y del Paradigma de la Complejidad acreditan un aumento en nuestros días de la indeterminación y una menor facultad para el pronóstico, de lo que se deduce que ha de ser mayor nuestra capacidad de adaptación al medio. Precisamente, dada la asincronía inevitable entre la redacción de este escrito y su lectura, puedo afirmar sin temor a equivocarme que tal vez haya sido devorado. La segunda consideración responde al protocolo lineal establecido como formato de tesis y a la propia naturaleza de este acto conclusivo, que lejos de entenderse como un trance sintético terminal trata de alcanzar el valor de unas consideraciones que retroalimentan el análisis capitular, invitando a uno mismo a la reflexión introspectiva futura. Ahora que el retrato del Entorno Aumentado se ha consumado en sus trazas generales, es posible abordar brevemente algunas cuestiones que si bien ya han aflorado en la tesis no han tenido cabida en los capítulos anteriores. En este sentido, es posible identificar algunos argumentos que quedan abiertos con sus interrogantes, dilemas o conjeturas, los cuales precisan ser investigados con mayor profundidad. Es el caso de la Retórica arquitectónica del videojuego, que bien pudiera completar la indagación sobre este género y su vinculación arquitectónica, o el de la Metodología procedimental del proyecto arquitectónico. Ambos enunciados tendrán continuidad en otros foros donde se impulse de nuevo el rastreo inquieto del acontecimiento acuñado aquí como Entorno Aumentado. Los que no somos nativos digitales hemos sido testigos de cómo la Revolución Digital ha instruido la emergencia de las tecnologías de la información y la comunicación orquestando la expansión global de los soportes computacionales. El progreso de la técnica ha llevado a superar en el ocaso del siglo XX la naturaleza virtual de la realidad alternativa propuesta por el Entorno Digital, sustantivada en 1984 por William Gibson como ciberespacio, inaugurando así el proceso de construcción del Entorno Aumentado que avanza al ritmo de la convergencia del Entorno Físico y el Entorno Digital. El análisis llevado a cabo sobre este suceso y sus consecuencias en la disciplina arquitectónica concluye ahora con una proposición; se trata de una colección de indicadores que articulan los fundamentos del Entorno Aumentado en base a cinco categorías diferenciales: la dimensión, el tiempo, el usuario, la comunicación y la ecología. Estos indicadores responden a cualidades invariantes propias del Entorno Aumentado y en su conjunto se proponen doblemente como un instrumento para revelar sus trazas, pero también para sistematizar su proyecto. 367 1. Dimensión multiplicada. El Entorno Aumentado es consecuencia del proceso de hibridación de los entornos Físico y Digital, convergencia impulsada por las tecnologías de la información y la comunicación, las cuales deparan una nueva dimensión artificial para el espacio euclídeo de tres dimensiones extensas más una dimensión temporal, conocido como espacio de Minkowski o espacio de cuatro dimensiones. Esta multiplicación dimensional se debe a la incorporación de una capa digital constituida en un campo de información referenciado a un lugar físico mediante procedimientos técnicos electrónicos, y es al unísono consecuencia y causa de esta transformación operada en el espacio-tiempo del hábitat contemporáneo. La naturaleza biológica de la percepción del Entorno Físico, correspondiente a cada especie, fue subvertida ya en tiempos del Sapiens Sapiens con la inauguración de un primer período técnico, dando lugar a una deriva tecnológica donde confluían sentidos no-humanos, como el científico y el de la máquina. Por el contrario, el usuario del Entorno Aumentado ve duplicada su circunstancia con una nueva extensión protésica de naturaleza electrónica que le habilita para percibir la capa digital. Los atributos del lugar aumentado se corresponden con una figuración porosa de estructura topológica cuyo límite lo traza la cuarta pared o membrana separadora de la realidad física y la digital, hasta hace poco conocida por todos como pantalla. El ciberespacio que habitó las pantallas de la segunda mitad del siglo XX se acercó a la cuarta pared en la década de los noventa, logrando traspasarla para formar parte de la arcaica amplitud confinada por el lugar edificado, durante tanto tiempo sellado. Son los dispositivos locative media, o mediadores localizadores, los que fijan la posición a través de diferentes técnicas como, por ejemplo, los códigos BIDI o QR, o los Sistemas de Posicionamientos Global (GPS, Galileo,…etc.). A modo de Post It digitales pegados en el aire, su mensaje se visualiza a través de un soporte electrónico; tenga el lector neófito la consideración de dar por real la ficción de Matrix o Minority Report. La materia característica de sendos entornos, la biomasa del físico y la infomasa del digital operada mediante una interfaz electrónica, resultan integradas en el lugar aumentado, certidumbre que lleva a reflexionar sobre la vigencia de la incertidumbre que Heisenberg planteó en 1927 y que dirige el argumento hacia la física cuántica (Entorno Físico) y la computación cuántica (Entorno Digital y tal vez ¿Entorno Aumentado?). La articulación de la convergencia del Entorno Digital y el Entorno Físico resulta materializada en la interfaz, cuya evolución es la consecuencia de la paulatina integración corpórea del control de la capa digital de las computadoras en la fisionomía del propio usuario, que pasará de percutir cual robot un teclado diseñado ex profeso para la demora mecanográfica a operar la computadora tan solo con los gestos naturales que describe su cuerpo. Esta tesis hace una llamada de atención sobre el papel fundamental jugado por un género aún considerado menor por muchos, el videojuego, piedra angular del desarrollo del ciberespacio, entendido como la representación digital del lugar, y de la evolución de la interfaz. La transformación del ciberespacio virtual, característico del dominio digital anterior a Internet, en un espacio aumentado ha sido en parte posible gracias al impulso tecnológico de esta industria, pionera en la transferencia de las técnicas electrónicas, y a su empeño por trascender la cuarta pared, objetivo conseguido en 2006 con la consola Wii Sports de Nintendo y su controlador remoto capaz de detectar el movimiento del jugador en múltiples ejes. El videojuego se propone 368 en esta tesis como paradigma arquitectónico del dominio digital, pues se alimenta de la interacción del usuario, hecho diferencial y elemental para la introducción de la variable ‘tiempo’, y en consecuencia, del desarrollo de la capacidad de ‘movimiento’ en la representación digital. El videojuego forma parte de la cronología análoga que se establece entre el lugar físico y el digital, si bien la teorización y experiencia es completamente asimétrica a favor del primero, las sinergias entre las tipologías que proponen sendos lugares resultan de sumo interés para la formalización de entornos aumentados. El cambio que supone la eclosión del Entorno Aumentado afecta por tanto a la arquitectura como oficio involucrado en la transformación de los vínculos entre lugar y usuario. El proceso de construcción del nuevo entorno desencadena, por ejemplo, el debate de si el operativo de la capa digital ha de ser ubicuo o no. Postura esta última defendida por el movimiento hacker para salvaguardar el libre acceso del ciudadano a la ciudad en red, frente a otras alineadas con el minimalismo arquitectónico que pretenden la ocultación ‘de los cables’ tras la fachada masiva impoluta de la smartcities. 2. Tiempo asíncrono, multicrono, cronotopo y microtiempo. La dimensión topológica del lugar aumentado, que suma el atributo interactivo propinado por la variable ‘tiempo’, precisa de magnitudes que la definan. Este hecho ya ha suscitado la emergencia de nuevas prácticas experimentales en el campo de la representación de la información y de la percepción dinámica de datos, en base a esas nuevas magnitudes. Antes de profundizar en este indicador, conviene recordar que el concepto de espacio-tiempo es indisoluble. Al menos así lo entendió en el siglo XX Mijaíl Bajtín, filósofo ruso del lenguaje que propuso el cronotopo como unidad del híbrido espacio-temporal. A la dimensión topológica del lugar aumentado se suma el conjunto de atribuciones específicas que caracterizan su tiempo, que es el nuestro si viviéramos en el Entorno Aumentado, donde la cualidad mixta físico-digital implica la existencia simultánea de dos tiempos exclusivos del Entorno Digital y del Entorno Físico, y de un tercer tiempo resultante de la fricción de ambos -lo que sucede, por ejemplo, con la adición de un bucle de retroalimentación-. De esta dispersión categórica del tiempo deriva la acepción multicrónica acuñada por Echeverría (1999:80). Por otro lado, el tiempo aumentado no es continuo, y por lo tanto, no es lineal. La razón estriba en la condición asíncrona del tiempo que acontece en su capa digital, cuyo contenido informacional resulta operativo o desconectado según la disposición del usuario -el cual accede a la información a demanda- y según el propio diseño de la capa digital, más o menos porosa o discontinua. El usuario percibe la capa digital a través de un dispositivo electrónico, constituyéndose en agente activo en el proceso y capacitado para la conexión o desconexión a voluntad del Entorno Aumentado. La asincronía se pone de manifiesto en la capacidad para repartir adecuadamente el tiempo entre las acciones digitales que propone el Entorno Aumentado; el control de la preponderancia de las más intrusivas o inmediatas frente a otras, quizás más importantes pero menos urgentes, es sin duda uno de los retos de su construcción. 369 La necesidad del ser humano de representar la realidad de modo fidedigno ha imperado una continua innovación de la representación del espacio y del lugar, desde la abstracción espacial de las figuraciones egipcias a la conquista del espacio perspectivo renacentista. Pero también ha implicado un progresivo desarrollo de las técnicas de representación del tiempo, ya empleadas desde la incorporación simbólica del movimiento en las figuras rupestres. Las simulaciones dinámicas encajadas en las vanguardias artísticas o el desarrollo de los nuevos soportes audiovisuales de radio, cine, televisión y computación por parte de las tecnologías de la información y la comunicación son logros producto de esta inquietud. Desde esta atención temporal y desde otras, el soporte se antoja pieza clave en construcción operativa del Entorno Aumentado, que necesita de la representación dinámica para la correcta compresión de sus cualidades cronotópicas, como diría Bajtín. Por último, cabe señalar que el Entorno Aumentado implica también una alteración del orden escalar tradicional de esta categoría temporal. La accesibilidad al Entorno Digital se ha extendido por la ciudad contemporánea, lo que ha supuesto la ocupación de los tiempos ‘muertos’ de espera y la incorporación del microtiempo en la agenda del usuario como formato específico que demanda un tipo concreto de información. Las acepciones del tiempo aumentado se incorporan poco a poco al proyecto arquitectónico. La ocupación del espacio arquitectónico contemporáneo se aumenta con acciones que se refieren a estas acepciones temporales. 3. Usuario interactivo. El abandono progresivo de la cualidad mecánica implícita en los orígenes de la interacción lineal hombre - máquina computadora en favor de una ‘humanización’ paulatina de este vínculo ha supuesto la incorporación gradual de dispositivos y procedimientos que favorecen la digitalización de la compleja realidad contemporánea. Entre ellos, cabe destacar aquellos que incorporan el concepto de retroalimentación o feedback, surgido a tenor de la Teoría Cibernética formulada por Norbert Wiener en la Segunda Guerra Mundial. Fue en el cambio de década de los cincuenta a los sesenta, al compás del desarrollo de la computación y los media pautado por la Revolución Digital, cuando el proyecto arquitectónico comenzó a prescribir un aumento de la dosis de interacción entre los agentes intervinientes, así como el número de éstos. Surgieron entonces alternativas a la metodología de proyecto lineal positivista que articulaban de otra manera el proceso proyectual. El desarrollo de nuevos sistemas, a veces mediáticos (Charles y Ray Eames), a veces patronados (Christopher Alexander) y a veces procedimentales (Cedric Price y Gordon Pask, Archigram, Nicholas Negroponte) vieron la luz en este período heroico. Desde esta interpretación sistémica del proyecto se lograron proponer, fundamentalmente en el plano teórico, modelos con altos ratios de interactividad. Los procedimientos que alimentan la ordenación jerárquica de las diferentes atenciones que componen el proyecto arquitectónico resultaban así integrados en una interfaz informacional, con distintas implicaciones tecnológicas. La pretensión de incorporar de datos en ‘tiempo real’ o la integración de dinámicas que consideraban el feedback del usuario constituían parte de un conjunto de estrategias que interpretaban el proceso de proyecto como una técnica especializada 370 en sistematizar el control de los recursos del metabolismo con que se identificaba tanto el propio proyecto como la propuesta construida. Esta vía de exploración proyectual -de gran vigencia actual en el desarrollo de arquitecturas responsivas- inaugurada en la década de los sesenta fue alimentada por el desarrollo de las TIC a lo largo de la Revolución Digital y tuvo su punto de inflexión en 1998, al cese de ésta, cuando la computadora completó su capacidad mediadora no ya desde el procesamiento de la información -campo desarrollado a lo largo de la segunda mitad del siglo XX- sino desde el procesamiento de la comunicación. Desde esta doble capacidad (información + comunicación) se propone el proyecto procedimental como metodología del proyecto arquitectónico fundamentada en su facultad para mediar entre los agentes implicados en el marco que supone el Entorno Aumentado. Se enuncia como metodología apropiada para el desarrollo del proyecto aumentado y como instrumento operador de una práctica profesional contemporánea cada vez más transdisciplinar y compleja. El proyecto procedimental asume en su grado cero estrategias colaborativas y abiertas -opensource- que ordenan la amalgama de información derivada del proyecto de arquitectura aumentada. No solamente debe posibilitar unos niveles máximos de interacción, sino que surge para el diseño de la topología propia de los entornos aumentados, atendiendo simultáneamente a la multiplicidad dimensional que proponen. Un conjunto de procedimientos cuyo objetivo consiste en ordenar la relación simbiótica producida por la inserción de la capa digital en un entorno físico, habilitando una interfaz informacional dispuesta para integrar a proyectistas, usuarios y otros agentes relacionados con la sistematización del acontecimiento arquitectónico. Asimismo, el proyecto debe contemplar una capacidad de respuesta eficaz frente al cambio. El usuario de la ciudad aumentada, en su circunstancia mediática sobre-informada, se revela a la vez como activo consumidor y constructor del Entorno Aumentado. La labor constructora que el internauta desempeña en Internet tiene su réplica en la propia que el arquinauta ejecuta en la ciudad aumentada. El edificio-terminal del Entorno Aumentado media entre los agentes de naturaleza digital y los propios de la realidad física, desempeñando la función de enlace entre la fuente de información (emisor) y el consumidor final (receptor). Este atributo mediador del Entorno Aumentado impone en el usuario una condición que altera su percepción y comprensión ‘inmediata’ de la ciudad a favor de un conocimiento ‘mediato’. El entorno ‘mediato’ es de naturaleza reflexiva, no intuitiva, por cuanto los elementos que lo componen no se perciben como objetos aislados sino en su interconexión físico-digital. El edificio-terminal comienza a existir allí donde es percibido por el usuario, la tele-presencia a través de los dispositivos electrónicos permite su deslocalización del enclave físico -por ejemplo, mediante el desplazamiento de su fachada- e invita a revisar el baremo de parámetros que ordena la trama urbana contemporánea. En última instancia, la regulación de la ‘propiedad aumentada’ en relación a las legislaciones que articulan bien el Entorno Físico bien el Entorno Digital se prevé una tarea compleja por su propia naturaleza híbrida, fundamentada además en el conflicto que depara la dependencia tecnológica del Entorno Aumentado. Las capacidades y potenciales de la ciudad aumentada incrementan los estándares de interacción en el ecosistema urbano contemporáneo, produciendo cambios en el contexto y alterando los modos de vida y las rutinas de sus ciudadanos. Esta perturbación conlleva una 371 transformación del status ciudadano. La injerencia del dominio digital en la vivienda ha inferido en el programa doméstico síntomas de deslocalización y de hibridación. Esta impostura tecnológica espacio-temporal alienta la disolución de las dicotomías tradicionales privadopúblico, interior-exterior, trabajo-ocio, individual-colectivo,…etc., que históricamente han delimitado los espacios arquitectónicos. La migración de contenidos domésticos hacia localizaciones urbanas, y viceversa, está propiciando la reconsideración de los fundamentos de la vivienda no ya futura sino contemporánea, así como el desarrollo de nuevos modelos de habitar capacitados para asumir al unísono la domesticación de la ciudad y la ciudadanización de la domus. En el Entorno Aumentado, el usuario forma parte de la comunidad que habita el edificio, tanto en su acepción física como en la digital o simultaneando ambas. Como elemento del proceso de comunicación, éste participa de la capa digital que propone el edificio adaptándola a su condición individual -como hace con otros formatos digitales- y llegando a establecer un pacto para fijar los niveles de inmersión deseados. La capacidad del usuario para manipular el diseño de la capa digital de la ciudad está directamente relacionada con la condición ubicua de los sistemas computerizados -hardware y software- del Entorno Aumentado, una circunstancia cuyo fundamento ético es hoy cuestionado por el movimiento hacker. 4. Comunicación empática. El desarrollo tecnológico acontecido en la Revolución Digital ha supuesto la superación de los primeros procedimientos lineales en la comunicación y en los media, alcanzando niveles superiores con la incorporación de la retroalimentación o feedback. Este hecho ha propiciado que los procesos arquitectónicos puedan asimilar estructuras informacionales complejas. Entiéndase el nivel más bajo de comunicación como aquél en el que el emisor del mensaje desconoce siquiera la existencia de un receptor concreto -tal es el caso de la propaganda-; el siguiente nivel básico quedaría constituido por el caso del receptor pasivo, resultando un tercer nivel el derivado del proceso de acción-reacción. La comunicación que habilita el Entorno Aumentado se sitúa en un cuarto nivel, o estadio superior de interdependencia donde la empatía entre los agentes que forman parte del proceso de comunicación alcanza tal desarrollo, que admite inferencias mutuas sobre las conductas. Según el modelo de comunicación de Shannon y Weaver (1949), este tipo de transmisión de mensajes precisa de una interfaz o canal de comunicación que articule todo el proceso. Teniendo en cuenta los tiempos propios del Entorno Físico y del Entorno Digital en relación al usuario, así como el control del flujo de la información, el fundamento de la eficacia de un lugar aumentado, en términos de comunicación, reside en un profundo conocimiento de los agentes participantes y de su interfaz relacional. La incorporación de ratios de interacción en las fases de proyecto arquitectónico, de uso del edificio y de reutilización y/o reciclado tiene su fundamento en la transferencia del concepto cibernético de feedback a la práctica arquitectónica, hecho que se produjo a la vez que ésta asumía los nuevos preceptos de la computación. La continuidad a lo largo de la segunda mitad del siglo XX de este proceso convergente que fusiona lo arquitectónico con las tecnologías de la 372 información y la comunicación ha promovido el abandono de la naturaleza lineal de los procesos arquitectónicos y la intensificación del vínculo entre los actores participantes, sobrecargando el proyecto pre-digital con una cantidad mucho mayor de información. La conquista de la interactividad comenzaba a finales de la década de los cincuenta y principios de los sesenta por distintas vías: Alison y Peter Smithson junto con Ray y Charles Eames, y posteriormente Denise Scott Brown y Robert Venturi, lo hacían por la vía de la integración conceptual, aunque con diferencias de enfoque; Archigram, Nicholas Negroponte, Cedric Price con Gordon Pask o el propio Christopher Alexander lo hacían incorporando una interacción operativa a la metodología de sus proyectos. Desde entonces, la conquista de mayores ratios de interacción que enriquezcan la atención mediadora del proyecto arquitectónico es una constante en la labor del arquitecto del siglo XXI. La posición del usuario en la cadena de producción de arquitectura ha pasado de ocupar los últimos lugares a incorporarse en los preliminares del proyecto. Dos años antes del cambio de milenio, el Entorno Aumentado vio inaugurado su campo de acción al constituirse la World Wide Web y la consiguiente identificación de computación y medio de comunicación como parte de una misma tecnología. Este momento, que constituye la inflexión en el proceso de convergencia de los entornos Físico y Digital, concluirá además con un cambio radical en el promedio de la interacción aplicado al control que el ser humano ejerce sobre la computadora. La primitiva acción ‘digital’ percutora ejercida por el mecanógrafo sobre el teclado de la máquina comenzará a ser subvertida con la aparición de otras opciones de ergonomía más sensible a la naturaleza humana. El progreso de la interfaz tecnológica entre el usuario y la capa digital implica la consecución de una Naturaleza si cabe más artificial, aunque más orgánica y menos mecánica. El usuario es capaz de manipular la tecnología que opera el campo informacional de un modo más sencillo, intuitivo y eficaz. Esta humanización de la interfaz es un síntoma característico del Entorno Aumentado, la cual permite incrementar el nivel de sensibilidad artificial y la capacidad de control en el contexto híbrido físico-digital. La acción desmaterializante practicada en los soportes de expresión gráfica, escultórica, arquitectónica,…etc., que condicionaban la huella del autor en la obra ha vertebrado gran parte del discurso artístico del siglo XX. El ideal de la fusión corpórea-instrumental deseado por Jackson Pollock o Pablo Picasso se concreta finalmente en el conjunto de interfaces que paulatinamente construye el Entorno Aumentado, donde el propio cuerpo se convierte en instrumento capaz cuyo rastro resulta reconocido, registrado y digitalizado. En esta conquista por la desmaterialización, la arquitectura ha acercado posturas hacia las otras artes que habían logrado esta consistencia inmaterial con anterioridad. La asimilación arquitectónica de los atributos líquidos -en boca de Zygmunt Bauman- como la capacidad de transfiguración, de información, de edición o de mediación, abre las puertas a un campo con enorme potencial dispuesto a señalar a la arquitectura aumentada como terminal mediadora entre el Entorno Digital y el Entorno Físico, y entre el edificio y sus usuarios. El Entorno Aumentado articula el edificio como un sistema de comunicación participado por los usuarios, lo que despierta la sospecha del cambio en los fundamentos de la ciudad masiva tradicional. Las consecuencias de la geo-localización de la capa digital y su percepción por la ciudadanía induce a pensar en un posible abandono progresivo de algunos invariantes propios del paisaje urbano gravitatorio, orientados a la superación de la estética estática, en favor de propuestas que participen de la 373 condición dual. Queda para el lector el pronóstico sobre las consecuencias últimas de esta consideración, así como la urgencia o viabilidad de esta teoría. La cuestión económica parece ser, sino la principal, una de las causas primeras que active el desarrollo del nuevo paisaje híbrido: construir es más caro que modelar. Los flujos de información que se ubican en el Entorno Aumentado pasan de ser percibidos en las pantallas de las fachadas mediáticas edificadas a mostrarse en los dispositivos individuales del ciudadano. La ingravidez de la membrana aumentada permite su desarraigo del edificio para ocupar otros soportes en una migración que trasciende la ubicuidad euclidiana del edificio entendido como un lugar. Las prolongaciones neuronales de la terminal arquitectónica pueden percibirse por el usuario a una distancia y a una escala considerablemente alejada del edificio masivo. El edificio-terminal reemplaza su objetividad construida por la subjetividad líquida del soporte del usuario. La arquitectura aumentada comienza allí donde se encuentre el usuario. La información artificial de la materia construida implica la codificación de la capa digital, lo que afecta a las capacidades y competencias profesionales del arquitecto, que han experimentado ya un acercamiento hacia el campo de los lenguajes de programación. El perfil ortodoxo del arquitecto mono-disciplinar, vinculado exclusivamente al hecho constructivo, ha evolucionado hacia posiciones heterodoxas relacionadas con las tecnologías de la información y la comunicación. Inevitablemente, el siglo XXI parece requerir del arquitecto un compromiso renovado con las prácticas de codificación y comunicación de la información. Antes de concluir con esta categoría de la comunicación, cómo no recordar las palabras de Ludwig Wittgenstein ‘los límites de mi lenguaje significan los límites de mi mundo’, en clara alusión a la coyuntura polisémica contemporánea que acompaña el proceso de construcción del Entorno Aumentado. La acción de nombrar los sustantivos y las acciones que surgen a raíz de los nuevos desarrollos tecnológicos y sus consecuencias tiene lugar en una situación de emergencia continua de nuevos conceptos. La creación acelerada de nuevos sintagmas que los definan debe ser objeto de estudio técnico también por parte de la disciplina arquitectónica, al menos en lo concerniente a la innovación lingüística relacionada con conceptos vinculados a lo arquitectónico. 5. Ecología digital. La tecnología digital que nutre de aplicaciones al Entorno Aumentado implica un añadido artificial al orden ecológico de la Primera Naturaleza confinada históricamente en el Entorno Físico. La interacción entre los organismos vivos y entre éstos y su hábitat ve aumentada su extensión pre-digital con una nueva capacidad sensorial e informacional. El Entorno Aumentado propone un paisaje sensorial artificial que produce arquitecturas responsivas conectadas entre sí y con el usuario, por otro lado ya anunciadas en el siglo anterior por Cedric Price y otros. En la escala objetual, este acontecimiento ha recibido el nombre de Internet de las cosas y se refiere al conjunto de objetos cotidianos aumentados, interconectados en Red mediante sensores o actuadores que implantan aquí y allá las terminaciones de la capa digital. La tendencia arquitectónica integradora de un orden estructural orgánico, energético, mediático e 374 informacional constituye una directriz contemporánea fundamental en el desarrollo del Entorno Aumentado, por cuanto se presta como instrumento pero a la vez como medio vehicular y fundamento del nuevo orden híbrido. Los objetos y los usuarios provistos de sensibilidad ‘aumentada’, tanto en su condición individual como en agregaciones comunitarias, se prestan a convivir en un hábitat donde la arquitectura aumentada se propone como elemento de mediación y soporte de interacción. El modelo de ciudad aumentada se construye desde protocolos de comunicación capaces de facilitar una mayor empatía entre sus ciudadanos y una mayor eficacia de su metabolismo. La emergencia del Entorno Aumentado implica un precepto digital en la definición de un orden ecológico que integre las tres ecologías de Félix Guattari: mental, medioambiental y social. La velocidad del tiempo tecnológico apenas deja respiro para valorar si la hiperrealidad del Entorno Aumentado se aproxima al bien social o si, muy al contrario, forma parte de los comienzos de una distopía tecnológica… ¡qué decir sobre la mirada perdida del Terminator o las Google Glasses! Igual que ha sucedido en el pasado con otros impulsos transformadores, es de suponer que el escepticismo ético propio de esta nuestra Sociedad Informacional irá perdiendo paulatinamente su impostura equilibrada ante la eclosión del Entorno Aumentado. Hasta entonces, sumémonos a Cedric Price: ‘La tecnología es la respuesta pero ¿cuál era la pregunta?’. 375 376 Bibliografía AARSETH, Espen (2001) ‘Computer Game Studies, Year One’, Game Studies 1. Disponible en: <http://gamestudies.org/0101/editorial.html>. (Consultada el 3 de junio de 2012). AARSETH, Espen (2007). ‘Investigación sobre juegos: aproximaciones metodológicas al análisis de juegos’, Artnodes nº 7, Universitat Oberta de Catalunya. Disponible en: <http://artnodes.uoc.edu>. (Consultada el 20 de julio de 2012). ABAD, Paloma (2011) ‘Usted está aquí’, El País Semanal nº 1838, p. 20. ÁBALOS, Iñaki (2011) Campos prototipológicos termodinámicos, Madrid: Laboratorio de Técnicas y Paisajes Conte. ADAM, F. & PERALES, V (2012:) Integración de GIS (sistemas de georreferenciación de la información) y localización espacial en prácticas pedagógicas y lúdicas vinculadas a museos, p. 123. Disponible en: <http://www.arteindividuoysociedad.es/articles/N25.1/PERALES_ADAM.pdf>. (Consultada el 9 de agosto de 2013). ALCALÁ, José Ramón (2007) ‘Arquitecturas de (y en) la Red: Visibilizar el (no) espacio electrónico de la comunicación’, Arte, Arquitectura y Sociedad_Digital, Cirlot, Lourdes et ál. (eds.), Barcelona: Universitat de Barcelona, p. 35-52. ALLEN, Stan (1997) ‘From Object to Field’, Architectural Design, May-June. AMANN, Atxu (2011) El espacio doméstico: la mujer y la casa, Buenos Aires: Nobuko. AMANN, Atxu & ROIG, Eduardo (2009) ‘Programa y modos de vida’, Instrumentos de proyecto. Concurso VIVA SEPES, (ed.) ARKRIT. Laboratorio de crítica, Universidad Politécnica de Madrid, ETSAM, Madrid: SEPES. ARTAUD, Antonin (1958) The Theatre and Its Double, New York: Grove Press, Inc. BANHAM, Reyner (1960a) Theory Design in the First Machine Age, London: Architectural Press. BANHAM, Reyner, (1960b) A critic writes : essays by Reyner Banham, University of California Press: Centennial Books. BANHAM, Reyner & DALLEGRET, Francois (1965) ‘A Home is not a House’, Art in America Vol. 53, Abril, p.70-79. BARNATT Ch., The second digital revolution. Explaining the future, Disponible en: <http://www.explainingthefuture.com/sdr.html>. (Consultada el 3 de enero de 2013). BARTLE, Richard (1996) ‘Hearts, clubs, diamonds, spades: players who suit muds’. Disponible en: <http:/www.mud.co.uk/richard/hcds.htm>. BAUDRILLARD, Jean (1981) El sistema de objetos, Madrid: Siglo XXI. BAUMAN, Zygmunt (2003) Modernidad líquida, México DF.: Editorial Fondo de Cultura Económica. BENJAMIN, Walter (1971, 1989) Discursos interrumpidos I, Buenos Aires: Taurus. BENJAMIN, Walter (1999) The Arcades Project, (trans.) Howard Eiland and Kevin McLaughlin, Cambridge, MA: Belknap Press: p.19. BITTANTI, Matteo & QUARANTA, Domenico (eds.) (2006) GameScenes. Art in the Age of Videogames, Milan: Johan & Levi. BOGOST, Ian. Persuasive Games: The Expressive Power of Videogames. Cambridge, MA: MIT Press. 377 BORREGO, Ignacio (2012) Materia Informada. Deformación, Conformación y Codificación, los tres procedimientos de almacenamiento de información en la materia, (dir.) Federico Soriano, Universidad Politécnica de Madrid, ETSAM. BRADBURY, R. (1991), ‘Art and Science Fiction: Unbuilt/Realized Dreams’, Yestermorrow: Obvious answers to Impossible Futures, Santa Barbara, CA: Joshua Odell Editions/Capra Press, 1991, p.18-29. BRAUNGART M. & MCDONOUGH, W. (2005) Cradle to Cradle (De la cuna a la cuna): Rediseñando la forma en que hacemos las cosas. Madrid: McGraw-Hill. BRIGGS Asa & BURKE Peter (2002) De Gutenberg a internet: una historia social de los medios de comunicación, Madrid: Taurus. BROWN P., LAUDER H. & ASHTON D. (2011) The global Auction: the Brocken Promises of Education, Jobs and Incomes, Oxford: Oxford University Press. CALDWELL, N. (2000) ‘Virtual Domesticity: Renewing the Notion of Cybernetic Living and Working Environments’. M/C: A Journal of Media and Culture 3(6). Disponible en: <http://www.apinetwork.com/mc/0012/virtual.php> (Consultada el 6 de mayo de 2013). CAILLOIS, Robert (1986) Los juegos y los hombres, Fondo de Cultura Económica USA. CAMPBELL-DOLLAGHAN, Kelsey (2013) Happy 70th Birthday To Buckminster Fuller's Dymaxion Map. Disponible en: <http://www.gizmodo.com.au/2013/04/happy-70th-birthday-to-buckminster-fullersdymaxion-map/> (Consultada el 9 de agosto de 2013). CAÑAS, Gabriela (2005) ‘España Dígame’, El País, 30 de octubre de 2005. CAPARRÓS, Nicolás (2012) ‘Introducción General’, Viaje a la Complejidad, vol.I, Del Big Bang al origen de la vida, Caparrós, N. & Cruz Roche (dirs.), Madrid: Biblioteca Nueva. CARPENTER, Edmund & MCLUHAN, Marshall (1960) Explorations in Communication, Boston: Beacon Press. CARPO, Mario (2009) ‘Revolución 2.0. El fin de la autoría humanista’, Arquitectura Viva, nº 124, p. 19. CARPO, Mario (2010) The Alphabet and the Algorithm, MA: MIT Press. CARPO, Mario (2013) The Digital Turn in Architecture 1992-2012, West Sussex: John Wiley and Sons Ltd. CASTELLS, Manuel (2002) La Era de la Información. Vol. I: La Sociedad Red. México, Distrito Federal: Siglo XXI Editores. CAVICCHI, Costanza; CECCARELLI, Francesco & TORLONTANO, Rossana (2003) Giovan Battista Aleotti, Reggio Emilia: Edizioni Diabasis. CEDILLO, Carmelo (2013) Hacia una arquitectura virtual, Disponible en: <http://arqueologiadelfuturo.blogspot.com.es/search/label/hacia%20una%20arquitectura%20virtual>.(Consultada el 22 de agosto de 2013). CHOMSKY, Noam (1965) Aspects of the theory of syntax, Cambridge, Massachusetts: MIT Press. CLARKE, Arthur C. (2003) 2001, una odisea espacial, Barcelona: Ediciones de Bolsillo. COLOMINA, Beatriz (2001) ‘Enclosed by Images: The Eameses’ Multimedia Architecture’, Grey Room, nº 2. (Winter), p. 5-29, Cambridge, MA: MIT Press. COLOMINA Beatriz (2004) ‘Un aire aun no espirado, 1956’, Alison and Peter Smithson: from the house of the future to the house of today, Rotterdam: 010 Publishers. COLOMINA, Beatriz (2006) La domesticidad en Guerra, Barcelona: Actar. COLOMINA, Beatriz (2008) ‘Visiones borrosas: Arquitecturas de la vigilancia’, Pasajes de Arquitectura y Crítica, nº 100, octubre de 2008, Madrid, p: 60-63. 378 COLOMINA, Beatriz (2013) ‘Los que peor escriben son los que más complican las cosas’, El País Semanal, 27 de enero de 2013. CONSALVO, Mia & DUTTON, Nathan (2007) ‘Game analysis: development a methodological toolkit for the qualitative study of games’, Artnodes, Universitat Oberta de Catalunya. Disponible en: <http://artnodes.uoc.edu>. (Consultada el 20 de junio de 2012). COOK, Peter (1970) ‘Futurism-and the future that happened’, Experimental Architecture, p.16-17, Londres. COOK, Peter (ed.) (1999) Archigram, NY: Princeton Architectural Press. COSTA, Ivana (1999) ‘Origen, apogeo y caída del telón’, Clarín, 11 de octubre de 1999. CRESS, Ulrike & KIMMERLE, Joachim (2007) ‘A Theoretical framework of collaborative knowledge building with wikis: a systemic and cognitive perspective’, CSCL 2007, p.156-164. Disponible en: <http://www.informatik.uni-trier.de/~ley/pers/hd/c/Cress:Ulrike>. DARLEY, Andrew (2000) Cultura visual digital. Londres: Routledge. DE CERTEAU, Michel (1980) La invención de lo cotidiano, Universidad Iberoamericana, Departamento de historia, Instituto Tecnológico y de Estudios Superiores de Occidente, México D.F. DE LANDA Manuel (2002) Intensive Science and Virtual Philosophy, Londres: Continuum. DE LANDA Manuel (2006) A New Philosophy of Society: Assemblage Theory and Social Complexity, London & New York: Continuum. DEBORD, Guy (1958) ‘Teoría de la deriva’, Internationale Situationniste nº 2. Traducción extraída de Internacional Situacionista, vol. I: La realización del arte, Madrid: Literatura Gris. DEBORD, Guy (1967) La sociedad del espectáculo, parágrafos 4, 5 y 6, New York: Zone Books. DELEUZE, Gilles (2007) El concepto de diagrama, Buenos aires: Cactus. DIBBEL, Julián (2006) Playmoneyfilm, Chicago: Basic Books. DODGE, Martin & KITCHIN, Rob (2000) Mapping Cyberspace, London: Routledge. DONALD, Merlin (1993) Origins of the Modern Mind: Three Stages in the Evolution of Culture and Cognition. Boston: Harvard University Press. DONIS, A. (2007) La sintaxis de la imagen, MA: MIT Press. DORFLES, Gillo (1971) ‘Ikonologie und semiotische Aspekte der Architektur’, Architectur als Zeichensystem, Tübingen: Wasmuth. DOVEY, Jonathan & KENNEDY, Helen W. (2006) ‘From margin to center: biographies of technicity and the construction of hegemonic games culture’, The players’ realm. Studies on culture of videogames and gaming, North Carolina: Mc Farland. DYENS, Ollivier (2005) ‘La Realidad Híbrida’, Hybrid. Living in Paradox, Ars Electrónica 2005. Linz: Ars Electrónica Ed. ECHEVERRIA, Javier (1999) Los Señores del aire: Telépolis y El Tercer Entorno, y la vida cotidiana, Madrid: Destino. ECHEVERRÍA, Javier (2003) La revolución tecnocientífica, Madrid: Fondo de Cultura Económica. ECO, Umberto (1968) La struttura assente, Milan: Bompiani. EISENMAN Peter (2013a) Visions Unfolding: Architecture in Age of Electonic Media, The Digital Turn in Architecture 1992-2012, p. 15-22, CARPO Mario (Ed.), Architetural Design Reader, London: John Wiley & Sons Ltd. 379 EISENMAN Peter (2013b) The affects of Singularity, The Digital Turn in Architecture 1992-2012, p. 2327, CARPO Mario (Ed.), Architetural Design Reader, London: John Wiley & Sons Ltd. FARÍA Ignacio (2008) ‘Nueva ontología de lo social. Manuel de Landa en entrevista’, Persona y Sociedad, Universidad Alberto Hurtado, Vol. XXII, nº 1, p. 75-85. FERNÁNDEZ, Angel José (2010) ‘Pieles y pantallas. Hacia una nueva arquitectura’, XIII Congreso de Expresión Gráfica Arquitectónica. Actas volumen I, Valencia: Editorial de Universitat Politécnica de Valencia. FERNÁNDEZ-GALIANO, Luis (1991) El fuego y la memoria: sobre arquitectura y energía, Maddrid: Alianza Forma. FERRATER José (2008) Diccionario de Filosofía Abreviado, Barcelona: Edhasa. FLORIDI, Luciano (2010) Information, Oxford: Oxford University Press. FRASCA, Gonzalo (2006) ‘From the Green Berets to America’s Army: Video Games as Vehicle for Political Propaganda’, en The players realm. Studies on culture of videogames and gaming. North Carolina: Mc Farland. FRAZER, John (2011) ‘A Natural Model for Architecture’, Computacional Design Thinking, Mengest, Achim & Ahlquist, Sean (eds.), Wiley: AD Reader. FURTADO, Gonçalo (2008) ‘Cedric Price and Gordon Pask: The Japan Net Experiment (1986)’, European Meeting on Cybernetics and Systems Research, 2007, University of Vienna. GAGNON, David J. (2010) ARIS. An open source platform for developing mobile learning experiences, Disponible en: <http://arisgames.org/wp-content/uploads/2011/04/ARIS-Gagnon-MS-Project.pdf>, (Consultada el 8 de febrero de 2013). GALLOWAY, A. & WARD, M. (2006) ‘Locative