A parametrização como mediação, ou o homem e sua sina

Ruy Sardinha, Marcelo Tramontano

Ruy Sardinha é filósofo e Doutor em Filosofia. Professor e pesquisador do Instituto de Arquitetura da Universidade de São Paulo (IAU-USP), onde coordena o Núcleo de Estudos das Espacialidades Contemporâneas (NEC-USP). Estuda as transformações espaciais que caracterizam o mundo contemporâneo a partir das relações entre arquitetura, arte, cidade e sociedade.

Marcelo Tramontano é arquiteto e Livre-docente em Arquitetura e Urbanismo. Professor Associado e pesquisador do Instituto de Arquitetura e Urbanismo da Universidade de São Paulo (IAU-USP), onde coordena o Nomads.usp, Núcleo de Estudos de Habitares Interativos, editor da revista V!RUS.


Como citar esse texto: SARDINHA. R.; TRAMONTANO, M. A parametrização como mediação, ou o homem e sua sina . Entrevista. V!RUS, São Carlos, n. 11, 2015. [online] Disponível em: <http://www.nomads.usp.br/virus/virus11/?sec=2&item=1&lang=pt>. Acesso em: 24 Set. 2017.

Marcelo Tramontano: Ruy, gostaríamos de iniciar essa conversa com uma apreciação sua sobre a construção histórica da noção de parametrização.

Ruy Sardinha: Creio que, para além das questões inerentes à produção, concepção e representação do espaço arquitetônico, em grande medida revolucionados a partir da introdução e desenvolvimento das novas tecnologias digitais, a entrada naquilo que alguns vem chamando de “era da parametrização” demanda grande esforço analítico no sentido de apreender seus diversos vieses. Como pano de fundo, temos a ideia de que uma realidade, sociedade ou naturezas complexas - ou multiparamétricas - não se deixariam mais apreender pelos métodos analíticos tradicionais - análise aqui entendida como a divisão dessa complexidade em unidades mais simples -, mas demandariam métodos e instrumentos mais adequados, do chamado pensamento complexo ao desenho ou tecnologias (multi)paramétricos. Subjazem a esse pano de fundo a busca de um controle maior sobre os processos produtivos e o esforço para não deixar-se sucumbir diante dos acasos e contigências da vida, que são parâmetros não contemplados. Reeditam-se velhas questões que acompanham a reflexão ocidental sobre a relação do homem com a natureza e com os artefatos por ele criados desde o alvorecer das grandes civilizações da antiguidade.

Não custa lembrar que, na Grécia antiga, a techné, o conhecimento próprio à criação daquilo que não existia na natureza, dependente, portanto, da vontade e ação humanas, também presidirá as ações operativas - como a agricultura e a medicina -, capazes de conduzir a natureza a caminhos distintos. Tal operacionalidade visava, entre outras coisas, libertar o homem do domínio do acaso e das contingências. Essa necessidade de um saber operacional sobre a natureza colocava ao homem a necessidade de lidar com os acasos, com as contingências. É por isso que uma outra acepção de techne é a que opõe técnica a tykhe, que é o acaso, a contingência, sugerindo que o conhecimento técnico previne o homem das contingências do acaso. Podemos, assim, observar que, desde os seus primórdios, existe uma tensão entre liberdade e determinação na formulação de um conhecimento que tenta lidar com as contingências, com o acaso, com aquilo que o homem não controla, que escapa ao seu controle, envolvendo a necessidade de se precaver frente a esses acasos. Ora, ainda lidamos, hoje em dia, com essa tensão entre acaso e determinação, com a necessidade de controlar aquilo que nos escapa. Pensar, portanto, tecnologias ou metodologias que podem abranger os vários parâmetros que compõem a realidade coloca ou renova a questão do controle ao lidar com contingências.

Ao observarmos a história dessa polaridade, percebemos a tendência de uma razão controladora, de uma razão instrumental que consiga, por um lado, se prevenir e, por outro lado, antecipar os rumos próprios da natureza. Percebemos, também, que essa polaridade começa a ganhar maior ênfase a partir do advento da ciência moderna e, principalmente, a partir do momento em que essa natureza passa a ser matematizada, ou matematizável. O universo medieval era dotado de significados, de lugares pré-determinados carregados de simbologias muito fortes, nas quais as qualidades predominam, e onde os corpos ocupam lugares determinados do espaço pelas suas qualidades ou pela vontade divina. Mas a partir de um certo momento, começa a ocorrer uma dessacralização dessa noção espacial, e é importante notar que, mais do que uma dessacralização, ocorre uma matematização desse universo: o universo passa a ser visto como universo homogêneo ou, pelo menos, dotado de características matemáticas.

Galileu vai dizer que a matemática é uma linguagem a partir da qual Deus escreveu o mundo. A utilização da matemática por filósofos, cientistas, pensadores, nos séculos XV e XVI, é muito diferente de como a entendemos hoje, porque a matemática, naquele momento, era quase mística, ligada ainda aos conceitos da magia natural, dos poderes mágicos do mundo. Mas o que me parece interessante aí é a ideia de que é possível apreender a natureza, o universo, a partir de um conjunto de parâmetros ou de coordenadas matemáticas e numéricas. Essa ideia de que o mundo se traduz através de um conjunto de coordenadas e que, conhecendo essas coordenadas, que são variáveis, pode-se controlar o mundo, entendê-lo um pouco melhor, permitindo ao homem precaver-se e também dominar o mundo, foi um conceito forte daquele momento e que criou toda uma tradição. Por isso, parece-me que a ênfase dada à parametrização, no momento atual, recupera um pouco essa tradição.

Marcelo Tramontano: Que leitura você faria do período entre os séculos XVI e XIX, que é quando o pensamento tecnológico e a produção a ele ligada ganham força e se consolidam?

Ruy Sardinha: Existia, na Antiguidade, uma distinção entre o conhecimento da natureza - physis -, a ciência - episteme- e o conhecimento destinado à fabricação dos artefatos, a techné ou técnica, que, em certa medida se opunham. A partir do século XVI, ocorre uma aproximação desses campos, surgindo daí o conceito de tecnologia como um saber que pressupõe um conhecimento científico, ao mesmo tempo que torna esse conhecimento científico mais operacional. Com o advento do capitalismo e da maquinofatura mas, principalmente, da Revolução Industrial, os aparatos tecnológicos vão ganhar uma importância insondável. É certo que isso também vai levar a um grande investimento social e econômico nesses aparatos, e que cada vez mais a economia mundial passará a depender dos setores de produção desses objetos tecnológicos. No entanto, esse novo momento gera também todo um campo simbólico e imaginário. Assim, a ênfase, a partir do século XIX, dada pela literatura e pelas artes em geral à questão dos autômatos e do universo técnico-científico, demonstra o quanto essa junção se torna uma importante base material da sociedade, para o bem e para o mal. Vamos observar, no campo das artes, uma produção que ora enaltece, ora demoniza esse universo técnico-científico.

Outro aspecto a ser considerado que, em certa medida, é decorrente da visão mecanicista da natureza e da maquinofatura em curso no século XIX, é a hegemonia da visão objetivante e positivista das ciências naturais. Conceber a natureza e a sociedade como grandes mecanismos, dotados de engrenagens, com modos de funcionamento específicos, vai constituir uma grande matriz do pensamento moderno. Ela encontra o seu auge, o seu momento de esplendor e, ao mesmo tempo, de inflexão, no século XIX, na segunda Revolução Industrial, com todo o universo técnico-industrial e cultural dos séculos XIX e XX. Essa visão passa a servir de modelo para as então recém-criadas Ciências Humanas, apesar de o universo das Humanidades se mostrar necessariamente mais complexo e indeterminado, indicando a necessidade de se construirem métodos mais adequados à sua apreensão e entendimento. Talvez - e essa pode ser uma questão importante para pensarmos as nossas dimensões atuais - as Ciências Humanas não se deixassem apreender, ou compreender plenamente, pelos instrumentos metodológicos positivantes das ciências duras. Essa me parece ser, ainda hoje, uma das grandes questões do pensamento científico: essa mecanização, ou essa matematização, ou esse pensamento mais positivo, ele se aplica ao universo humano?

Uma das questões que, no século XIX, se colocava como limite dessa visão positivista era a noção do inconsciente ou, ainda, do universo libidinal. Como traduzir, a partir de parâmetros ou de critérios das ciências exatas, aquilo que se colocava para além ou para aquém de uma racionalidade dada? Como abarcar uma realidade que escapava aos procedimentos científicos hegemônicos? Como pensar outras dimensões da realidade a partir de outros critérios? O advento da estética como campo de reflexão filosófica do século XIX constitui um contraponto interessante: ao mesmo tempo que uma ciência positiva tenta abarcar a realidade a partir dos seus procedimentos próprios, ocorre a formação de um outro campo do saber, o da estética filosófica dentro do campo da filosofia que, ao se colocar como campo de conhecimento, indicava os limites desse projeto de um conhecimento positivo e objetivante do mundo. Nesse sentido, seria interessante pensar a própria constituição da estética filosófica ou da “filosofia da arte” proposta por Nietzsche como contraponto às ciências duras.

Marcelo Tramontano: Você mencionou o século XIX, que foi palco da consolidação de várias ideias, inclusive do encontro da tecnologia com a vida quotidiana, de diversas maneiras. Isso me faz pensar em duas questões que talvez você pudesse comentar. Uma, é com relação aos desdobramentos da Revolução Industrial, já no século XVIII, que é, com certeza, uma revolução tecnológica mas, bem além disso, uma revolução nas mentalidades, uma revolução cultural, além, é claro, de política. Esse processo vai se consolidando no final do século XVIII, enriquecendo-se e complexizando-se, e chega ao século XIX reverberando fortemente na maneira como as pessoas entendem a vida. A própria compreensão do que é "ser burguês" fundamenta-se numa visão positivista e una de mundo. Em seguida, você mencionou uma certa complexização do mundo durante o século XX, e me fez pensar na física quântica e em como novos aspectos da realidade passaram a ser percebidos, marcados pelo indeterminismo e pela imprevisibilidade, com os quais também era preciso lidar. Esses processos se refletiram igualmente nas mentalidades, embora de outra maneira. Mas as ciências duras são questionadas, nesse período, pela formulação do pensamento cibernético, pelas teorias sobre sistemas complexos, pela própria física quântica, como meios de se aproximar esses lugares do saber então desconhecidos, ou dos quais não se tem clareza. Como você vê isso?

Ruy Sardinha: Eu acho que você tem razão. É interessante observar o quanto o questionamento da visão reducionista do positivismo científico se deu não somente a partir da criação das ciências humanas, mas também em seu próprio campo, a partir dos meios de investigação e análise do mundo subatômico. A descoberta do universo quântico, do universo subatômico, engendrou uma descentralização dos saberes, das crenças estabelecidas. De repente, a estrutura íntima da matéria mostrava-se complexa, incerta, indeterminada, não apreensível pelas estruturas tradicionais do pensamento. Donde, por exemplo, a importância das lógicas paraconsistentes e do desenvolvimento de instrumentos capazes de processar grandes quantidades de informação. Percebeu-se, então, que a natureza e o mundo não são feitos de estabilidades, mas muito mais de instabilidades e de incertezas. Essa compreensão começa também a ocasionar uma descentralização do próprio sujeito. E, se no século XIX, Descartes, com o Cogito, fundava o conhecimento a partir de um sujeito cognoscente que atribui sentido ao mundo, o que se observa a partir dessas transformações da natureza é quase uma descentralização do próprio sujeito. Ele deixa de ser um doador de sentidos para se colocar dentro dessa miríade de acontecimentos, de fatos.

Por outro lado, se avançarmos um pouco no tempo, vamos encontrar uma série de acontecimentos históricos que passam a questionar as velhas crenças em uma Razão emancipadora, uma Razão que possibilita conhecer o mundo, portadora de bem-estar social. O projeto iluminista do século XVIII de emancipação pela via racional começa a ser questionado pelas dimensões da história. O advento das duas guerras mundiais mas, principalmente, da Segunda Grande Guerra, representou um ponto de inflexão nessa crença, porque uma guerra também pode ser entendida como um grande laboratório de experimentações tecnológicas, industriais, já que o pensamento científico investe fortemente no aparato de guerra. Contudo, contrariamente ao sonho futurista da tabula rasa, da guerra fazendo uma grande assepsia possibilitando o surgimento do Novo - um Novo vinculado às ideias de emancipação, etc -, o que se viu na Segunda Guerra Mundial foi a possibilidade de uma destruição total da humanidade, concreta e real. Então é interessante observar que se, em um primeiro momento, a mecânica quântica engendra uma certa descentralização e instabilidade, colocando a necessidade de novos conhecimentos, percebe-se, em seguida, em termos sociais e políticos, uma desconfiança em relação aos rumos que o desenvolvimento científico estava assumindo.

Claro, podemos lembrar também de outra discussão importante da época: debatia-se se a responsabilidade desse processo estaria em uma Razão controladora ou nos usos que se estavam fazendo desse conhecimento. Não por acaso, a década de 1960 vai discutir muito os usos sociais, políticos e as dimensões éticas do conhecimento científico e tecnológico. E aí começa toda uma revisão desses conceitos e ideias. Mas, de qualquer forma, em termos da própria sociedade, uma questão que vai ficar e que talvez seja um legado importante para a contemporaneidade é justamente pensar esse pêndulo entre um uso social e emancipador do conhecimento, e, contrariamente, um uso que pode trazer, em si, a destruição. São ponderações como as que se fazem com relação aos usos da energia nuclear: eles trazem a destruição, a bomba atômica, problemas de rejeitos, etc., mas também trazem a possibilidade de se curar o câncer, de se proporcionar tratamentos utilizando radioisótopos, de se produzir energia com custos reduzidos, etc.. No fundo, essas duas dimensões colocam a questão de que talvez esse conhecimento seja necessário, embora se deva ter algumas precauções com relação aos usos que se farão dele.

Marcelo Tramontano: O segundo pós-guerra disseminou, como sabemos, uma praga positivista meticulosamente espalhada pelo mundo, visibilizada em ações como o plano Marshall norte-americano e tudo que se seguiu a ele. A sua fala me lembra que havia, por trás disso, um claro objetivo de controle de muitas esferas da vida, e, consequentemente, um projeto de, digamos, domesticar o indeterminismo como forma nascente de entender o mundo. Essas ideias e teorias, como a quântica e o pensamento complexo, florescem em meados do século XX, quando o mundo está justamente colocando-se questões que derivam da descoberta do mundo subatômico. Ocorre-me, então, que o projeto dos vencedores da guerra trazia, no seu bojo, uma intenção de submeter pensamentos que prezassem o indeterminismo e considerassem desejável o imprevisível. Apesar de não constarem da pauta dos grupos dominantes da época, essas teorias vão, pouco depois, encontrar o seu lugar no florescimento da informática, pela simples razão de que a informática é per se parametrizada, e permite que a manipulação de parâmetros produza emergências, no sentido dado por Bertalanffy e Edgar Morin. É interessante, então, pensar que essas teorias voltam à pauta nos anos 1960 e, principalmente, na década de 1970, que é quando a informática se infiltra em todos os rincões da vida e esse projeto político, que exclui a imprevisibilidade, tem que ser revisto.

Ruy Sardinha: De fato, o Segundo Pós-Guerra foi responsável pelo advento de um novo paradigma que, aliado ao grande investimento financeiro nos meios informacionais, levará àquilo que Laymert Garcia dos Santos chamou de “virada cibernética”. Estou me referindo às pesquisas e descobertas em relação ao código genético e à lógica da vida, como expressa no livro "A lógica da vida", de François Jacob, agora concebidos a partir de suas dimensões informacionais. A expansão deste paradigma biológico às demais áreas do conhecimento, isto é, a suposição de um substrato comum aos seres animados e inanimados, aos objetos tecnológicos e aos sistemas sociais, como a economia, levará não somente à concepção de um universo codificado, entendido, agora, como a conjunção de diversos sistemas informacionais em relações recíprocas, mas também, mais uma vez, ao sonho de uma nova síntese, ou linguagem comum, agora propiciada pela cibernética.

A ênfase nos processos, nas trocas e perdas, na interação e agenciamentos redirecionam a questão do controle da tônica da produção para o acesso e os fluxos, levando àquilo que, mais tarde, Jeremy Rifkin denominará de “era do acesso”. É importante observar o quanto esse mundo “inteiramente codificado” é também amplamente quantificável - ou parametrizável -, aberto, portanto, a um controle mais estrito, pelo menos na mente criativa de seus idealizadores. Nesse sentido, é digno de nota o quanto a questão do acaso e da contingência é ressemantizada pela noção da emergência.

É nesse momento, um pouco depois da virada cultural, que vamos ter também o que alguns vão chamar de virada linguística, derivada do estruturalismo, mostrando o quanto nós somos linguagem. O homem, esse sujeito que, num determinado momento, doava sentido, é, na verdade, formado a partir das linguagens das estruturas linguísticas anteriores. Observa-se, assim, uma guinada em relação às dimensões da própria linguagem, e, em certo sentido, da informação. Por outro lado, não se pode esquecer que a guerra revelou, de maneira muito evidente, que um dos grandes embates entre as forças rivais se dava em uma espécie de jogo de informação e de contra-informação. O próprio desenvolvimento do computador está ligado a essa necessidade, colocada pela guerra, de se dar conta de um universo linguístico criptografado que precisaria ser traduzido, e aquele que conseguisse ter acesso àquelas informações mais rapidamente ganharia a guerra. Veremos, então, mais ou menos a partir do segundo pós-guerra, mas especialmente a partir da década de 1960, primeiro: uma dimensão política ou geopolítica da informação, ligada a todo esse investimento na guerra, nessas máquinas de tradução e de decifração. Depois, do ponto de vista da ciência e da biologia, veremos a descoberta dessa estrutura informacional e do próprio código genético.

A alocação de somas consideráveis de dinheiro nos setores das ciências da informação vai gerar, um pouco depois, a Internet, o desenvolvimento da telemática, da computação, etc.. Assim, a partir da década de 1960, observa-se, de fato, a formação de um novo paradigma que vem da informação e da comunicação. Ele começa a formar-se na década de 1960, mas tem um rebatimento muito grande, a partir da década de 1970, na economia mundial. Quando a matriz industrial fordista do capitalismo sofre a sua grande crise na década de 1970, configura-se a possibilidade tecnológica - já que muito dinheiro foi investido nesse setor - de reestruturar as bases econômicas a partir dessas novas matrizes. Passamos, então, a ter uma economia que se traduz também, e cada vez mais, em termos informacionais. Não por acaso, as ciências da informação, a cibernética, as teorias da comunicação e outras vão ganhar ênfase nesse momento.

Marcelo Tramontano: Eu me pergunto como todas essas coisas, que se consolidam a partir da década de 1970 e se tornam francamente convergentes nos anos 1990, com a implantação da Internet comercial no mundo, passam a fazer parte das mentalidades. Como elas passam a viesar visões de mundo, como se tornam parte indiscutível das culturas, dos modos de ser das pessoas. Essa explicação da vida através do código genético que você mencionou me lembra que, nos anos 1960, ao se tratar da questão da higiene, falava-se muito em um novo ente, o germe. Germes eram coisas invisíveis, e esperava-se que as pessoas comuns acreditassem na ação de algo que elas não podiam ver, mas cuja existência tinha a chancela do mundo científico. Transborda, então, de diversos campos da ciência, uma série de pressupostos para o quotidiano das pessoas. E elas, por seu lado, vão incorporando essas ideias em seus discursos, pressionadas pela publicidade e pelos meios de comunicação de massa, que ditam percepções de mundo. Toda essa alteração na maneira de se entender as coisas, em especial a partir da banalização do uso da Internet, conta com o auxílio de parâmetros, no sentido computacional, e com a mediação da própria ideia de parâmetro e de parametrização, em sentido amplo.

Ruy Sardinha: O que me parece é que, em um primeiro momento, vai se difundir, cada vez mais, a ideia de um mundo constituído por unidades de informação, mas constituídas de tal modo que ultrapassam a capacidade do homem de entendê-las. Ou seja, a natureza e a sociedade, e a própria constituição humana revelam-se formadas por uma tal complexidade, que o homem precisa construir artefatos artificiais para auxiliá-lo no entendimento dessa complexidade. Inicialmente, vão ocorrer embates entre a máquina e o homem, uma espécie de queda de braço procurando definir quem pode mais e quem pode menos. Um exemplo simbólico, cuja força no imaginário é muito grande, é de quando um computador conseguiu derrotar o maior enxadrista do mundo, sinalizando que, no âmbito de atividades humanas por excelência, os aparatos tecnológicos começam a ser tomados como mediadores. Mediadores da nossa relação com a natureza, com os outros e com o nosso próprio corpo. Estou falando de uma mediação capaz de influenciar ou de interferir na formação desses imaginários. A possibilidade de se ter máquinas pensantes possibilita, mais uma vez, uma reflexão sobre o que caracteriza o universo do homem.

Algo igualmente importante nisso que você estava dizendo sobre a criação de um novo imaginário é a enorme acessibilidade que as pessoas passam a ter a esses aparatos. Acessibilidade econômica mesmo. Um dos grandes desenvolvimentos de então foi a transição da Internet do universo militar para o universo civil. E, em seguida, a percepção de que seu uso se enquadrava muito bem no universo do entretenimento, das indústrias culturais midiáticas, o que ajudou a viabilizá-la economicamente. Eu me lembro de que, quando eu era criança, o imaginário tecnológico sofisticado estava presente nos filmes do 007 - como, aliás, até hoje -, mas também nas séries do Batman e dos Jetsons. Ele se colocava como algo quase impossível, situado em um horizonte longínquo, mas que, ao mesmo tempo, criava um certo desejo. A partir do momento em que esse desejo criado se torna acessível à mão das pessoas, ele vai modificando aquela visão inacessível, ou apocalíptica que se tinha em relação a esses aparatos, pois eles vão facilitar enormemente os nossos afazeres. Cria-se, assim, uma convivialidade, uma quotidianidade no uso desses aparatos que vai ser cada vez mais importante para o nosso imaginário. Quando o computador começou a se tornar mais acessível, uma boa parcela das pessoas que trabalhavam com texto escrito não conseguia redigir diretamente no computador. Muitas escreviam a mão ou a máquina de escrever e depois alguém digitava seus textos no computador. Hoje em dia, isso se naturalizou de uma maneira absurda. Quer dizer, algo que parece ser, para uma geração, tão natural, um ato cotidiano, corriqueiro, existe, de fato, há muito pouco tempo. É interessante pensar o quanto, apesar de há muito pouco tempo, todo esse universo colonizou as nossas vidas e o nosso imaginário. Uma colonização tão grande em tão pouco tempo é uma grande novidade.

Mas voltando à ideia de mediação, eu estava pensando em quanto a prática da Medicina foi alterada a partir do uso das interfaces computacionais. Aquela prática anterior, em que o médico observa o paciente, ausculta-o, faz uma anamnese, ouve seus relatos sobre um conjunto de sintomas e chega a um diagnóstico baseado em conhecimentos sobre o corpo, através da observação e do toque, foi substituída pelas interfaces tecnológicas. Hoje em dia, o conhecimento médico pressupõe uma leitura de imagens e de informações que a tecnologia lhe passa, e o profissional que não for bem treinado nesse tipo de mediação pode chegar a diagnósticos totalmente errôneos. É importante pensarmos em quanto algumas práticas profissionais têm sido alteradas pelo uso dessas novas interfaces. E isso, de alguma maneira, também começa a acontecer no âmbito da arquitetura.

De fato, as nossas práticas quotidianas são cada vez mais mediadas por esses aparatos tecnológicos. E o que são esses aparatos tecnológicos? São um conjunto de informações, de algoritmos, e quando eu uso esses aparatos como uma mediação entre mim e o meu corpo, entre mim e a natureza, eu introduzo esse universo matematizante como uma dimensão, senão da própria natureza, mas passível de intervir e dialogar com essa natureza. Evidentemente o médico não vai desenvolver software, nem desenhar aparatos, mas ele deve ser capaz de traduzir, na sua linguagem médica, o conjunto de informações ou de parâmetros que estão ali representados. E mesmo que as pessoas não discutam isso claramente, a ideia de termos instrumentos de informação mediando a nossa relação com o mundo, com os outros, tornou-se uma dimensão fundamental da sociedade contemporânea.

Marcelo Tramontano: Nesse ponto, poderíamos fazer um exercício inverso, e pensar sobre quais os limites dessa mediação parametrizada. O que você acha?

Ruy Sardinha: Sim, uma pergunta pertinente seria: do que essas mediações não dão conta? Ou, de outra maneira: que parâmetros escapam à parametrização? Porque, na verdade, nem tudo é parametrizável. Nem tudo é matematizável, quantificável, por mais que se tente. Ou seja, toda parametrização é uma redução. Reduz-se o universo multiparamétrico a determinados parâmetros, os que são apreensíveis, aqueles considerados mais importantes. Por isso, é importante perceber que, independentemente das inúmeras vantagens que esse universo traz, está-se falando também de perdas, de coisas que escapam a esse universo. Um exemplo é a ideia de urbanismo paramétrico. Ela coloca uma questão inicial sobre o que é o urbano, e, em seguida, de quanto os parâmetros considerados pelo chamado urbanismo paramétrico dão conta de representar a urbanidade. Claro que poderíamos também pensar que o planejamento urbano tradicional também não dá conta, e perceber que talvez o urbanismo paramétrico possa ser um instrumento mais abrangente do que o planejamento urbano tradicional. Mas não obstante uma sofisticação ou uma abrangência um pouco maior, ele é, ainda assim, reducionista. O que não quer dizer que seja possível desenvolver-se um método de produção do espaço urbano ou de intervenção nele que abranja todos os seus aspectos.

Parece-me que perguntas como "que parâmetros ficam de fora desse processo?" ou "de que elementos a parametrização não dá conta?" são importantes para olharmos criticamente para essas novas práticas e também para buscar avanços. Outra pergunta é: se o processo parametrizado não dá conta de abranger tudo, seria porque certas coisas ainda não foram parametrizadas? Essa é uma outra tendência do mundo contemporâneo, a de se naturalizar determinados comportamentos, ou seja, de se atribuir dimensões genéticas para determinadas coisas. Podemos tomar determinados comportamentos sociais como exemplo, dentre eles a questão da sexualidade. Se eu considero que essa questão tem uma dimensão genética, então, de alguma maneira, eu poderia parametrizá-la, através de informações que estão no DNA, nos genes, aplicando certos procedimentos. Parece ser uma tendência do mundo contemporâneo achar que determinados aspectos da nossa existência não foram, ainda, parametrizados e que, portanto, podem-se desenvolver mecanismos para dar conta disso. Mas será que, de fato, tudo pode ser alvo de uma parametrização? E mais: o que significa aceitarmos que podemos ter que conviver com inúmeras dimensões que não são passíveis de ser parametrizadas? Essas perguntas trazem novamente o velho dilema entre controle e acaso. Sobre a necessidade do homem de aceitar a contingência, o acaso, o improviso, o não-controle, e talvez essa seja uma questão humana eterna.

É como se trouxéssemos para a contemporaneidade as ideias dos situacionistas, sobre a deriva e sobre deixar-se levar pelo acaso, pensando em quanto esse não-controle despertaria situações inusuais capazes de tensionar a própria ideia de racionalidade ou de controle total sobre o espaço. Como se perder em tempos de GPS? A partir do momento em que eu tenho um controle absoluto sobre o espaço, será que há espaço para o acaso, para a contingência, para a perda? Temos, então, essa dupla dimensão: por um lado, a tentativa de um mapeamento total do espaço por georreferenciamento, que, pelo menos em sua concepção, tenta evitar os acasos, e temos, por outro lado, uma dimensão real que, apesar dessa tentativa, ainda nos leva a surpresas. Por exemplo, aquele casal, no Rio de Janeiro, que, há algumas semanas, colocou o nome errado de uma rua no GPS e foi parar no meio de uma favela em Niterói. Por um lado, as mídias locativas, como uma tentativa de controle, e, por outro, contingências inerentes à própria existência. Coloco como reflexão o quanto, na contemporaneidade, a quotidianidade desses aparatos, que fazem uma mediação social e imaginária com o mundo, a qual pressupõe um certo controle desse mundo, reduz o universo multifacetado para que tudo isso ganhe sentido. Reduz, deixando de abarcar um conjunto de parâmetros ou de dimensões não quantificáveis. Agora: esses parâmetros e dimensões ainda não são quantificáveis, ou temos que aceitar a existência de uma área de incertezas?

Marcelo Tramontano: Várias plataformas informatizadas, que lidam com parametrização, foram desenhadas justamente para que seus usuários tenham a possibilidade da emergência, de novidades, de surpresas, e de ver inseridos, em seus processos de trabalho e de criação, o imprevisto e o indeterminado. No campo da arquitetura, um grande desafio para os arquitetos é aceitar que emergências e imprevistos sejam desejáveis em processos de projeto, porque eles aprenderam que, ao projetar, sempre devem determinar tudo, e esse determinismo está na base da compreensão do arquiteto como centralizador e coordenador dos processos de intervenção no espaço. No entanto, ao usarem programas computacionais paramétricos para lidar com realidades complexas, cheias de aspectos imprevisíveis e indetermináveis, como os projetos urbanos, eles conseguem abarcar muito do que em processos tradicionais não abarcariam. Quero dizer que, bons ou menos bons, esses métodos trazem a possibilidade de identificarmos, relacionarmos e entendermos aspectos de realidades que, talvez, apenas o nosso saber técnico ou os nossos modi operandi clássicos não permitiriam.

Estou, com isso, buscando ligar as duas pontas dessa nossa conversa, que você iniciou falando da matematização do mundo desde a Grécia antiga. Ao final de todo esse caminho que rascunhamos aqui, chegamos aos dias atuais, em que vivemos um momento de informatização do mundo, com as informações matematizadas sendo manipuladas e relacionadas através da informática. O que eu entendo é que esse é apenas outro caminho - o desse momento histórico - para se lidar com aquela mesma antiga questão. E, nesse caminho atual, informatizado, o conceito de parametrização é fundamental porque toda a computação se baseia no relacionamento de parâmetros através de algoritmos, que, por sua vez, comandam os aparatos que você comentou e as ações que eles proporcionam. Gostaria, portanto, de sugerir a você uma última reflexão, como fechamento dessa nossa conversa instigante: essa atitude de matematizar o mundo, buscando entendê-lo e dar-lhe sentido, seria uma sina ou um desejo humano? Não se trataria de algo que vem sendo perseguido desde sempre e que talvez continue sendo perseguido eternamente, de formas distintas a cada época, e, nesse momento atual, concebe-se e utiliza-se esse arcabouço tecnológico e conceitual para isso? Em alguma medida, talvez faça parte da natureza humana o querer lidar com "inlidáveis", o querer abarcar dimensões inalcançáveis da vida, e, talvez, essa mediação tecnológica parametrizada, nesse momento histórico, amplie essa possibilidade, mesmo dentro de seus limites.

Ruy Sardinha: De fato, como você disse, as emergências possibilitadas pelos processos paramétricos permitem descentralizar o próprio saber arquitetônico. Isso significa que o arquiteto pode rever o seu campo de saber a partir dessas novas tecnologias, o que não é fácil. Não é fácil porque implica imposições de poderes dentro do universo social - estamos falando de múltiplas dimensões. Mas eu queria chamar atenção para o fato, que você também mencionou, de que essas emergências são as emergências possíveis dentro de um determinado procedimento tecnológico. Um conjunto de algoritmos lida com um conjunto finito de possibilidades e, portanto, não seria possível observar uma emergência incompatível com esse conjunto de procedimentos e normas. As emergências são possibilitadas pelo aparato tecnológico que se está utilizando, o que nos coloca novamente diante da seguinte situação: esse fato, sim, implica em novas questões e novos desafios em relação às práticas profissionais arquitetônicas porque possibilita vislumbrar um conjunto de coisas que a prática tradicional não consegue contemplar. Nesse sentido, essa questão tem uma dimensão heurística, interna ao próprio campo. Estamos falando da arquitetura mas isso vale para os diversos campos do saber. Mas insisto que não devemos esquecer que existem outras dimensões e outras emergências das quais, talvez, essas tecnologias não dêem conta, e por isso é preciso, a todo momento, tensionar essas tecnologias com esses outros elementos.

Quanto à outra questão que você coloca, me parece, sim, que o homem ou a humanidade se colocam diante de questões muito antigas. Por isso comecei falando da Grécia antiga e da necessidade de controle versus acaso, da relação do homem com a natureza. Esse percurso da antiguidade até a tecnociência deixa claro o quanto, nesse embate do homem com aquilo que lhe escapa, a humanidade sempre constrói respostas ou instrumentos visando tornar esse desconhecido um pouco mais conhecido. Talvez o que observamos aqui é a resposta contemporânea a essa grande questão. A consciência de que o universo é formado por estruturas complexas, por estruturas multifacetadas ou multiparamétricas gera a necessidade de novos instrumentos capazes de apreender o universo a partir dessa complexidade. O atual desenvolvimento do desenho paramétrico e das tecnologias paramétricas pode, portanto, ser entendido como respostas a essa nova consciência. Se tomarmos as diversas visões de mundo ao longo da história, veremos o quanto as tecnologias criadas e inventadas têm sempre sido grandes respostas a essas dúvidas, que são dúvidas imemoriais. E embora elas sejam respostas a determinadas questões, colocadas em determinadas épocas históricas, esses instrumentos podem gerar novas questões. Podem levar-nos a descobrir que, de alguma maneira, todo esse universo informacional complexo não passa de uma ilusão. Isso poderia vir a tornar-se uma nova teoria sobre o universo e gerar a necessidade de novos instrumentos que dêem conta dessa nova visão de mundo. Estamos em um movimento constante que, ao mesmo tempo que sempre nos coloca novas questões, faz com que o mundo se reinvente. É um pouco essa a sina da humanidade.

Nomads.usp, primavera de 2015



Parametrization as mediation, or man and his fate

Ruy Sardinha Lopes, Marcelo Tramontano

Ruy Sardinha is a Philosopher and Doctor in Philosophy, professor and researcher at the Institute of Architecture an Urbanism IAU-USP, of the University of Sao Paulo, Brazil, where he directs the Center for Studies of Contemporary Spaces (NEC). He studies contemporary world spatial transformations considering relations between architecture, art, city and society.

Marcelo Tramontano is an Architect and Associate Professor in Architecture and Urbanism. He teaches and is a researcher at the Institute of Architecture and Urbanism (IAU-USP) of the University of Sao Paulo, Brazil. He directs the Nomads.usp, Center for Interactive Living Studies, publisher of V!RUS journal.


How to quote this text: Sardinha, R. and Tramontano, M., 2015. Parametrization as mediation, or man and his fate. Interview. V!RUS, São Carlos, n. 11. [online] Available at: <http://www.nomads.usp.br/virus/virus11/?sec=2&item=1&lang=en>. [Accessed: 24 September 2017].

Marcelo Tramontano: Ruy, we would like to start this conversation with your considerations of the historical construction of the notion of parametrization.

Ruy Sardinha: Beyond issues related to the production, design and representation of architectural space, largely revolutionized by the introduction and development of new digital technologies, the entry into what some have been calling the "age of parametrization" demands great analytical effort in order to grasp its various biases. As a background, we have the idea that a reality, a society or complex - or multiparametric - natures could no longer be grasped by traditional analytical methods - analysis understood herein as the division of this complexity into simpler units. Instead, they would require more appropriate methods and instruments, from the so called complex thought to the multiparametric design or technology. The search for greater control over the production processes and the effort to not let yourself succumb to the hazards and contingencies of life underlie this background. Old issues accompanying Western reflection on man's relationship with nature and with the artifacts created by him since the dawn of the great ancient civilizations are reissued.

It is worth remembering that in ancient Greece, techne, which was creating the necessary knowledge of what did not exist in nature, dependent on human will and action, will also chair the operative actions - such as agriculture and medicine - able to conduct nature to distinct ways. Such operationality aimed at, among other things, freeing man from random domain and contingencies. This need of operational acquaintance about nature posed to man the need to deal with hazards, with contingencies. That is why another meaning of techne opposes technique to tykhe, which is chance, contingency, suggesting that technical knowledge prevents man from the contingencies of chance. We can thus observe that, from its beginnings, there is a tension between freedom and determination in the development of a knowledge that tries to deal with contingencies, with chance, with what man does not control, what escapes its control, involving the need to prevent against these hazards. Well, we are dealing still today with this tension between chance and determination, with the need to control that which escapes us. Thinking therefore in technologies or methodologies that can encompass the various parameters that make up the reality poses or renews the issue of control when dealing with contingencies.

Watching the history of this polarity we realize the trend of a controlling reason, an instrumental reason that can, on the one hand, to prevent and, moreover, anticipate the very course of nature. We realize, too, that this polarity begins to gain greater emphasis since the advent of modern science, and especially from the time when nature becomes mathematized or mathematizable. The medieval universe was endowed with meanings, predetermined places laden with very strong symbols, in which qualities predominate, and where the bodies occupy certain places in the space for its qualities or by divine will. But from some stage, this spatial sense begins to be desacralized, and it is important to note that more than a desacralization, there is a mathematisation of this universe: the universe comes to be seen as homogeneous universe or at least endowed with mathematical characteristics.

Galileo will say that mathematics is a language in which God wrote the world. The use of mathematics by philosophers, scientists, thinkers, in the fifteenth and sixteenth centuries is very different from how we understand it today, because mathematics at that time was almost mystical, linked to the concepts of natural magic, of the magic powers of the world. But what I find interesting here is the idea that it is possible to apprehend the nature, the universe, from a set of parameters or mathematical and numerical coordinates. This idea that the world is expressed through a set of coordinates and, since one knows these coordinates, which are variable, one can control the world and understand it a little better, allowing prevention to man and also to rule the world, was a strong concept at that moment and it has created a whole tradition. So it seems to me that present days emphasis on parameterization recovers slightly this tradition.

Marcelo Tramontano: What would you emphasize on the period between the sixteenth and nineteenth centuries, when technological thought and production linked to it grow stronger and become consolidated?

Ruy Sardinha: In Antiquity, there was a distinction between the knowledge of nature - physis -, science - episteme - and the knowledge for manufacturing artifacts - techné or technique -, which were opposed, to a certain extent. From the sixteenth century, these two fields approach arising hence the concept of technology as acquaintance which requires scientific knowledge. At the same time, this concept makes more operational scientific knowledge. With the advent of capitalism and mechanized manufacturing but mainly the Industrial Revolution, technological devices gain an unfathomable importance. Of course this will also lead to great social and economic investment in these devices, and increasingly the world economy will depend on the production sectors of these technological objects. However, as it should be, this new moment also generates a whole symbolic and imaginary field. So the emphasis, from the nineteenth century, given by literature and the arts in general to the issue of automata and technical-scientific universe, shows how this combination becomes an important material basis of society, for better or worse. We observe a production, in the arts, that either praises, or demonizes this technical-scientific universe.

Another aspect to be considered that, to some extent, is due to the mechanistic view of nature and the ongoing mechanized manufacturing in the nineteenth century, is the hegemony of natural sciences objectivating and positivist vision. Conceiving nature and society as large engines, equipped with gears, with specific modes of operation, will be a huge array of modern thought. It finds its peak, or its moment of glory and at the same time, of inflexion in the nineteenth century, at the second Industrial Revolution, with all the technical-industrial and cultural universe of the nineteenth and twentieth centuries. This vision becomes a model for the then newly created Human Sciences, although the universe of Humanities prove to be necessarily more complex and indeterminate, indicating the need to build methods more suited to its apprehension and understanding. Perhaps - and this may be an important issue for us to think our current dimensions - Human Sciences did not let be apprehended or fully understood by the positivist methodological tools of the hard sciences. That seems to me to be, today, one of the great issues of scientific thought: mechanization, or mathematization, or that more positive thought, does it apply to human universe?

In the nineteenth century, a limit for this positivist view was the notion of the unconscious, or even of the libidinal universe. How to translate, using parameters or criteria from the exact sciences, what is put beyond or before a given rationality? How to embrace a reality that escaped the hegemonic scientific procedures? How to think about other dimensions of reality from other criteria? The advent of aesthetics as nineteenth-century philosophical reflection field is an interesting counterpoint: while a positive science tries to encompass the reality from its own procedures, another field of knowledge is constituted - the philosophical aesthetics - within the the philosophical field that, when presented as a field of knowledge, indicated the project boundaries of a positive knowledge and objectivating of the world. It would therefore be interesting to think the constitution of philosophical aesthetics or of the "art philosophy" proposed by Nietzsche as a counterpoint to the hard sciences.

Marcelo Tramontano: You mentioned nineteenth century, which hosted the consolidation of several ideas, including the meeting of technology with everyday life in many ways. It makes me think of two questions that maybe you can comment. One is with respect to the consequences of the Industrial Revolution, already in the eighteenth century, that is, of course, a technological revolution but well beyond that, a revolution in mentalities, a cultural revolution, and, of course, political. This process is consolidated in the late eighteenth century, becoming richer and more complex, and arrives at the nineteenth century strongly reverberating in how people perceive life. The very understanding of what is "being bourgeois" is based on a positivist and unambiguous worldview. Next, you mentioned a certain complexion of the world during the twentieth century, and made me think about quantum physics and how new aspects of reality began to be perceived, marked by indeterminacy and unpredictability with which it was also necessary to deal. Such proceedings are also reflected in the mentalities, although otherwise. But the hard sciences are questioned in this period by the formulation of the cybernetic thought, by theories on complex systems, by quantum physics itself, as means of approaching these places of knowledge previously unknown or obscure. How do you see it?

Ruy Sardinha: I think you're right. It is interesting to note how the questioning of reductionist view of scientific positivism occurred not only from the creation of the human sciences, but also in its own field, through research and analysis of the subatomic world. The discovery of the quantum, subatomic universe engendered a decentralization of knowledge, of established beliefs. Suddenly, the intimate structure of matter showed up complex, uncertain, indeterminate, not grasped by traditional structures of thought. Hence, for example, the importance of paraconsistent logic and development tools able to process large amounts of information. It is clear, then, that nature and the world are not made of stability, but rather of instability and uncertainty. This understanding also brings about a decentralization of the subject himself. And if in the nineteenth century, Descartes, with his Cogito, founded knowledge from a cognizant subject that gives meaning to the world, what is observed from these transformations of nature is almost a decentralization of the subject himself. He ceases to be a donor of senses to stand in this myriad of events and facts.

On the other hand, if we move slightly forward in time, we will find a series of historical events that question the old beliefs on an emancipatory Reason, in a Reason that enables knowing the world, bearer of social welfare. The eighteenth century's Enlightenment project of emancipation by a rational pathway starts being questioned by the dimensions of history. The advent of the two World Wars but mainly the World War II represented a turning point in this belief, because a war can also be seen as a huge laboratory of technological, industrial trials, since scientific thinking invests heavily in the war apparatus. However, unlike the futuristic dream of tabula rasa, of the war making a big asepsis enabling the emergence of the New - this latter connected to the ideas of emancipation - what we saw in World War II was the possibility of total destruction of humanity, concrete and real. So it is interesting to note that, at first, quantum mechanics engenders a certain decentralization and instability, introducing the need for new knowledge. But then we can see, in social and political terms, distrust on the direction that scientific development was taking.

Of course, we can also remember another important discussion of that time, about if the responsibility of this process was in a controller Reason or in the uses that were being done of this knowledge. Not surprisingly, the 1960s will discuss the social and political uses and the ethical dimensions of scientific and technological knowledge. And then begins a whole review of these concepts and ideas. But anyway, in terms of society itself, an issue that remains an important legacy for the contemporary world is precisely this pendulum between a social and emancipatory use of knowledge and, inversely, a use that can bring destruction in itself. These considerations are similar to those related to uses of nuclear energy: they bring destruction, the atomic bomb, waste problems and so on, but they also bring the possibility to cure cancer, to provide treatments using radioisotopes, to produce low-cost energy and so on. Basically, these two dimensions raise the issue that perhaps this knowledge is necessary, although one must have some precautions regarding its uses.

Marcelo Tramontano: As we know, the second postwar period spread a positivistic plague meticulously throughout the world, on actions such as the US Marshall Plan and all that followed it. Your speech reminds me that there was, behind that, a clear aiming at controlling many spheres of life and consequently, a project of, say, tame indeterminism as a nascent form of understanding the world. These ideas and theories, such as quantum and complex thinking, bloom in mid-twentieth century, when the world is precisely wondering questions that stem from the discovery of the subatomic world. It occurs to me, then, that the war winners project brought in its wake an intention to submit thoughts that valorize indeterminism and consider the unpredictable as something desirable. Although not included in the agenda of the ruling groups of the time, these theories will, shortly after, find their place in the flowering of computer science, for the simple reason that computer is per se parametrized, and allows the manipulation of parameters to produce emergencies, in the sense given by Ludwig Von Bertalanffy and Edgar Morin. It is interesting, then, to think that these theories return to the agenda in the 1960s and especially in the 1970s, when computer infiltrates every corner of life and this political project, which exclude the unpredictability, has to be reviewed.

Ruy Sardinha: Indeed, the Second Post-War was responsible for the advent of a new paradigm that, coupled with the large financial investment in the informational media, will lead to what Laymert Garcia dos Santos called "the cybernetic turn". I am referring to the research and discoveries of the genetic code and the logic of life, as expressed in the book "The Logic of Life" by François Jacob, now designed from their informational dimensions. The expansion of this biological paradigm to other areas of knowledge, that is, the assumption of a common substrate to animate and inanimate beings, technological objects and social systems, such as economics, will lead not only to the concept of an encoded universe, now understood as the conjunction of several information systems in mutual relations, but also, once again, to the dream of a new synthesis, or common language, now made possible by cybernetics.

The emphasis on processes, on exchanges and losses, on interaction and intermediations redirect the issue of control: from the tonic of production to access and flows, leading to what later Jeremy Rifkin termed the "era of access". It is important to note how this entirely encoded world is also widely quantifiable - or parameterizable - therefore open to stricter control, at least in the creative minds of its creators. It is thus noteworthy how the issue of chance and contingency is re-signified by the notion of emergence.

That's when, shortly after the cultural turn, we will also have what some will call linguistic turn, derived from structuralism, showing how we are language. Man, that subject who, at a given time, was donating sense, is actually formed from the languages of previous linguistic structures. We observe, therefore, a shift of the language dimensions and, in a sense, of information. On the other hand, we can not forget that war revealed in a very clear way that a major clash between the rival forces took place in a kind of game of information and counter-information. Computer development is connected to the need, created by war, to translate an encrypted linguistic universe, so that he who could access that information would sooner win the war. We will see more or less from the post-World War II, but especially from the 1960s, a political or geopolitical dimension of information, linked to all the investment in the war, in translation and deciphering machines. Then from a scientific and biological point of view we will see the discovery of this information structure and of the genetic code itself.

The allocation of considerable amounts of money in the fields of information sciences will later generate the development of Internet, telematics, computer science, and so on. Thus, from the 1960s, it is clear the formulation of a new paradigm that comes from information and communication. It starts taking shape in the 1960s, but has a great repercussion on global economy from the 1970s. When the Fordist industrial framework of capitalism undergoes its great crisis in the 1970s, a technological possibility to restructure the economic basis on these new arrays is configured, as a lot of money was invested in this sector. We have then an economy that is also - and increasingly - translated in informational terms. Not by coincidence, information sciences, cybernetics, theories of communication and others theories will be emphasized at that time.

Marcelo Tramontano: I wonder how all these things, which consolidate from the 1970s and frankly converge in the 1990s, with the implementation of the commercial Internet in the world, become part of mentalities. How they start biasing worldviews, how they become an unquestioning part of cultures, of people ways of being. This explanation of life through the genetic code you mentioned reminds me that in the 1960s, when dealing with the issue of hygiene, there was much talk on a new being, the germ. Germs were invisible, and it was expected that ordinary people believed in the action of something they could not see, but whose existence had the seal of the scientific world. Overflows, then, from various fields of science, a number of assumptions to people's daily lives. They, in turn, incorporate these ideas in their daily speeches, pressured by advertising and mass media, which dictate perceptions of the world. All this change of the way we understand things, especially from the trivialization of Internet use, is supported by parameters, in the computational sense, and by the mediation of the very idea of parameter and parametrization, in a broader sense.

Ruy Sardinha: It seems to me that, at first, the idea of a world made up of units of information - such as the genetic code - will spread more and more, but they exceed man's ability to understand them. I.e. nature, society and the human constitution itself turn out to be formed by such a complexity, that man must construct artificial devices to assist him in understanding this complexity. Initially, shocks occur between the machine and man, a kind of arm wrestling trying to define who is stronger. A symbolic and very strong example in the imaginary is when a computer defeated the greatest chess player in the world, indicating that, within the human activity context par excellence, technological devices started being taken as mediators. I mean mediators of our relationship with nature, with others and with our own body. I mean a mediation able to influence or interfere with the formation of this imaginary. The possibility of having thinking machines allows, again, a reflection on what characterizes man's universe.

Also important in what you were saying about the creation of a new imaginary is the wide ease of access that people then had to these devices, economically speaking. One of the major developments of that time was the Internet transition from military to civilian universe. The perception that it suited very well in the entertainment universe of media and cultural industries helped to make it viable economically speaking. I remember when I was a kid, the sophisticated technological vision was present in 007 films - as indeed until now - but also in Batman and The Jetsons series. It stood as something almost impossible, located in a distant horizon, but at the same time it created a certain desire. From the moment that this desire became accessible to people's hand, it modified that inaccessible or apocalyptic vision that one had of such devices, as they greatly facilitated our tasks. A conviviality, a daily routine is created in using these devices, which will be increasingly important to our imagination. When computers became more accessible, many people who used to work with written text could not write directly on the computer yet. Many of them wrote by hand or typewriter and then someone entered their texts in digital files.

But back to the idea of mediation, I was thinking of how much the practice of medicine has been altered by the use of computer interfaces. That previous practice, in which the doctor observes the patient, auscultates him, makes an anamnesis, hears his reports on a set of symptoms and reaches a diagnosis based on knowledge of the body, through observation and touch, has been completely replaced by technological interfaces. Today, medical knowledge requires skill in reading digital images, ability to understand information technologically transmitted, and a professional who is not well trained in this type of mediation can come to totally erroneous diagnoses. It is important to think of how much some professional practices have been changed by the use of such new interfaces. And somehow it happens in architecture too. In fact, our daily practices are increasingly mediated by these technological devices. And what are these technological devices? They are a set of information, algorithms, and when I use these devices as a mediation between me and my body, between me and nature, I introduce this mathematizing universe as a dimension, if not of nature itself, but susceptible to intervene and dialogue with nature. Of course the physician will not develop software nor will design devices, but he must be able to translate in medical language the set of information or parameters represented there. And even though people do not discuss it clearly, the idea of having information tools mediating our relationship with the world, with others, has become a fundamental dimension of contemporary society.

Marcelo Tramontano: At this point, we could do a reverse exercise and think about the limits of this parametrized mediation, what do you say?

Ruy Sardinha: Yes, one question is what these medications do not cover? Or, in another way: what parameters escape parametrization? Because, indeed, not everything can be parameterized. Not everything is mathematizable, quantifiable, despite many attempts. That is, all parametrization is a reduction. The multiparameter universe is reduced to certain parameters, the graspable ones, those considered the most significant. So it is important to realize that despite the numerous advantages this universe brings, there are losses, there are things that escape it. One example is the idea of parametric urbanism. It brings us an initial question on what is urban, and then how much the parameters considered by the so called parametric urbanism are able to represent urbanity. Of course one can argue that traditional urban planning is also not able to, then we would realize that perhaps parametric urbanism can be a more comprehensive instrument than traditional urban planning. But regardless of sophistication or a slightly larger scope, it is still reductionist. Which is not to say that you can develop a method to produce urban space or to intervene on it encompassing all its aspects.

It is my feeling that questions such as "which parameters are left out of this process?" or "what elements parametrization does not handle with?" are important to approach critically these new practices and to seek advances. Another question is: "if the parametrized process can not encompass everything, would it be because certain things have not yet been parametrized?". This is another trend of the contemporary world, to naturalize certain behaviors, i.e. to assign genetic dimensions to certain things. We can take certain social behaviors as examples, the issue of sexuality among them. If I consider that sexuality has a genetic dimension, then somehow I can parametrize it, using DNA information in genes by applying certain procedures. It seems to be another tendency in the contemporary world the belief that certain aspects of our existence are not yet parametrized and therefore mechanisms can be developed to do so. But, in fact, can everything be targeted by parametrization? And moreover: what does it mean to accept that we must live with many dimensions that are not likely to be parametrized? Such questions bring once again the old dilemma between control and chance. They address the man's necessity to accept contingency, chance, improvisation, non-control, and this may be an eternal human question.

It is as if we brought to present time the situationists ideas concerning drift, and those about letting oneself be carried away by chance, thinking about how this non-control wake unusual situations able to tension the very idea of rationality or full control of the space. How to be lost by GPS times? If I have an absolute control over space, is there room for chance, for contingency, for losses? So we have this double dimension: on the one hand, the attempt of totally mapping space for georeferencing which, at least in its conception, tries to avoid hazards, and on the other hand, a real dimension that, despite this attempt, also leads to surprises. A good example is that couple in Rio de Janeiro a few weeks ago who wrote a wrong street name in a GPS device and ended up in a dangerous slum in the city of Niteroi. On the one hand, locative media as an attempt to control, and on the other hand, contingencies inherent to the very existence. I propose to reflect how much, in contemporary times, the everyday reality of these devices, which make a social and imaginary mediation with the world, which presupposes a certain control of this world, reduces the multifaceted universe for all this to get meaning. This reduction avoids encompassing a set of unquantifiable parameters or dimensions. Now: these parameters and dimensions are not yet quantifiable, or must we accept the existence of an area of uncertainty?

Marcelo Tramontano: A number of computing platforms, which handle with parametrization, has been designed so that their users have the possibility of emergence, of innovations, of surprises, so the unpredictable and the indeterminate can be inserted in their work processes. In the field of architecture, a great challenge for architects is to accept that emergencies and unforeseen events are desirable in design processes, because architects have learned that they must always determine everything in architectural design, and this determinism is the basis of understanding the architect as centralizer and coordinator of intervention processes in space. However, when using parametric computer programs to deal with complex realities, full of unpredictable and indeterminate aspects, such as urban projects, they can embrace much of what they would not encompass in traditional processes. I mean, good or less good, these methods provide the ability to identify, relate and understand aspects of things that perhaps using our technical knowledge and our classical modi operandi alone would not allow.

I am therefore seeking to link the two ends of our conversation. You started talking about the mathematization of the world since ancient Greece. At the end of all this path we are sketching here, we come to present day, a moment of computerization of the world, when mathematized information is being put in relationship and manipulated by computer. What I understand is that this is just another way - the one of our historic moment - to deal with that same old question. And in this computerized current way, the concept of parametrization is essential because the entire computing is based on the relationship between parameters via algorithms, which in turn command the devices you have commented and the actions they provide. So let me suggest you a final thought, as the completion of this exciting conversation: this attitude of mathematizing the world, trying to understand it and to give it meaning, would be a fate or a human desire? Would it not be about something that has always been pursued and that may continue to be pursued forever, in different ways each time, and in this present moment is conceived by and employs this technological and conceptual framework? To some extent, perhaps the will to deal with what is impossible-to-deal-with is part of human nature, the willingness to embrace unattainable dimensions of life, and perhaps this parametrized technological mediation, at this very moment, expand this possibility, even within its boundaries.

Ruy Sardinha: In fact, as you said, emergencies made possible by parametric processes allow decentralizing the architectural knowing. This means that the architect can review his knowledge field as from the use of such new technologies, which is not easy. It is not easy because it involves positions of power within the social universe - we are talking about multiple dimensions. But I want to draw attention to a fact you also mentioned that such emergencies are the potential emergencies within a certain technological procedure. A set of algorithms deals with a finite set of possibilities and therefore it would not be possible to observe an emergency incompatible with this set of procedures and standards. Emergencies are made possible by the technological apparatus we are using, which leads us to the following situation: this fact implies new issues and new challenges related to architectural professional practices because it allows to envision a set of things that the traditional practice fails to contemplate. In this sense, this issue has a heuristic dimension, internal to the architectural field itself. We are talking about architecture but this holds true for the various fields of knowledge. However, I insist that we should not forget that there are other dimensions and other emergencies which perhaps can not be covered by these technologies, and so we must, at all times, tense these technologies with these other elements.

As regards to the other question you propose, I think, yes, man or mankind stands before very old questions. So I started talking about ancient Greece and about the necessity to control versus chance, and man's relationship with nature. This journey from antiquity to the techno-science makes clear how much, in this man's struggle with what escapes him, humanity always builds answers or instruments to make the unknown a little better known. Perhaps what we see here is the contemporary reply to this big question. The awareness that Universe is formed by complex, multifaceted or multiparametric structures generates the need for new instruments to grasp the universe considering such complexity. The current development of parametric design and parametric technologies can thus be understood as responses to this new awareness. If we take the various worldviews throughout history, we will see how much technologies created and invented are always great answers to these questions, which are timeless questions. And although they are answers to specific questions, formulated in specific historical periods, these instruments can generate new questions. They can lead us to discover that, somehow, all this complex informational universe is but an illusion. This could turn out to become a new theory about the universe and create the need for new instruments to support that new worldview. We are in a constant movement that always introduces us new questions, and at the same time causes the world to reinvent itself. This is somewhat the fate of mankind.

Nomads.usp, springtime 2015