CTRL+01 – Movimentando com voz e cor

É chegada a hora de publicar meu primeiro experimento! Este experimento foi feito baseado em uma observação teórica, que em breve deve se apresentar como um artigo, ou pelo menos um texto que está em fase de desenvolvimento.  

O processo é o seguinte: o interator se movimenta na frente da tela e o trajeto de seu rosto vai sendo desenhado. O som ambiente, seja a voz ou qualquer ruido influencia neste desenho, aumentando os circulos coloridos e diminuindo o branco. Ou seja, o interator desenha com seu corpo e voz.

O experimento é um sketch de Processing que usa o detector de faces da librarie OpenCV para trackear o movimento do interator diante da tela. Quando uma face é detectada (e pode ser mais de uma ao mesmo tempo) o sketch cria um desenho  estipulado por código. Porém, este desenho é sensível ao som detectado pelo microfone através da librarie Minim.

Este processo de remediação das mídias anteriores foi notado por Marshall Mcluhan: “O conteúdo de uma mídia é sempre uma mídia anterior”. Isto pode ser observado em um nível básico da informática em que sistemas operacionais são baseados em objetos de escritório: a pasta, a lupa, o arquivo, a lixeira; quanto em softwares de criação e manipulação de imagens, e portanto da arte digital, em que as ferramentas são o pincel, o lápis, a borracha, etc, e até mesmo em seus acessórios como as mesas digitalizadoras(tablets) que utilizam canetas ‘digitais’. “A mídia digital quer se apagar para que o usuário permaneça na mesma relação com o conteúdo como se estivesse utilizando a mídia original.” (BOLTER & GRUSIN). Desta forma, desenvolvi uma forma de criação de imagens através do computador que não está relacionada a mídias analógicas, mas a um conceito de “corpo como mídia viva”, desenvolvido por Hans Belting. Fica aí uma dica do artigo que vem por aí…

Anúncios

Multiplicidade 2011 – Zach Lieberman e Daito Manabe

Acaba de acontecer no Oi Futuro o evento da série Multiplicidade 2011. Hoje estavam presentes o americano Zach Lieberman e o japonês Daito Manabe.
A apresentação foi dividida em três partes, a primeira em que Zach Lieberman mostrava um projeto seu, a segunda do Daito Manabe e a terceira uma em colaboração dos dois.

NOTA: Este post foi atualizado incluindo conteúdo para melhor compreensão do que foi a inauguração da sétima edição do multiplicidade.

*** Achei esse vídeo no youtube de uma edição de testes anteriores dos dois artistas que mostram testes e processos deles para desenvolver a performance de ontem

Pequeno parentese
(O projeto do Daito Manabe choca pela bizarrice, é interessante mas não me emociona.
Pra quem não conhece ele liga vários fios nos rosto que respondem a musica ambiente, estes fazem com que o rosto dele faça uma coreografia de expressões muito estranhas. Ele toma vários choques na cara que fazem os músculos faciais reagirem se contraindo… é muito estranho… tá pode ser algum preconceito meu, eu deveria pensar no corpo como suporte a relação com a tecnologia, mas enfim.. fiquei com pena do menino que estava junto do Daito, ele parecia estar sofrendo bastante! e eu detesto choques!

Os projetos do Zach Lieberman são os que me interessam mais.
O primeiro que ele apresentou era um sistema que ele botava uma folha de papel em baixo de uma câmera. Na folha ele desenhava com nanquim várias formas, e imediatamente retirava esse papel. Porém a câmera já havia reconhecido aquele objeto do nanquim e ele podia interagir arrastando, empurrando, rotacionando esses elementos gráficos, que ao serem manipulados geravam som e música. São diversos processos utilizados e é bem complicado descrever sem vídeos, o site do multiplicidade tinha posto ao vivo, porém retiraram o vídeo, acredito que vão publicar denovo em breve.

A ferramenta que ele desenvolve é muito interessante e tem muito potencial pois mistura desenhos reais, físicos com uma interação virtual imediata. Porém acredito que seja um potencial a ser desenvolvido pois o trabalho apresentado não apresentou técnica apurada, seja visual ou musical. A programação, competencia máxima de Zach, é excelente!

*** to acrescentando aqui conforme prometido o vídeo que publicaram na internet com uma parte da apresentação de ontem (agora dá pra entender melhor!)

Já o terceiro projeto da noite, que é uma parceria dos dois artistas, era um sistema de trackeamento e projeção sobre o rosto e era bem interessante. Acredito que seja descendente direto dos experimentos de outro projeto do Zach Lieberman que eu postei semana passada. Foi muito importante ver a calibragem do sistema de trackeamento do rosto porque mostrou que eles desenvolveram um reconhecimento equivalente ao esqueleto do kinect porém só para o rosto. Enfim, isso foi o que aconteceu hoje lá.
Infelizmente não possuo imagens ou vídeos para poder compartilhar com vocês melhor, mas pelo menos fica algum registro escrito.
Se eu tiver mais informações posto no facebook. Boa noite!

**acrescentando vídeos dos testes do terceiro projeto.. não é a apresentação de ontem, mas já dá pra ter noção!