Visionlab: Laboratorio de Visualización Avanzada

From Medialab Prado
Jump to: navigation, search

Contents

VLAB 4D

El grupo  experimental de Visualización Avanzada se formó en el 2010, dentro del marco de los viernes Openlab y está abierto a nuevas aportaciones.

Los temas principales que tratamos son la estereoscopia , videohologramas , interacciones y percepciones sinestésicas.

Las siguientes líneas de investigaciones son:

1. visualización  3D de bio-moleculas a través de software libre Bio blender y dispositivo de visualización VISIONS Project

2. experimentaciones con bio-sensores y techno -textiles

3- otras experimentaciones



Estereoscópia

Estereoscópia y codigo

Como utilizar Kinect para Processing en Ubuntu 11.10

1. instalar ubuntu versión 11.10 desde la pagina: ;
2. instalar Processing para Ubuntu descargado desde processing.org. Para este paso es suficiente con el comando

$ sudo tar zxvf processing-1.5.1.tgz

y cambiar los permisos del lanzador processing

$ sudo chmod +x processing

para mas detalle, revisar el blog

3. Entrar en la pagina y seguir los siguientes pasos en un terminal:

a. descargar el repositorio:

$ sudo add-apt-repository ppa:floe/libtisch
$ sudo apt-get update

Instalar los paquetes necesarios:

$ sudo apt-get install libfreenect libfreenect-dev libfreenect-demos
Es necesario incluir el user en el grupo video (recordar cambiar USER por el user activo):

$ sudo adduser $USER video

Por ejemplo si el user se llama elusuario la linea sera

$ sudo adduser $elusuario video

Para probar la Kinect se utiliza uno de los demos, por ejemplo:

$ freenect-glview

  • Al ejecutar el demo, puede presentarse un error que diga no hay permisos para usar el usb, esto se resuelve con el siguiente comando

$ sudo chmod o+w /dev/bus/usb/001/007 (el numero 007 varia dependiendo del mensaje de error que se presente)

3. Para utilizar la Kinect con Processing se debe descargar el paquete processing_OpenKinect-libfreenect-4a159f8.zip que aparece en la pagina web  donde aparece la frase. Este archivo esta optimizado para ubuntu 10.10, aunque nosotros lo hemos utilizado en ubuntu 11.10 sin problemas.

FRECUENCY:  WML -wearable music leds 

Aim

Design a responsive dress composed by smart BlinkM LEDs that allows interaction with the environment.

The starting point is to interact exclusively with ambient sounds, music and those made by the performer. Once accomplished it will be taken forward by reacting to performer's moves, colours in the scene and choices made by the audience.

Architecture

The dress comprises 20 BlinkM LEDs connected to a serial bus made out of ribbon cable. LEDs are positioned following the vertebral column and both performer's legs. The first prototype do not include both legs due to problems with the ribbon cable.

The system is controlled by a PC, running an audio analysis application done in Processing. It analyzes frequency components captured by an ambient microphone recording sounds made by the performer and transforming them into different colours and patterns transmitted to the BlinkM LEDs.

Communication with the LEDs is done through an Arduino Duemilanove board running ThingM's program “BlinkMCommunicator”. Next version will include an Arduino Yellow Jacket to communicate with the PC via Wi-fi, allowing the performer to move freely.


Current state

Currently the prototype generates events triggering colours and patterns in 8 BlinkM LEDs by analyzing two frequency bands, modified in real time following the performer's actions. It has been used with body percussion, voice, musical instruments and percussion from a “cajón flamenco”.

One of the bands translates sound energy into brightness across the 8 LEDs strip, following the percussion rhythm, while the other band triggers a blinking pattern.


Code ( Frequency Analisys by Nacho Cossio):




PROGRAMANDO EL TRAJE DE LUZ :WMR ( wearable music leds )

1. MODO ALÁMBRICO

2. MODO INALÁMBRICO.

PC- arduino 2009+ Xbee --------arduino FIO + Xbee Shield

Primeros Pasos ( 11/11/2011)

a. conectamos el XBee con el Arduino 2009

b. configuramos los Xbees como aparece en la pagina

utilizando el XBee Terminal Max en nuestro caso para Mac. Este programa corre en Processing :


c. programamos el arduino Fio conectandolo al Mac con el cable FTDI, sin conectar el Xbee


d. luego conectamos el Xbee receptor sobre el arduino Fio y con el codigo encontrado en la pagina anterior probamos la comunicación.





VISIONS PROJECT K.version 1.0


Visions Project K. se basa en un dispositivo piramidal que permite la visualización volumétrica de objetos en 3-D y su interacción con el usuario. Los objetos se
proyectan sobre una estructura piramidal con un monitor LCD, y debido a la especial geometría de la estructura, se ve como estos objetos flotan dentro de la pirámide
para cualquier observador desde cualquier dirección. Además, esta estructura utiliza una cámara Kinect, con el fin de capturar el movimiento externo de las personas y
permitir la interacción del usuario y el objeto en tiempo real.
Este proyecto está bajo licencia Creative Commons y está desarrollado bajo el sistema operativo Ubuntu y con software de código abierto, Processing.
El dispositivo utiliza una cámara Kinect para la captura de caras en 3D utilizando el Point Cloud (nube de puntos) de Processing y el sensor de proximidad para la
interacción con los objectos 3D visualizados dentro de la pirámide.Kinect captura el posicionamiento y los puntos volumétricos de las personas que se acerquen a una
cierta distancia.


INTERACCIÓN:
Las personas han de posicionarse a una distancia de 0,50-100 cm de la cámara para la captura de las imágenes. La imagen se puede ver por todos los lados en
360º.
Hay dos tipos de interacción con el usuario: visual y háptica visual. A través de esta última se experimenta la ilusión de que se puede “tocar “ el objeto 3D.
La interacción visual está relacionada con el concepto de Telepresencia como las populares imágenes en las películas de Star Wars.
CONCEPTO:
El concepto y la estética audiovisual esta concebida como un hibrido entre la estética de video y la de la imagen pseudo-holográfica.: VIDEOHOLOGRAMA
Además, la localización espacial del dispositivo permite jugar con la percepción visual del observador.
Visions Project K. consigue un tipo particular de inmersión en otra realidad, sin la necesidad de dispositivos externos para amplificar los sentidos del observador. Este
tipo de experiencia nos permite estudiar aspectos interesantes de la percepción espacial y de la kinestésica.
DIY/HAZLO TÚ MISMO
Este dispositivo ha sido diseñado para ser montado y desmontado fácilmente y caber en una maleta de mano (20x45x55 cm).
Las piezas han sido diseñada con el programa Sketch-up e impresas con la impresora 3D Makerbot del grupo OpenFabLab de Medialab-Prado.