domingo, 27 de abril de 2008

TUI

Un área muy interesante del HCI son las TUI (Tangible User Interfaces).

Se trata de interfaces donde el usuario manipula objetos físicos para producir cambios en la información digital.

Algunos ejemplos:


Sensetable

Es una mesa en la que se colocan objetos que son interpretados por el computador. Al mismo tiempo un proyector muestra imágenes sobre la mesa que son el resultado de cómo se manipulan los objetos.

Hay muchas aplicaciones interesantes de este proyecto en este video:


Tangerine (Tangible interactive natural enviroment)

Este es un proyecto que comparte algunas ideas de Sensetable y agrega una interacción Bluetooth para obtener la orientación y rotación de un objeto tangible con forma de cubo.

Acá está todo:


http://www.tangerineproject.org/


Xenakis

Es una interfaz tangible para creación de música. El sueño de un DJ nerd (¿hay otro tipo?).

También es una mesa sobre la cual se colocan objetos tangibles. La imagen no es proyectada sobre la mesa sino que la propia mesa produce imágenes.


Memodules

Es una consola que reconoce objetos físicos y guarda información al respecto. Se pueden asignar acciones para realizar al poner nuevamente el mismo objeto en la consola, por ejemplo pasar videos. No le encontré mucha gracia y es demasiado aparatoso para mí gusto.


http://www.memodules.ch/memodules_home/description.jsp


Level Head

De todos los proyectos es el que más me gustó por ser simple y al parecer entretenido. Usa solamente la webcam y un cubo que puede hacer en su propia casa cualquiera que haya visto Art Attack.


Reflexión las TUI:

Al parecer es cool usar mesas gigantes sobre las cuales poner objetos. La mayoría de estos proyectos cuentan con mucho hardware extra como proyectores o mesas de LCD. El objetivo de mi proyecto es un poco diferente ya que quiero que el usuario no necesite más hardware que una computadora, una webcam y/o wiimote (dispositivos bien difundidos y de bajo costo). Lo que más me ha gustado y me inspiró es el Level Head, así que voy a investigar más por ese lado. Revisando rápidamente encontré un framework que se puede aplicar para hacer algo parecido:

http://reactable.iua.upf.edu/?software



El Plan

La primera etapa de este proyecto, que ya comenzó, es de pura investigación y recolección de conocimiento en el área de Interacción Humano-Computadora. Voy a ir publicando links a proyectos y eventos relacionados y reportes técnicos al respecto.

La siguiente etapa será cuando abandone los vínculos con el mundo exterior y me ponga a programar mi sistema de interacción humano-computadora, aislado, al mejor estilo DHARMA initiative. Claro que previamente a eso voy a tener que diseñar el sistema. Aún no sé lo que es, pero esperemos que se me ocurra algo en los próximos días.


La idea es usar processing y open frameworks en la etapa de implementación, junto con hardware de reconocimiento gestual de bajo costo como webcams y wiimotes.

Algunos de los prototipos que haga van a ser en processing así que se van a poder ejecutar en esta web, también voy a colgar fotos y videos de los avances.


Más o menos ese es el plan.