GPN12:Kinect-Touchpad: Unterschied zwischen den Versionen

aus dem Wiki des Entropia e.V., CCC Karlsruhe
Keine Bearbeitungszusammenfassung
(slides)
 
(26 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
{{#css:GPN12:Stylesheet}}


= Riesentouchpad aus Beamer und Kinect =
= ERGEBNIS =
Ich würde gerne ein großes Touchpad aus einem Beamer und einer Kinect bauen. Mit dem Beamer kann man beliebige Bilder auf den Boden, einen Tisch oder eine Wand projizieren, mit der Kinect kann man feststellen, wenn jemand die Fläche berührt.
Nach viel Mate, noch mehr Kaffee und toller Hilfe bei Aufbau und Programmierung, gibt es jetzt den ersten Prototypen:
Interaktive Hüpfkästchen oder ein interaktiver Tisch wären damit dann schnell machbar.


Die Technik dahinter ist nichts Neues, nur habe ich bisher keine OpenSource Lösung für diese Anwedung gesehen und ich glaube, dass man mit dieser Riesen-Touchpad viel Spaß haben kann.  
<gallery widths=200px>
Datei:Sandkasten_knoten.jpg|Datenknoten
Datei:Sandkasten_rocket.jpg|Rakete
Datei:sandkasten_berg.jpg|Berg
</gallery>


Alleine zu Arbeiten ist langweilig, daher suche ich noch Leute, die mitspielen wollen. Es gibt zwei große Bereiche, in denen man sich austoben kann:
Die Wassersimulation funktioniert auch schon ganz gut, Videos kommen noch.
Für Ideen, Kritik, Anregungen bin ich am besten unter nikolas dot engelhard@in.tum.de zu erreichen. Der Code ist im [https://github.com/NikolasE/Touchscreen github]. (Nicht aufgeräumt und benötigt [http://ros.org ros])


- Bau des eigentlichen Touchpads
= Kinect Projektor Hacken =


- Entwicklung von Spielen/Anwendungen für das Touchpad
Ein Workshop mit Nikolas auf der [[GPN12]].


Damit auch schon bei der GPN etwas vorzeigbares rauskommt, werde ich schon im Vorfeld einen Prototypen bauen.
In diesem Projekt soll es darum gehen, was man alles mit einer Kinect und einem Projektor anstellen kann. Mit der Kinect können beliebige Flächen oder Körper in 3D erfasst werden und mit dem Projektor beliebig angestrahlt werden.
Neben den technischen Herausforderungen würde ich gerne auch in die künsterlische Richtung gehen und schon während der GPN interaktive Kunstinstallationen aufbauen.  


Ein paar mögliche Projekte wären diese hier:


Wer also schon immer mal mit der Kinect arbeiten wollte, vielleicht etwas über Bildverarbeitung lernen will oder auch ein Spiel für eine 4m^2 große interaktive Wand schreiben will, ist herzlich eingeladen, bei dem Projekt mitzumachen. Kommentare, Fragen, usw. am besten auf die Diskussionsseite hier.


[[Benutzer:Nikolas|Nikolas]] 01:13, 24. Feb. 2012 (CET)
[[Media:WhattoHack_sandkasten.pdf |WHAT TO HACK]]-Vortrag


Aktueller Zwischenstand:


Beamer und Projector können kalibriert werden (dauert 30s), so dass jeder Punkt in der Welt beliebig gefärbt werden kann.
== Interaktive Sandkiste ==
Die Bilder sind aus einer simplen Demo, bei der jeder Punkt vor der Tafel blau eingefärbt wird.
Bau einer [http://idav.ucdavis.edu/~okreylos/ResDev/SARndbox/ interaktiven Sandkiste]. Der Code zum Anfärben ist schon fertig, man müsste nur eine Sandkiste bauen :)


Material:
Für eine Sandkiste mit 1m^2 und 10cm Sandhöhe:


{|
- Sand: 100 dm^3 (100 l) für 8€ [http://www.hornbach.de/shop/Spielsand-25kg/7175900/artikel.html?WT.svl=artikel_img Spielsand bei Hornbach] (Gewicht: 125kg)
|-
| [[Datei:Beamer papier.jpg|200px|thumb|none|Blatt Papier]]
| [[Datei:Beamer hand.jpg|200px|thumb|none|Hand]]
|}


- Holz:
[http://www.hornbach.de/shop/Kreuzrahmen-Fichte-Tanne-60x60x2000-mm/3303922/artikel.html?sourceCat=S1588&WT.svl=artikel_text Kreuzrahmen (60x60x2000 mm, 2,30€)]
[http://www.hornbach.de/shop/Latte-Fichte-Tanne-tauchimpraegniert-48x24x2000-mm/1000868/artikel.html?sourceCat=S1587&WT.svl=artikel_img Latten (0,42€/m)]
[http://www.hornbach.de/shop/Schalbrett-Fichte-Tanne-98x19x3000-mm/1001587/artikel.html?sourceCat=S1589&WT.svl=artikel_text Bretter 98x19x3000 2,80€]


Gesamtkosten wären gerade mal 40€.


== Riesentouchpad aus Beamer und Kinect ==


Mit dem Beamer könnte man eine Tafel oder eine Wand zu einem großen Touchscreen umbauen. Wenn man ein Whiteboard als Hintergrund nehmen würde, könnte man sogar darauf malen und darüber z.B. mit einem Spiel interagieren. Ein Beispiel wäre ein Towerdefense: [http://www.kickstarter.com/projects/1773873912/doodle-defense] (ist sogar schon OpenSource)


== 3D Projektionen ==


Hier geht es eher darum, Menschen oder beliebige Objekte als Projektionflächen einzusetzen. Mit dem Skelett-Tracker der Kinect könnte man jemandem ein Smiley auf den Bauch malen oder etwas in diese Richtung: [http://vimeo.com/18713117]


Damit auf der GPN schnell losgehackt werden kann, habe ich schon mal einen Prototypen [https://github.com/NikolasE/Touchscreen] geschrieben und ein paar Bilder gemacht:


<gallery widths=200px>
Datei:Beamer papier.jpg|Blatt Papier
Datei:Beamer hand.jpg|Hand
Datei:Beamer_farbe.jpg|Farbverlauf
Datei:Beamer_farbe_2.jpg|Farbverlauf
Datei:Beamer_farbe_hand.jpg|Farbverlauf
Datei:Pr2.jpg|PR2
</gallery>


Auf den ersten beiden Bildern wird alles gefärbt, was sich vor der Wand befindet. Beim Farbverlauf wurde die Entfernung zur Wand auf eine Farbskala übertragen und jeder Punkt mit seiner entsprechenden Farbe angestrahlt. Für das letzte Bild hat einer unserer Roboter (ein PR2 von Willow Garage) Model gestanden. Hier hängt die Farbe vom Abstand zum Fußboden ab.


== Bau des Touchpads ==


Da der Beamer meist nicht direkt über dem Feld installiert werden kann, wird das Bild recht stark verzerrt werden, was algorithmisch ausgeglichen werden sollte. Zudem muss klar sein, welches Pixel angesprochen werden muss, wenn ein bestimmter Fleck auf dem Tisch seine Farbe wechseln soll. Daher ist es notwendig, die Position des Beamers und der Kinect relativ zum Tisch zu bestimmen. Für die Kinect mit der Tiefeninformation ist das recht einfach machbar, für den Beamer muss man dann etwas Mathe rausholen. Für die Beamerkalibrierung (Bestimmung der Projektionsmatrix/Homographie) kann man den Beamer als inverse Kamera betrachten und über die normalen markerbasierten Algorithmen gehen.
Für die technische Umsetzung (Kalibrierung, Gestenerkennung) gibt's noch eine eigene Seite: [[GPN12:KinectTech]]


=== Kalibrierungsmuster ===


Die Marker werden im Kinect-Bild erkannt und mit der bekannten Tiefe können ihnen 3d-Positionen zugeordnet werden. Diese Positionen werden dann in Tischkoordinaten (x,y,0) umgerechnet, und damit die Projektionsmatrix berechnet.
== Benutzte Software ==
Soll dann ein bestimmes Bild auf dem Tisch angezeigt werden, kann darüber die auszugleichende Verzerrung berechnet werden.
Aktuell basiert der Code auf [http://ROS.org ROS], einer Robotik-Bibliothek die bisher nur unter Linux läuft. Damit der Code auch später noch benutzt wird, müsste man wohl auch alles auf OpenFrameworks und Windows portieren.  
Weiter Bilder auch im [https://github.com/NikolasE/Touchscreen github].


=== Erkennung der Nutzerinteraktion ===
Über die Tiefenwerte wird eine Ebene in den Tisch gefittet. Für jeden Punkt, den die Kinect sieht, kann damit der Abstand der Ebene und der nächste Punkt in der Ebene berechnet werden. Sobald ein Punkt sehr nahe am Tisch ist, kann ein MouseDown ausgelöst werden, und das Object verfolgt werden, bis es sich wieder vom Tisch entfernt, was dann ein MouseUp darstellt. Bewegt sich ein Objekt nahe der Oberfläche (2-20cm) könnte auch ein MouseOver ausgegeben werden.
Aufgaben hier wäre hier eine möglichst glatte Mausbewegung und eine Erkennung der verschiedenen Events. Da der Tisch multitouch-fähig sein soll, müssen auch mehrere Objekte gleichzeitig getrackt werden. (z.B. für eine Zoom-Geste mit zwei Händen).


{{Navigationsleiste GPN12}}
== Wer wird gesucht? ==
 
- Alle, die sich für Bildverarbeitung interessieren und wissen wollen, was man alles mit einer Kamera anstellen kann. (für die Diskussion der technischen Dateils:  [[GPN12:KinectTech]])
 
- Alle, die sich gerne künstlerisch austoben wollen, Ideen für ein Spiel oder eine Installation haben
 
- Alle, die mal eine Demo ausprobieren wollen um sie danach in den höchsten Tönen zu loben
 
- Alle, die sich mit Processing, OpenFrameworks und ähnlichen Techniken auskennen
 
- Alle anderen, die gerne mal mit der Kinect spielen wollen
 
Der Code soll natürlich openSource sein und möglichst einfach zu benutzen sein (wenig Abhängigkeiten, möglichst auch unter Windows), damit er nicht nach der GPN einfach verschwindet.
 
Ich würde mich sehr freuen, wenn sich ein paar Leute zum Hacken und Spielen finden würden :)
 
--[[Benutzer:Nikolas|Nikolas]] 21:47, 8. Apr. 2012 (CEST)
 
== Dokumentation ==
* Folien: [[Media:WhattoHack_sandkasten.pdf|PDF]]
 
 
{{Navigationsleiste GPN12:Vorträge}}

Aktuelle Version vom 25. Juli 2012, 10:13 Uhr


ERGEBNIS

Nach viel Mate, noch mehr Kaffee und toller Hilfe bei Aufbau und Programmierung, gibt es jetzt den ersten Prototypen:

Die Wassersimulation funktioniert auch schon ganz gut, Videos kommen noch. Für Ideen, Kritik, Anregungen bin ich am besten unter nikolas dot engelhard@in.tum.de zu erreichen. Der Code ist im github. (Nicht aufgeräumt und benötigt ros)

Kinect Projektor Hacken

Ein Workshop mit Nikolas auf der GPN12.

In diesem Projekt soll es darum gehen, was man alles mit einer Kinect und einem Projektor anstellen kann. Mit der Kinect können beliebige Flächen oder Körper in 3D erfasst werden und mit dem Projektor beliebig angestrahlt werden. Neben den technischen Herausforderungen würde ich gerne auch in die künsterlische Richtung gehen und schon während der GPN interaktive Kunstinstallationen aufbauen.

Ein paar mögliche Projekte wären diese hier:


WHAT TO HACK-Vortrag


Interaktive Sandkiste

Bau einer interaktiven Sandkiste. Der Code zum Anfärben ist schon fertig, man müsste nur eine Sandkiste bauen :)

Material: Für eine Sandkiste mit 1m^2 und 10cm Sandhöhe:

- Sand: 100 dm^3 (100 l) für 8€ Spielsand bei Hornbach (Gewicht: 125kg)

- Holz: Kreuzrahmen (60x60x2000 mm, 2,30€) Latten (0,42€/m) Bretter 98x19x3000 2,80€

Gesamtkosten wären gerade mal 40€.

Riesentouchpad aus Beamer und Kinect

Mit dem Beamer könnte man eine Tafel oder eine Wand zu einem großen Touchscreen umbauen. Wenn man ein Whiteboard als Hintergrund nehmen würde, könnte man sogar darauf malen und darüber z.B. mit einem Spiel interagieren. Ein Beispiel wäre ein Towerdefense: [1] (ist sogar schon OpenSource)

3D Projektionen

Hier geht es eher darum, Menschen oder beliebige Objekte als Projektionflächen einzusetzen. Mit dem Skelett-Tracker der Kinect könnte man jemandem ein Smiley auf den Bauch malen oder etwas in diese Richtung: [2]

Damit auf der GPN schnell losgehackt werden kann, habe ich schon mal einen Prototypen [3] geschrieben und ein paar Bilder gemacht:

Auf den ersten beiden Bildern wird alles gefärbt, was sich vor der Wand befindet. Beim Farbverlauf wurde die Entfernung zur Wand auf eine Farbskala übertragen und jeder Punkt mit seiner entsprechenden Farbe angestrahlt. Für das letzte Bild hat einer unserer Roboter (ein PR2 von Willow Garage) Model gestanden. Hier hängt die Farbe vom Abstand zum Fußboden ab.


Für die technische Umsetzung (Kalibrierung, Gestenerkennung) gibt's noch eine eigene Seite: GPN12:KinectTech


Benutzte Software

Aktuell basiert der Code auf ROS, einer Robotik-Bibliothek die bisher nur unter Linux läuft. Damit der Code auch später noch benutzt wird, müsste man wohl auch alles auf OpenFrameworks und Windows portieren.


Wer wird gesucht?

- Alle, die sich für Bildverarbeitung interessieren und wissen wollen, was man alles mit einer Kamera anstellen kann. (für die Diskussion der technischen Dateils: GPN12:KinectTech)

- Alle, die sich gerne künstlerisch austoben wollen, Ideen für ein Spiel oder eine Installation haben

- Alle, die mal eine Demo ausprobieren wollen um sie danach in den höchsten Tönen zu loben

- Alle, die sich mit Processing, OpenFrameworks und ähnlichen Techniken auskennen

- Alle anderen, die gerne mal mit der Kinect spielen wollen

Der Code soll natürlich openSource sein und möglichst einfach zu benutzen sein (wenig Abhängigkeiten, möglichst auch unter Windows), damit er nicht nach der GPN einfach verschwindet.

Ich würde mich sehr freuen, wenn sich ein paar Leute zum Hacken und Spielen finden würden :)

--Nikolas 21:47, 8. Apr. 2012 (CEST)

Dokumentation