Autostereogramme

Transcription

Autostereogramme
Universität Koblenz–Landau
Fachbereich Informatik
Autostereogramme
Astrid Glende
Matrikelnummer 9820147
Seminar Computergraphik
betreut von Prof. Dr.-Ing. H. Giesen
Wintersemester 2000/2001
Vortrag vom 11.04.2001
Inhaltsverzeichnis
Abbildungsverzeichnis
iii
1 Einleitung
1
2 Geschichte des dreidimensionalen Sehens
2
3 Grundlagen
4
3.1
Das visuelle System des Menschen . . . . . . . . . . . . . . . . . . .
4
3.1.1
Der Aufbau des Auges . . . . . . . . . . . . . . . . . . . . . .
4
3.1.2
Monokulare Tiefenkriterien . . . . . . . . . . . . . . . . . . .
6
3.1.2.1
Perspektive und Größenkonstanz . . . . . . . . . . .
6
3.1.2.2
Verdeckung . . . . . . . . . . . . . . . . . . . . . . .
6
3.1.2.3
Luftperspektive . . . . . . . . . . . . . . . . . . . .
6
3.1.2.4
Bewegungsparallaxe . . . . . . . . . . . . . . . . . .
7
3.1.3
Binokulares Tiefenkriterium: Querdisparation . . . . . . . . .
8
3.1.4
Folgerungen für die Computersimulation . . . . . . . . . . . .
9
3.2
Autostereogramme sehen
. . . . . . . . . . . . . . . . . . . . . . . .
9
3.3
Arten von Stereogrammen . . . . . . . . . . . . . . . . . . . . . . . .
10
3.3.1
RDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
3.3.2
SIRDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
3.3.3
SIRTS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
3.3.4
SIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
4 Ein Algorithmus
11
4.1
Die Idee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
4.2
Die Geometrie
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
4.3
Tiefenkarte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
4.4
Problematiken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
4.4.1
Geisterbilder . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
4.4.2
Verdeckte Oberflächen . . . . . . . . . . . . . . . . . . . . . .
14
4.4.3
Artifakte . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
i
ii
INHALTSVERZEICHNIS
4.5
Der Code in C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
4.6
Beschreibung des Codes . . . . . . . . . . . . . . . . . . . . . . . . .
17
4.6.1
Behandlung der Abhängigkeiten . . . . . . . . . . . . . . . .
17
4.6.2
Behandlung der Verdeckten Oberflächen . . . . . . . . . . . .
17
Grenzen bei der Generierung von Autostereogrammen . . . . . . . .
18
4.7
Literaturverzeichnis
19
Abbildungsverzeichnis
3.1
Der Querschnitt des Augapfels . . . . . . . . . . . . . . . . . . . . .
4
nach Binco, Carl: How your eyes work. Modifiziert von Astrid Glende.
http://www.howstuffworks.com/eye.htm. Download: 13.03.2001
3.2
Die Retina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
nach Beck, Ernst-Georg: Aufbau der Netzhaut. Baden-Württemberg:
1997/98. Modifiziert von Astrid Glende.
http://www.merian.fr.bw.schule.de/beck/skripten/12/bs12-36.htm.
Download: 13.03.2001
3.3
Sehbahnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
Masuhr, Karl F.; Neumann, Marianne: Neurologie. Hippokrates.
Stuttgart: 1992; 33.
3.4
Perspektive und Größenkonstanz . . . . . . . . . . . . . . . . . . . .
6
Schnotz, Wolfgang: Vorlesungsfolien. Psychologie des Visuellen.
Landau: 1999.
3.5
Verdeckung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
nach Prinz, Wolfgang: Wahrnehmung. In Huber et al.: Lehrbuch
allgemeine Wahrnehmung. Spada. Bern: 1990; 25 - 114.
http://www.uni-bielefeld.de/idm/neuro/Gestaltwahrnehmung.html.
Download: 13.03.2001
3.6
Luftperspektive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
Pieper, Wolfgang: Monokulares Tiefensehen - Luftperspektive 1.
http://www.psychol.uni-giessen.de/ pieper/2 5 1/img1.htm.
Download: 13.03.2001
3.7
Bewegungsparallaxe . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
Schuhmann, Heidrun: Computergraphik. Rostock: 2000; 22
http://wwwicg.informatik.uni-rostock.de/Lehre/CG1/scripte hs/CG1 Kap5 6Folien.pdf.
Download: 06.04.2001
3.8
Horopter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
nach Goldstein, E. Bruce: Wahrnehmungspsychologie.
Eine Einführung. Spektrum. Heidelberg, Berlin, Oxford: 1997; 227.
Modifiziert von Astrid Glende.
3.9
Querdisparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
nach Goldstein, E. Bruce: Wahrnehmungspsychologie.
Eine Einführung. Spektrum. Heidelberg, Berlin, Oxford: 1997; 227.
Modifiziert von Astrid Glende.
iii
8
iv
ABBILDUNGSVERZEICHNIS
3.10 RDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
Cooper, Rachel: 3D-Vision Site.
http://www.vision3d.com/optical/index.shtml#contents. Download: 14.03.2001
3.11 SIRDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
Schwabinghaus, U.: Grundlagen der räumlichen Bilder.
http://mitglied.tripod.de/schwebin/basics3d.htm. Download: 14.03.2001
3.12 SIRTS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
Inglis, Stuart: Stereogram FAQ. New York: 1996.
http://www.cs.waikato.ac.nz/~singlis/sirds.html.Download: 13.03.2001
3.13 SIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
Cooper, Rachel: 3D-Vision Site.
http://www.vision3d.com/optical/index.shtml/contents. Download: 14.03.2001
4.1
2D Image-Plane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
Thimbleby, Harold W.; Inglis, Stuart; Witten, Ian H.: Displaying 3DImages: Algorithms for Single-Image Random-Dot Stereograms.
In Computer: Innovative technology for computer professionals.
IEEE Computer Society.
New York: 1994; 38 - 48.
ftp://ftp.cs.waikato.ac.nz/pub/SIRDS
4.2
Die grundlegende Geometrie . . . . . . . . . . . . . . . . . . . . . . .
12
Thimbleby, Harold W.; Inglis, Stuart; Witten, Ian H.: Displaying 3DImages: Algorithms for Single-Image Random-Dot Stereograms.
In Computer: Innovative technology for computer professionals.
IEEE Computer Society.
New York: 1994; 38 - 48.
ftp://ftp.cs.waikato.ac.nz/pub/SIRDS
4.3
Tiefenkarte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
Steer, William Andrew: Andrew’s Stereogram Page. London: 1996
http://www.ucl.ac.uk/~ucapwas/stereo.html.Download: 14.03.2001
4.4
Geisterbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
nach Pospischil, Günther; Mroz, Lukas: Single Image Random Dot
Stereograms. Modifiziert von Astrid Glende.
http://www.cg.tuwien.ac.at/~mroz/sirds/index.html.Download: 13.03.2001
4.5
Verdeckte Oberflächen . . . . . . . . . . . . . . . . . . . . . . . . . .
Thimbleby, Harold W.; Inglis, Stuart; Witten, Ian H.: Displaying 3DImages: Algorithms for Single-Image Random-Dot Stereograms.
In Computer: Innovative technology for computer professionals.
IEEE Computer Society.
New York: 1994; 38 - 48.
ftp://ftp.cs.waikato.ac.nz/pub/SIRDS
14
Kapitel 1
Einleitung
Schon seit langem interessiert sich der Mensch für das Sehen dreidimensionaler Welten. Jedoch erst aus der Erkenntnis, dass die dritte Dimension durch das binokulare
Sehen erreicht wird, war es möglich, einen räumlichen Eindruck synthetisch herzustellen. Dadurch wurde das Verständnis des menschlichen Sehsystems, angefangen
beim Auge, die Grundlage für alle Methoden, ein räumliches Bild ‘in den Kopf’ zu
bekommen.
Zu Beginn der Entwicklung war zur Produktion der Stereobilder spezielle Einrichtungen, wie zum Beispiel das Stereoskop, entweder für die Erzeugung der Bilder oder
für das Sehen selbst notwendig. Doch um die Tiefe aus einem flachen Bild erscheinen zu lassen, ist alleine die Stereooptik notwendig. Solche Bilder sind heutzutage
unter den Namen Autostereogramme, Hologramme, MagicEye und viele mehr bekannt. Zwar benötigt das Betrachten dieser Bilder etwas Praxis, dennoch ist das
Ergebnis sehr erstaunlich.
Eine Methode für die Herstellung solcher Bilder soll im folgenden vorgestellt werden.
1
Kapitel 2
Geschichte des
dreidimensionalen Sehens
Im folgenden werde ich anhand einer Zeittabelle erläutern, wie sich in der Geschichte
das Interesse an dem dreidimensionalen Sehen entwickelt hat.
ca. 300 v. Chr.
1838
1844
1853
1922
1940
Euklid untersuchte die “Natur des Sehens mit zwei Augen”,
wurde sich der 3. Dimension bewusst und formulierte in
seiner wissenschaftlichen Abhandlung “Optika” die Gesetze
der Optik
Nach Untersuchungen der Stereodisparität erfand Sir
Charles Wheatstone das Stereoskop; ein optisches Gerät,
mit dem sich gezeichnete oder photographierte Stereobildpaare betrachten lassen, wobei jedem Auge nur eines der
Einzelbilder (Halbbilder) dargeboten wird. Mit dieser Erfindung erwachte das Interesse an der Stereographie.
Sir David Brewster entdeckte den “Wallpaper-Effekt”, indem er durch Schielen auf eine Tapete einen 3D-Effect erzielte. Dieser Effekt geht darauf zurück, dass das Gehirn
verschiedene Einheiten des sich wiederholenden Blockmusters in der Tapete zusammenfasst. Das Ungleichgewicht,
das in die Wahrnehmung der Ebene der Tapete übersetzt
wird, ist dabei näher, als es wirklich ist. Dabei wird die
Tiefe durch die Dauer der Wiederholungen der Tapete festgelegt.
Wilhelm Rollmann veröffentlichte die Idee der Anaglyphen:
Die bei binokularer Betrachtung entstandenen Halbbilder
werden komplementär eingefärbt, übereinandergelegt und
können mittels entsprechend farbiger Gläser anschließend
wieder getrennt gesehen werden.
Carl Pulfrich entdeckt bei einem Pendelexperiment das nach
ihm benannte Phänomen, bei dem durch unterschiedliche
Helligkeiten in beiden Augen, die Reize auf neuronaler
Ebene zeitversetzt wahrgenommen werden und deshalb ein
pseudo-dreidimensionaler Eindruck entsteht.
Das erste Random-Dot Stereogram (RDS) wurde zufällig
von einer Spitfire über Köln aufgenommen. [Dass es sich
hierbei um ein RDS handelt, entdeckte Bela Julesz].
2
3
1948
1960
1962
1979
1983
1986
1989
1990
1991
1993
Dennis Gábor erfand die Holographie; eine Technik zur Speicherung und Wiedergabe von Bildern in dreidimensionaler Struktur, die (in zwei zeitlich voneinander getrennten
Schritten) durch das kohärente Licht von Laserstrahlen erzeugt sind.[1971 erhielt er für diese Erfindung den Nobelpreis für Physik.]
B. Julesz, ein Radaringenieur, forschte im Labor von Bell
Systems auf dem Gebiet des psychologischen Problems der
Sehkraft und Wahrnehmung.
B. Julesz und J.E. Miller zeigen anhand eines RDS-Paares,
dass eine Tiefenwirkung allein aus der Stereooptik erzeugt
werden kann.
D. Marr und T. Poggio beschreiben in ihrem Artikel “A
computational theory of human stereo vision” Computermodelle über die visuellen Prozesse, die erforderlich sind,
um RDS zu interpretieren. [Dieser Artikel kann als Basis
für Autostereogramme angesehen werden.]
Christoph Tyler stellte Single-Image Random-Dot Stereograms (SIRDS) als “einen neuen Typ von Autostereogrammen bestimmt für freie Fusion ohne die Erfordernisse eines Stereoskops oder einer Anaglyphenbrille, basierend auf
der Wiederholung zufällig erzeugter Muster” (Inglis 1996)
vor, die auf den “Wallpaper-Effekt” von Sir David Brewster zurückgehen. [Das erste Bild wurde mittels BASIC auf
einem Apple-II-Computer programmiert.]
L.L. Kontsevich beschreibt eine Technik, um Bilder, die Folgen oder Kacheln verwenden zu erzeugen. [Er scheint der
Urheber der Single-Image Stereograms (SIS) zu sein.]
In Deutschland wird die DIN 4531 Stereogramm Format
eingeführt.
Christoph Tyler and M.B. Clarke beschreiben einen einfachen, aber asymmetrischen Algorithmus zur Produktion von
SIRDS. Dabei bedeutet asymmetrisch, dass manche Menschen den gewünschten Effekt nur sehen können, wenn sie
das Bild verkehrt herum halten.
Das Nuoptix-Verfahren, das auf das Pulfrich-Phänomen
zurückzuführen ist, findet seine Verwendung im Film.
Das N. E. Thing Unternehmen patentiert zusammen mit
Tom Baccei verschiedene RDS-Algorithmen, wie zum Beispiel der “Salitsky dot”-Algorithmus und eine Methode, damit RDS-Bilder ihre Farbe verlieren. Tom Baccei publiziert
“Magic Eye” – ein kommerziell sehr erfolgreiches Buch, das
verschiedene SIS zeigt.
Kapitel 3
Grundlagen
3.1
Das visuelle System des Menschen
3.1.1
Der Aufbau des Auges
Der Sehvorgang wird durch adäquate Reize im Auge ausgelöst. Adäquat für das visuelle System sind
Wellenlängen zwischen circa 360 und 760 nm1 des
elektromagnetischen Spektrums, auch sichtbares
Licht (mit den Spektralfarben rot, orange, gelb,
grün, blau und violett) genannt (vgl. Stadler, Seeger, Raeithel 1977; 92).
Beim Einfall von sichtbarem Licht durch die durchsichtige Hornhaut (Cornea) ins Auge, werden die
Lichtstrahlen hinter der Pupille von der Linse gebrochen, und auf die Netzhaut (Retina) geworfen. Abbildung 3.1: Der QuerDort entsteht in Folge dessen eine um 180 Grad ge- schnitt des Augapfels
drehte Projektion der Außenwelt, wobei der Punkt, den unser Auge fixiert (Blickpunkt) auf die schärfste Stelle der Retina, die Sehgrube (Fovea), projiziert wird
(vgl. Stadler, Seeger, Raeithel 1977; 91). Siehe hierzu Abbildung 3.1.
In der Retina befinden sich die lichtempfindlichen
Photorezeptoren, etwa 120 Millionen Stäbchen und
6 Millionen Zapfen, die auf Licht mit elektrischen
Signalen reagieren (vgl. Goldstein 1997; 41 - 42).
Der Unterschied zwischen Stäbchen und Zapfen liegt
im Helligkeitsbereich, den sie erfassen. Da Stäbchen
eine höhere Empfindlichkeit als die Zapfen haben,
können sie gut in der Dämmerung sehen. Allerdings nehmen sie nur verschiedene Grautöne, schemenhafte Abbildungen und Bewegungseindrücke
wahr. Dagegen sind die Zapfen ab einer gewissen
Helligkeit in der Lage, Farben zusehen. Zudem haben sie mit einer Flimmerfusion von circa 50 Hz
eine höherer Zeitauflösung als die Stäbchen mit 20
Abbildung 3.2: Die Retina
Hz und befinden sich vor allem im Bereich der optischen Achse (Fovea). Dort werden die Lichtstrahlen aufgrund der hohen Dichte der
11
Nanometer (nm) = 10−9 m
4
3.1. DAS VISUELLE SYSTEM DES MENSCHEN
5
Zapfen am genauesten abgebildet. An dieser Stelle gibt es keine Stäbchen, dafür
nimmt deren Konzentration in der Netzhautperipherie zu (vgl. Schäffler, Schmidt
1998; 210).
Die in den Sehzellen erzeugten Impulse verlassen
über den Sehnerv an der lichtunempfindlichsten
Stelle – dem ‘blinden Fleck’ – das Auge. Hinter
den Augen laufen die Sehnerven, wie in Abbildung 3.3 zu sehen, bis zur partiellen Sehbahnkreuzung (Chiasma opticum). Dort werden die
Nervenfasern, die Informationen über die linken
Hälften des Gesichtsfeldes beider Augen besitzen, in die rechte Gehirnhälfte geleitet und umgekehrt (vgl. Bach 1999). Dabei gilt, dass das
Gesichtsfeld all diejenigen Objekte der Außenwelt umfasst, die bei ruhendem Auge und fixiertem Kopf und Körper überblickt werden können
(vgl. Stadler, Seeger, Raeithel 1977; 88).
Schließlich entsteht ein Abbild des Netzhautbildes im Sehzentrum (visueller Cortex; Area striaAbbildung 3.3: Sehbahnen
ta). Da sich die Gesichtsfelder beider Augen
überlappen, d.h. die meisten Sichtobjekte in beiden Augen auf der Retina abgebildet werden, muss dies bedeuten, dass die Fasern jener Stellen der Netzhäute,
auf denen die gleichen Informationen eines Objektes in einer Fixierungsentfernung
(Entfernung zum Objekt) in beiden Augen abgebildet sind, jeweils mit derselben
Stelle im visuellen Cortex verbunden sind. In diesem Falle spricht man auch von
‘korrespondierenden Netzhautstellen’ (vgl. Bach 1999).
Um die Korrespondenz der Netzhautstellen zu erreichen, bedient sich die Biologie
zweier Mechanismen:
• Mithilfe des Ciliarmuskels, der eine unterschiedliche Krümmung und damit
auch eine unterschiedliche Dicke der Linse bewirkt, kann das menschliche Auge Gegenstände in unterschiedlichen Entfernungen scharf einstellen. Diese
Nah- bzw. Ferneinstellung des Auges, Akkomodation genannt, ist beim Normalsichtigen in einem Abstandsbereich zwischen 10 cm und 5 - 6 m möglich.
• Außerdem macht es der seitliche Abstand der beiden Augen notwendig, dass
sich bei unterschiedlicher Distanz zwischen dem angeblickten Objekt und dem
Auge die Konvergenz der Bildachsen ändert, damit sich die optischen Achsen
beider Augen in einem Fixierungspunkt schneiden (vgl. Stadler, Seeger, Falk
1977; 91, 163 - 164).
“Deckungsgleichheit kann jedoch immer nur für einen Punkt in der Tiefe durch
Konvergenz erreicht werden: Dieses ist der angeblickte Punkt oder Fixierpunkt” (Stadler, Seeger, Falk 1977; 164).
Die Auswirkungen dieser Mechanismen auf die visuelle Wahrnehmung werden in
Abschnitt 3.1.3 besprochen.
6
3.1.2
KAPITEL 3. GRUNDLAGEN
Monokulare Tiefenkriterien
Unter einem monokularen Mechanismus für das visuelle Erleben von drei Dimensionen versteht man die Erzeugung räumlicher Eindrücke mithilfe nur eines Auges. Über diese Sinneseindrücke verfügt der Mensch jedoch nicht von Geburt an,
sondern muss sie erst über die Wahrnehmungserfahrung im Laufe des Lebens entwickeln. Hierzu gehören Perspektive, Größenkonstanz, Luftperspektive, Verdeckung
und Bewegungsparallaxe, um nur einige zu nennen (vgl. Nagy, Zoffi 2000).
3.1.2.1
Perspektive und Größenkonstanz
Die Größe der Projektion eines Objektes auf der Netzhaut
nimmt durch die Akkomodation mit zunehmender Entfernung ab. Dadurch erscheinen parallel in die Ferne verlaufende Linien sich in einem Punkt zu schneiden und weiter
entfernte Teile eines Objektes kleiner und enger beieinander
zu liegen als nähergelegene. Vorausgesetzt, dass die Größe
der Objekte einer bestimmten Art gleich und bekannt sind,
ist eine Abschätzung von absoluten und relativen Entfernungen möglich.
Aufgrund dieser Erfahrungen und des erlangten Wissens über Abbildung
3.4:
die Objekte ist es dem Sehsystem möglich, die Phänomene Perspektive
und
der Perspektive (Darstellung von Raumverhältnissen in der Größenkonstanz
ebenen Fläche) und der Größenkonstanz in der Kunst richtig zu deuten, d.h. Objekte, die sich weiter hinten in einem Bild befinden, werden nicht kleiner, sondern
weiter entfernt wahrgenommen (vgl. Abbildung 3.4).
3.1.2.2
Verdeckung
Wie in Abbildung 3.5 zu erkennen ist, erhalten wir aus der teilweisen Verdeckung eines
Objekts durch ein anderes – eine sehr einfache Tiefeninformation – den Hinweisreiz,
dass das verdeckte Objekt weiter vom Betrachter entfernt liegen muss, als das verdeckende Objekt. Diese Informationen ist
Abbildung 3.5: Verdeckung
jedoch nur relativ, da sie keine Bestimmung
absoluter Distanzen zulässt. Dieses Phänomen gewinnt vor allem dann an Bedeutung, wenn keine anderen Informationen vorhanden, oder diese nicht eindeutig sind.
3.1.2.3
Luftperspektive
Durch kleine Partikel wie Staub, Wassertröpfchen und
verschiedene Verschmutzungen innerhalb der irdischen
Atmosphäre, wird das Licht abgeschwächt und gebrochen. Beim Betrachten eines Objektes durch diese
Luftpartikel hindurch, erscheinen dadurch Objekte in
größerer Entfernung unscharf und etwas bläulich (vgl.
Goldstein 1997; 219). Infolge dieser Luftstreuung, auf
der die Luftperspektive basiert, werden entfernte Sichtobjekte farblich entsättigt und man erhält in einer
zweidimensionalen Darstellung eine starke Tiefenwirkung. Abbildung 3.6 liefert hierzu einen Eindruck.
Abbildung 3.6:
spektive
Luftper-
3.1. DAS VISUELLE SYSTEM DES MENSCHEN
3.1.2.4
7
Bewegungsparallaxe
Bei Bewegung des Beobachters scheinen sich die Bilder von Objekten in verschiedenen Distanzen mit
verschiedener Geschwindigkeit über die Netzhaut
zu bewegen. Wie in Abbildung 3.7 verdeutlicht, bewegen sich dabei Objekte, die weiter entfernt sind
als der Fixierpunkt, in dieselbe Richtung wie das
Auge und Objekte, die näher liegen in die Gegenrichtung. Dadurch verdecken je nach der Position
des Beobachters nahe Gegenstände entfernter liegende an unterschiedlichen Stellen. Dieses Phänomen liefert einen starken Tiefenhinweis.
Abbildung 3.7: Bewegungsparallaxe
8
3.1.3
KAPITEL 3. GRUNDLAGEN
Binokulares Tiefenkriterium: Querdisparation
Da unsere beiden Augen – bedingt durch den Augenabstand von etwa 6,5 cm –
zwei leicht unterschiedliche Bilder aufnehmen, müssen diese, wie bereits in Abschnitt 3.1.1 erwähnt, im visuellen Cortex zu einem Bild zusammengefügt werden.
Dies geschieht unter zur Hilfenahme der Konvergenz und Akkomodation über korrespondierende Netzhautstellen. Allerdings werden manche Punkte der Außenwelt
auch auf disparate (seitlich versetzte) Netzhautstellen abgebildet. Diese Punkte
werden sozusagen zweifach wahrgenommen.
Der Horopter ist wie Abbildung 3.8 zeigt, eine horizontale Ebene, die durch den fixierten
Punkt verläuft. Raumpunkte, die einfach gesehen werden, findet man dementsprechend auf
dem Horopter. Der Horopter ist also als der geometrische Ort für einfach gesehene Raumpunkte
definiert (vgl. Campenhausen 1993; 203).
“Je weiter das Objekt vom Horopter entfernt
ist, desto größer ist der Querdispatitionswinkel”
(Goldstein 1997; 227), woraus sich die Entfernung der Abbildung von der Fovea ergibt. Da
Abbildung 3.8: Horopter
jedoch die Abbildungen in den peripheren Bereichen sehr verschwommen wahrgenommen werden, können sie nur die Funktion haben, einen räumlich-zeitlichen Zusammenhang im Blickfeld herzustellen (vgl.
Stadler, Seeger, Falk 1977; 90).
Liegen Objekte vor dem Horopter, so werden
sie auf den äußeren Randbereichen der Retina projiziert. Dies resultiert in einer gekreuzte Querdisparation. Liegen sie dagegen hinter dem Horopter, so werden sie auf den inneren Teilen der Retina abgebildet, was man
als ungekreuzte Querdisparation bezeichnet
(vgl. Goldstein 1997; 227 - 228). Skizziert
wird dies in Abbildung 3.9. Aus dieser Disparität kann nun das visuelle System die räumliche Tiefe berechnen, indem die entsprechenden Neurone (Fixierungs-, Nah- bzw. Fernneurone) aktiviert werden. “Die Nutzung
der Querdisparition setzt [jedoch] voraus, daß
die Augen binokular fixieren – das heißt ihre
Fovea (Sehgruben) auf exakt denselben Ort
ausrichten können” (Goldstein 1997; 257).
Abbildung 3.9: Querdisparation
Zwar ist man sich darüber im Klaren, dass durch diese Stereodisparität eine beidäugige, stereoskopische Tiefensicht erst möglicht ist, leider ist jedoch bis heute immer
noch unverstanden, wie aus diesem Ergebnis der Seheindruck im Bewusstsein entseht (vgl. Bach 1999).
3.2. AUTOSTEREOGRAMME SEHEN
3.1.4
9
Folgerungen für die Computersimulation
Die Stereodisparität, die aus dem Vergleich der Bilder beider Augen besteht, muss
auch in einer Computersimulation berücksichtigt werden. Dazu berechnet man die
Szene unter Verwendung zweier Kamerastandpunkte, die etwa 6,5 cm (Abstand
der beiden Augen voneinander) auseinanderliegen und leicht gedreht (etwa 5 Grad)
sind, woraus sich die korrekte Fixierungsentfernung ergibt.
3.2
Autostereogramme sehen
Das schwierige beim Betrachten eines Stereogramms liegt in der Trennung von Konvergenz und Akkomodation, was jedoch – außer in einem müden Zustand –nicht der
unbewussten Norm entspricht. Aus diesem Grund fällt es oftmals schwer, gleich
einen 3D-Effekt herzustellen. Der Trick ist, die Augen hinter dem Stereogramm
zu konvergieren, sie aber auf die Punkte selbst zu fokussieren. Helles Licht kann
dabei helfen, da die Kontraktion der Iris eine Erhöhung des Tiefenfeldes der Augen bewirkt, und sie dadurch weniger von der Akkomodation abhängig sind (vgl.
Thimbleby, Inglis, Witten 1994; 40). Die Unfähig diese beiden Mechanismen zu
trennen, ist deshalb auch verantwortlich dafür, dass manche Menschen keine Autostereogramme sehen können.
Manche Autostereogramme verfügen zudem über zwei Punkte am unteren Bildrand,
mit deren Hilfe man die Konvergenz der Augen einstellen kann. Die Augen erzeugen
beim ‘Hindurchsehen’ durch das Bild vier Punkte, die man nun versucht soweit
anzunähern, bis sich die beiden inneren Punkte decken und nur noch drei Punkte
zu sehen sind. Im Gegensatz zu den äußeren Punkten wird der innere binokular
gesehen, daher sollte man um die Sicht zu stabilisieren, zunächst den mittleren
Punkt fixieren, bevor man langsam seinen Blick über das Stereogramm wandern
lässt (vgl. Thimbleby, Inglis, Witten 1994; 40).
Um Autostereogramme zu sehen, bedienen sich die Algorithmen verschiedener Methoden, die beim Betrachten berücksichtigt werden müssen. Diese unterscheiden
sich allerdings lediglich in der Position des Schnittpunktes der hypothetischen Sehstrahlen, dem sogenannten Konvergenzpunkt. Während beim Parallelblick der Konvergenzpunkt hinter dem Autostereogramm liegt, fokussiert man beim Kreuzblick
einen Punkt vor dem Autostereogramm (vgl. Chang 1995; 5 - 6).
10
3.3
3.3.1
KAPITEL 3. GRUNDLAGEN
Arten von Stereogrammen
RDS
Bei den RDS handelt es sich um die Originalform, die B. Julesz entdeckte. Sie bestehen aus zwei Bildern, mit unterschiedlicher Perspektive und zufällig erzeugten Mustern.
Abbildung
RDS
3.3.2
3.10:
SIRDS
SIRDS sind direkt der Idee von Bela Julesz abzuleiten. Sie bestehen aus einem zufällig erzeugten Muster
von Punkten, wobei jeder dieser Punkte zwei Pixel des
Objektes repräsentiert.
Abbildung 3.11: SIRDS
3.3.3
SIRTS
Single Image Random Text Stereogramme (SIRTS) sind
technisch identisch mit den SIRDS. Sie benutzen jedoch Buchstaben anstatt Pixel. Dadurch wird die Auflösung limitiert.
Abbildung 3.12: SIRTS
3.3.4
SIS
Bei den SIS handelt es sich um die heutzutage am
weitesten verbreitete Variante. Sie bestehen aus (geringfügig modifizierten) Kacheln. Zwar sind sie etwas
komplizierter zu generieren, aber der Grundalgorithmus ist identisch.
Abbildung 3.13: SIS
Kapitel 4
Ein Algorithmus
Wie bereits in Abschnitt 2 erwähnt entwickelten Tyler und Clark 1990 den ersten
Algorithmus für Autostereogramme. In dem anschließend von Thimbleby, Inglis
und Witten verbesserten Algorithmus haben nun – nach der Veröffentlichung im
Internet – die meisten nachfolgenden Algorithmen ihren Ursprung (Leister 1995;
2).
Alle Stereoverfahren arbeiten über die Parallaxe, wobei “als Parallaxe [...] der Winkel bezeichnet [wird], den die beiden Sehstrahlen bilden, wenn sie auf einen Punkt
fokussiert werden” (Leister 1995; 2). Aufgrund des hohen Rechenaufwandes wird,
da die Augen vertikal auf einer Ebene liegen, meist nur die horizontale Parallaxe
berücksichtigt.
4.1
Die Idee
Bei dem Entwurf eines Autostereogramms stellt sich die Frage, wie mit Hilfe der
Stereooptik aus einer flachen Seite Papier eine Tiefenwirkung erzeugt werden kann.
Dies kann in einem zweidimensionalen Bild nur dann möglich sein, wenn jedes Auge
ein separates Bild erhält, bei dem der Augenabstand und der Konvergenzwinkel
berücksichtigt ist. Daraus ergibt sich die Notwendigkeit, dass in einem Bild die
Informationen für beide Augen zu finden sein muss. Um das zu erreichen, wird
die dreidimensionale Illusion hinter dem eigentlichen Bild erzeugt (vgl. Thimbleby,
Inglis, Witten 1994; 38).
Zur Veranschaulichung stellt man sich wie
in Abbildung 4.1 dargestellt, eine Glasplatte vor, die man zwischen sich und einem dreidimensionalen Objekt platziert.
Die Glasplatte symbolisiert also das Autostereogramm, während das Objekt die
dreidimensionale Illusion repräsentiert. Betrachtet man nun das Objekt durch die
Glasplatte, so kann man erkennen, dass
beim Fixieren eines Punktes auf dem Objekt die Sehstrahlen zwei Punkte – für jedes Auge einen – auf der Glasplatte hinAbbildung 4.1: 2D Image-Plane
terlassen. Beim markieren der beiden Punkte auf der Glasplatte muss man aber berücksichtigen, dass sie die gleiche Farbe und
11
12
KAPITEL 4. EIN ALGORITHMUS
Intensität erhalten müssen, da sie das Gehirn ansonsten nicht zu einem stereooptischen Punkt fusionieren kann. Dieser Vorgang wiederholt sich für jeden weiteren
x-beliebigen Punkt auf dem Objekt. Ausnahmen sind dabei nur die Randpunkte,
da diese monokular gesehen werden. Man sollte sich dabei bewusst machen, dass
sich der Abstand zwischen den Schnittpunkten der Sehstrahlen von linkem und
rechtem Auge mit der Glasplatte je nach der Distanz des Objektpunktes ändert. Je
weiter der Punkt von der Glasplatte entfernt ist, desto größer ist auch die Distanz
der entsprechenden Bildpunkte auf der Glasplatte (vgl. Thimbleby, Inglis, Witten
1994; 39).
Wie in Abbildung 4.1 symbolisiert ergibt sich eine Abhängigkeit wenn sich zwei
Sehstrahlen, die zu unterschiedlichen Punkten auf dem Objekt gehören, auf der
Glasplatte schneiden (vgl. ir = jl). Denn dieser Schnittpunkt wird binokular gesehen, was eine gleiche Farbgebung bedingt. Daraus folgt nun, dass auch die zugehörigen monokular gesehenen Punkte il und jr die gleiche Farbe erhalten müssen.
Diese Abhängigkeit gilt es insbesondere, im Algorithmus zu berücksichtigen (vgl.
Thimbleby, Inglis, Witten 1994; 39).
4.2
Die Geometrie
Der hier vorgestellte Algorithmus basiert auf folgender Geometrie:
Abbildung 4.2: Die grundlegende Geometrie
Man stellt sich ein dreidimensionales Koordinatensystem vor, in dem der Ursprung
in einer Distanz von 2D hinter dem Mittelpunkt der beiden Augen des Beobachters
liegt. Dabei verläuft die x-Achse nach rechts, die y-Achse nach oben und die z-Achse
zum Beobachter. In diesem Koordinatensystem kann nun die Imageplane, die das
Autostereogramm repräsentiert, in einer Entfernung von D eingezeichnet werden.
Die Distanzen wurden so gewählt, dass sich das Papier oder der Bildschirm auf
halber Entfernung zur Szene befindet. Damit wird dem Betrachter die Einstellung
der Konvergenz erleichtert, denn schließlich weiß er nicht, nach welchem Objekt er
Ausschau halten soll.
Das darzustellende Objekt selbst kommt zwischen zwei Ebenen, der Near- und Farplane zu liegen, die sich vom Betrachter aus hinter der Imageplane befinden, womit
4.3. TIEFENKARTE
13
die Farplane orthogonal zur Blickrichtung des Betrachters in der Entfernung von
2D durch den Ursprung verläuft. Dementsprechend ist die Nearplane die vordere
und die Farplane die hintere Begrenzung des dreidimensionalen Objektes, womit
sie das Tiefenfeld der Szene festlegen. Vergrößert man das Tiefenfeld durch die
Erhöhung von µ, so nähert sich die Nearplane der Imageplane. Um Probleme bei
dem Einstellen der Konvergenz zu verhindern, sollte der Wert für µ kleiner als 12
sein. In der Praxis hat sich dabei ein Wert von 31 bewährt. Die Tiefenwerte bewegen
sich auf der z-Achse zwischen den Werten 0 (Farplane) und 1 (Nearplane), woraus
sich ergibt, dass sich der betrachtete Objektpunkt in einer Entfernung von (1- µz)D
hinter der Imageplane befindet.
Um nun die Querdisparation zu bestimmen, ist es notwendig, den Abstand der
beiden Punkte, die die Sehstrahlen der beiden Augen beim Fixieren eines Punktes
auf der Imageplane hinterlassen, zu berechnen. Da es sich bei dem Augenabstand
E um eine Konstante – mit einem Wert von 6,5 cm oder 2,5 in – handelt, lässt sich
der Punktabstand mit Hilfe des 2. Strahlensatz in Abhängigkeit von z berechnen:
s=
1−µ∗z
E
2−µ∗z
(vgl. Thimbleby, Inglis, Witten 1994; 40 - 41).
Für den Punktabstand wird im Algorithmus außerdem vereinfachend davon ausgegangen, dass der Betrachter auf jeden Punkt gerade drauf sieht. Dadurch ergibt sich
ein Parallax-Fehler, der sich durch einwärts gezogene Ränder äußert. Der Vorteil
ist allerdings, dass für die Berechnung keine Angaben über Position und Abstand
der Augen vom Bild benötigt wird.
4.3
Tiefenkarte
Bei einer Tiefenkarte handelt es sich um ein
Rasterbild aus Tiefenwerten. Sie enthält also
die Information darüber, wie tief jeder Punkt
der Szene ist. Am besten lässt sich eine Tiefenkarte als ein Grauwertbild beschreiben, in
dem die dunklen Felder die Regionen repräsentieren, die weiter entfernt sind, und die hellen,
die, die sich näher am Betrachter befinden (vgl.
Steer 1996). Siehe hierzu Abbildung 4.3. Somit
können 256 Grauwerte vergeben werden, die der
z-Achse entsprechen, wobei schwarz (0) für z =
0 und weiß (255) für z = 1 steht.
Abbildung 4.3: Tiefenkarte
Diese Tiefenkarte ist die Eingabe für den Algorithmus, mit der die Punktabstände
der Imageplane berechnen werden kann.
14
4.4
4.4.1
KAPITEL 4. EIN ALGORITHMUS
Problematiken
Geisterbilder
Wie bereits in Abschnitt 4.2
beschrieben, ergeben sich
Schwierigkeiten bei der Einstellung der Konvergenz bei
einem Wert für µ ≥ 12 (vgl.
Pospischil, Mroz).
Denn gelten zum Beispiel für
drei Punkte a, b und c die
Abhängigkeiten a = b und
b = c, dann muss natürlich
auch a = c gelten, wodurch
Abbildung 4.4: Geisterbilder
ein dritter Punkt definiert
wird. Dieser Punkt könnte jedoch in einer anderen Tiefe liegen oder überhaupt
nicht existieren. Vergleiche Abbildung 4.4. Einen solchen Punkt bezeichnet man
als Geisterbild (engl. echo). Es empfiehlt sich daher ein Wert von 31 für µ. Außerdem sollte, um dies zu vermeiden, die Anzahl der Abhängigkeiten so gering wie
möglich gehalten werden (vgl. Thimbleby, Inglis, Witten 1994; 45).
4.4.2
Verdeckte Oberflächen
Abbildung 4.5: Verdeckte Oberflächen
Ein anderes Problem, das es zu bewältigen gilt, sind die sogenannten verdeckten
Oberflächen. Dabei handelt es sich um Flächen, die ganz oder teilweise eine weiter
hinten liegende Fläche für ein Auge verdeckt. Dies kann je nach Ausrichtung und
Gestaltung einer Szene, zum Beispiel bei einer Stufe, geschehen (siehe Abbildung
4.5). Da auch bei diesem Phänomen Geisterbilder entstehen können und zudem
durch die Entfernung von Verbindungen zu nicht sichtbaren Punkten eine höhere
Flexibilität erreicht wird, sollte eine Behandlung des Problems in den Algorithmus
mit einbezogen werden. Die entscheidende Ungleichheit ist z1 ≥ zt , wobei z1 die
z-Koordinate für ein verdecktes Objekt und zt die z-Koordinate für einen Punkt auf
4.5. DER CODE IN C
15
dem Sehstrahl zu dem Originalobjekt ist. Nun werden beginnend am Originalpunkt
entlang des Sehstrahls alle Pixel untersucht, ob an der entsprechenden Stelle eine
Unterbrechung erfolgt. Ist dies der Fall, so ist der Objektpunkt nicht sichtbar. Über
den 2. Strahlensatzes kann zt berechnet werden:
E
t
2
=
(zt − z0 )µD
(2 − µz0 )D
⇔ zt = z0 +
2(2 − µz0 )t
µE
(vgl. Thimbleby, Inglis, Witten 1994; 44)
4.4.3
Artifakte
Ein Artifakt bezeichnet sichtbare Fragmente einer 3D-Oberfläche, die nicht vorhanden sein sollten. Diese entstehen, wenn zwei voneinander unabhängigen Punkten
zufällig dieselbe Farbe zugeordnet wird. Dieses Problem lässt sich lösen, indem man
die Bandbreite der Farb- oder Grauwerte vergrößert. Dadurch wird die Wahrscheinlichkeit, dass die Farben mehrfach verwendet werden, geringer (vgl. Thimbleby,
Inglis, Witten 1994; 45).
4.5
Der Code in C
Im folgenden werde ich den Code von Thimbleby, Inglis und Witten vorstellen.
Erläuterungen hierzu folgen dann aus Platzgründen im nächsten Abschnitt.
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
/* Algorithmus zum Zeichnen eines Autostereogramms */
#define
#define
#define
#define
#define
#define
#define
#define
round(x)
DPI
E
mu
separation(Z)
far
maxX
maxY
(int) ((x)+0.5)
72
round(2.5*DPI)
1/3.0
round((1-mu*Z)*E/(2-mu*Z)
separation(0)
256
256
void DrawAutoStereogram(float Z[][])
{
int x, y;
for(y=0; y<maxY; y++)
{
int pix[maxX];
int same[maxX];
int s;
int left, right;
for(x=0; x<maxX; x++)
same[x] = x;
for(x=0; x<maxX; x++)
16
KAPITEL 4. EIN ALGORITHMUS
26.
{
27.
s = separation(Z[x][y]);
28.
left = x - s/2;
29.
right = left + s;
30.
if(0<=left && right<maxX)
31.
{
32.
int visible;
33.
int t = 1;
34.
float zt;
35.
36.
do
37.
{
38.
zt = Z[x][y] + 2*(2 - mu*Z[x][y]) * t/(mu*E);
39.
visible = Z[x-t][y]<zt && Z[x+t][y]<zt;
40.
t++;
41.
} while(visible && zt<1);
42.
43.
if(visible)
44.
{
45.
for(int k=same[left]; k!=left && k!=right; k=same[left])
46.
if(k<right)
47.
left = k;
48.
else
49.
{
50.
left = right;
51.
right = k;
52.
}
53.
same[left] = right;
54.
}
55.
}
56.
}
57.
for(x=maxX-1; x>==; x)
58.
{
59.
if(same[x] == x) pix[x] = random()&1;
60.
else pix[x] = pix[same[x]];
61.
Set_Pixel(x, y, pix[x]);
62.
}
63. }
64. DrawCircle(maxX/2 - far/2, maxY * 19/20);
65. DrawCircle(maxX/2 + far/2; maxY * 19/20);
66. }
4.6. BESCHREIBUNG DES CODES
4.6
17
Beschreibung des Codes
(vgl. Thimbleby, Inglis, Witten 1994; 42 - 44)
Zunächst werden in den Zeilen 3 - 10 die Funktionen für die Rundung und für
den Punktabstand an der Position z definiert sowie die Konstanten DPI, E, µ und
die Bildgrößen gesetzt. Anschließend durchläuft das Programm die Tiefenkarte,
die ihm als Parameter übergeben wird, innerhalb der ersten for-Schleife zeilenweise
(Zeilen 15 - 63). Zwei Punkte der Imageplane, die in der Tiefenkarte ein und
denselben Punkt repräsentieren unterliegen der Notwenigkeit, dass sie sich in der
Farbgebung gleichen. Diese Abhängigkeit wird im Algorithmus über ein Array
(same[] ) organisiert. Da die Tiefenkarte zeilenweise abgearbeitet wird, ist die Größe
des Arrays maximal die Bildgröße in x- Ausdehnung. Initialisiert wird das Array
durch den Befehl: same[x] = x in Zeile 23. Dadurch wird zum Ausdruck gebracht,
dass zunächst jeder Punkt auf sich selbst verweist und keine Tiefeninformation
vorliegt. Wenn nun eine Abhängigkeit zwischen zwei Punkten besteht, so müssen
die entsprechenden Pixel aufeinander verweisen. Anschließend wird für jeden Punkt
der Tiefenkarte der Punktabstand s und mit dessen Hilfe die Schnittpunkte der
Sehstrahlen beider Augen mit der Imageplane, left und right, berechnet (siehe Zeilen
27 - 29). Dabei wird aus Gründen der Genauigkeit right durch die Addition von
left und s errechnet. Da in dem hier vorgestellten Programm das Array später von
rechts nach links ausgelesen wird (Zeile 57), reicht es, den linke Pixel auf den rechten
zu verweisen und es gilt der Befehl in Zeile 53: same[left] = right. Nachdem alle
Bedingungen berücksichtigt wurden, wird das Array ausgelesen und die Farbe für
jedes Pixel bestimmt. Besteht zu einem Pixel keine Abhängigkeit – das ist, wenn
same[x] = x gilt – so wird die Farbe zufällig vergeben und in dem Farb-Array (pix[] )
gespeichert. Andernfalls muss dieser Punkt dieselbe Farbe erhalten, wie ein anderer
Punkt, der weiter rechts gespeichert wurde. Das geschieht mit dem Befehl: pix[x] =
pix[same[x]]. Anschließend werden die Pixel über die Funktion Set Pixel() auf dem
Bildschirm gesetzt (Zeilen 59 - 61). Abgeschlossen wird das Programm mit dem
Zeichnen zweier Punkte am unteren Bildrand, die dem Betrachter als Hilfestellung
für das Konvergieren der Augen – wie in Abschnitt 3.2 besprochen – dienen knnen
(Zeilen 64 - 65).
4.6.1
Behandlung der Abhängigkeiten
Da es vorkommen kann, dass ein Punkt durch eine bestehende Abhängigkeit k
bereits mit einem anderen Punkt verknüpft ist, muss diese Abhängigkeit nach rechts
weiter verfolgt werden. Wird dabei k größer als right, so werden left und right
vertauscht (Zeilen 45 - 52). Erst nachdem diese Abhängigkeiten behandelt wurden,
werden die Verweise in same[] abgelegt (Zeile 53).
4.6.2
Behandlung der Verdeckten Oberflächen
In den Zeilen 36 - 41 wird untersucht, ob der darzustellende Punkt von einem
anderen Objekt verdeckt wird. Dies wird mithilfe einer do-Schleife realisiert, die
für jeden Wert t > 0 durchlaufen wird, bis zt ≥ 1 ist oder eine Unterbrechung
gefunden wird. In der Schleife wird in Zeile 38 zt nach der in Abschnitt 4.4.2
angegebenen Formel berechnet. Die Ungleichung z1 ≥ zt wird in Zeile 39 für beide
Augen abgefragt.
18
4.7
KAPITEL 4. EIN ALGORITHMUS
Grenzen bei der Generierung von Autostereogrammen
Zwar werden SIS, die heute auf dem Markt zu finden sind mit bunten Texturmustern
belegt, jedoch ist die Darstellung der Szene in den richtigen Farben nicht möglich
(Leister 1995; 3).
Literaturverzeichnis
[1] Bach, Michael: Räumlich durchs Auge. In c’t 7/99: 3D-Sehen. Heinz Heise.
Hannover: 1999; 158.
http://www.heise.de/ct/99/07/158. Download: 13.03.2001.
[2] Campenhausen, Christoph von: Die Sinne des Menschen. Einführung in die
Psychophysik der Wahrnehmung. Georg Thieme. Stuttgart, New York: 1993.
[3] Chang, Peter: Stereography and Autostereograms. 1995
http://www.nottingham.ac.uk/~etzpc/ss/ss.htm#toc. Download: 13.03.2001.
[4] Goldstein, E. Bruce: Wahrnehmungspsychologie. Eine Einführung. Spektrum
Akademischer Verlag. Heidelberg, Berlin, Oxford: 1997
[5] Inglis, Stuart: Stereogram FAQ. New York: 1996.
http://www.cs.waikato.ac.nz/~singlis/sirds.html. Download: 13.03.2001.
[6] Nagy, Wolfgang; Zoffi, Oliver: 3D-Graphik. In Cybercine. Virtuallity Club
Austria. Wien: 2000.
http://www.vrclub.at/cybzin/3dgrafik.htm. Download: 13.03.2001.
[7] Pospischil, Günther; Mroz, Lukas: Single Image Random Dot Stereograms.
http://www.cg.tuwien.ac.at/~mroz/sirds/index.html. Download: 13.03.2001.
[8] Schäffler, Arne; Schmidt, Sabine: Mensch, Körper, Krankheit. Gustav Fischer. Stuttgart, Jena, Lübeck, Ulm: 1998.
[9] Stadler, Michael; Seeger, Falk; Raeithel, Arne: Psychologie der Wahrnehmung. Juventa. München: 1977.
[10] Steer, William Andrew: Andrew’s Stereogram Page. London: 1996
http://www.ucl.ac.uk/~ucapwas/stereo.html. Download: 14.03.2001.
[11] Thimbleby, Harold W.; Inglis, Stuart; Witten, Ian H.: Displaying 3D-Images:
Algorithms for Single-Image Random-Dot Stereograms. In Computer: Innovative technology for computer professionals. IEEE Computer Society. New
York:1994; 38 - 48.
ftp://ftp.cs.waikato.ac.nz/pub/SIRDS
19