Die Computergrafik ist ein Teilgebiet der Informatik, das sich mit der computergestĂŒtzten Bilderzeugung,[1] im weiteren Sinne auch mit der Bildbearbeitung[2] befasst. Mit den Mitteln der Computergrafik entstandene Bilder werden Computergrafiken genannt.
Die Computergrafik umfasst zum einen die Erzeugung von Grafiken, deren Bestandteile sich zweidimensional in der Ebene beschreiben lassen. Weitere Teilbereiche beschÀftigen sich mit der Frage, wie sich komplexe Formen geometrisch modellieren lassen und wie aus daraus aufgebauten virtuellen Umgebungen Bilder oder Animationen berechnet (gerendert) werden können.
Ihren Ursprung hat die Computergrafik in den 1950er-Jahren, als Rechner mit grafischen AusgabegerĂ€ten ausgestattet wurden. In der Folge wurden EingabegerĂ€te entwickelt, die eine interaktive Bedienung von Computern ermöglichten und vor allem wissenschaftlichen und technischen Anwendungen wie CAD und CAM den Weg bereiteten. Heute sind Computergrafiken allgegenwĂ€rtig; ihre Anwendungen reichen von grafischen BenutzeroberflĂ€chen ĂŒber Druckerzeugnisse, Computerspiele (Computerspielegrafik) und Filmtechnik bis hin zur Medizin.
Geschichte
[Bearbeiten | Quelltext bearbeiten]
Als Beginn der Computergrafik gilt oft der Anfang der 1950er Jahre am MIT entwickelte Whirlwind[3], der als erster Rechner ĂŒber einen Kathodenstrahlröhren-Bildschirm sowie ĂŒber ein lichtgriffelĂ€hnliches EingabegerĂ€t verfĂŒgte und direkt zum interaktiven LuftraumĂŒberwachungssystem SAGE fĂŒhrte. AuĂerdem kamen die ersten kommerziellen Vektorbildschirme auf den Markt, die Punkte und Linien anzeigen konnten. Parallel dazu entwickelte General Motors ein erstes interaktives CAD-System, das DAC-1.
Besonderen Einfluss auf die Entwicklung der interaktiven Computergrafik hatte Ivan Sutherlands 1963 vorgestelltes Sketchpad-Zeichensystem,[3] das viele auch in moderner Grafiksoftware gebrĂ€uchliche Interaktionsmöglichkeiten aufzeigte. Da Anfang der 1960er Jahre noch ĂŒberwiegend mit Lochkarten gearbeitet wurde, bestand zwar eine Nachfrage nach interaktiven Benutzerschnittstellen, doch waren entsprechende Systeme Ă€uĂerst kostspielig. Dies Ă€nderte sich gegen Ende des Jahrzehnts, als erste Computerterminals mit Speicherröhren-Grafikbildschirmen (Direct-View Storage Tubes) auf dem Markt erschienen und zehntausenden Anwendern einen erschwinglichen Zugang zur Computergrafik ermöglichten.[4] Zu dieser Zeit wurden zudem wichtige Verfahren der 3D-Computergrafik wie Raytracing und Scanline-Algorithmen entwickelt.


In den 1980er Jahren setzten sich weitere EingabegerĂ€te wie Maus und Grafiktablett durch; auch Farbdrucker kamen auf den Markt. Gleichzeitig wurden Vektorbildschirme allmĂ€hlich von Rasterbildschirmen, die farbig gefĂŒllte FlĂ€chen anzeigen konnten, verdrĂ€ngt. 1974 hielt ACM SIGGRAPH, heute die gröĂte Vereinigung von Forschern und Branchenvertretern im Bereich Computergrafik, ihre erste Konferenz ab. Der ab Ende der 1970er Jahre massenhaft produzierte Personal Computer verfĂŒgte zwar ĂŒber vergleichsweise schlechte Grafikmöglichkeiten, trieb jedoch die Hersteller dazu an, preisgĂŒnstige Plotter und Grafiktabletts herzustellen und trug so zur Verbreitung der Computergrafik entscheidend bei.
Die Systemleistung von PCs und Workstations stieg in den 1980er Jahren derartig an, dass nun auch Endbenutzer mit einfach zu bedienenden Programmen Computergrafiken erzeugen konnten. AuĂerdem gelangten die wichtigen Anwendungsgebiete CAD und CAM zum Durchbruch. Sowohl fĂŒr diese als auch fĂŒr andere Anwendungen kam erste 3D-Grafiksoftware auf den Markt. KĂŒnstlerische Anwendungen hatten zwar schon immer die Computergrafik begleitet, erschlossen inzwischen aber als Computer Generated Imagery fĂŒr die Film- und Werbebranche einen Markt.
In den 1990er Jahren erreichten ĂŒbliche Rechner ausreichend Leistung, um unterschiedliche Techniken, etwa Computergrafik und Bildverarbeitung oder Bild- und Toninhalte, kombinieren zu können. Unter dem Schlagwort Multimedia verschwammen die Grenzen zwischen reiner Computergrafik und anderen Gebieten. Im Laufe des Jahrzehnts verschob sich zudem das Gewicht von wissenschaftlichen und technischen zunehmend auf nichttechnische Anwendungsgebiete.[5] Dies machte sich unter anderem darin bemerkbar, dass vollstĂ€ndig computergenerierte Kinofilme in SpielfilmlĂ€nge produziert wurden. Mitte der 1990er Jahre wurde auch im nichtprofessionellen Bereich Hardwarebeschleunigung fĂŒr 3D-Computergrafik eingefĂŒhrt.
Seit Beginn des 21. Jahrhunderts besteht sowohl in der Fotografie als auch in der Bildsynthese ein lebhaftes Interesse an Hochkontrastbildern (High Dynamic Range Images). Die Echtzeitgrafik profitiert von leistungsfĂ€higen Grafikprozessoren, die mittels programmierbarer Shader vielfĂ€ltige Effekte erzeugen können. Bestrebungen, die fĂŒr eine realistische Wirkung oft unverzichtbare globale Beleuchtung in Echtzeit zu berechnen, gelangen bisher (2010) jedoch nur teilweise.
Zweidimensionale Grafik
[Bearbeiten | Quelltext bearbeiten]Raster- und Vektorgrafiken
[Bearbeiten | Quelltext bearbeiten]
Seit den 1980er Jahren sind nur noch Rasterbildschirme ĂŒblich, bei denen das anzuzeigende Bild durch ein Raster aus Bildpunkten (Pixeln) reprĂ€sentiert wird, denen jeweils ein Farbwert zugeordnet ist. Bilder, die in dieser Form vorliegen, werden Rastergrafiken genannt. Sie können sowohl von Software erzeugt werden, als auch das Ergebnis einer Digitalisierung sein. Ein wichtiger Vorteil von Rasterbildschirmen ist die FĂ€higkeit, farbig gefĂŒllte FlĂ€chen anzuzeigen. Auch viele Drucker und weitere AusgabegerĂ€te verwenden ein Punktraster. Allerdings leiden Rastergrafiken an Darstellungsproblemen wie dem Treppeneffekt, der ein Ergebnis der begrenzten Bildauflösung (Pixelanzahl) ist. Der sichtbare Teil des Framebuffers, ein besonderer Speicherbereich der Grafikkarte, enthĂ€lt das auf dem Bildschirm angezeigte Bild in einem gerĂ€teabhĂ€ngigen Datenformat.
FĂŒr die permanente Speicherung und den systemĂŒbergreifenden Austausch von Rastergrafiken wurden mehrere standardisierte Dateiformate entwickelt. Diese Grafikformate variieren erheblich in ihren Eigenschaften, etwa in der UnterstĂŒtzung diverser Bildkompressionsverfahren. In Grafikdateien werden aus SpeicherplatzgrĂŒnden oft indizierte Farben verwendet, bei denen die im Bild verwendeten Farben in einer separaten Tabelle gespeichert sind. Rastergrafiken können auĂerdem einen Alphakanal enthalten, der die âDurchsichtigkeitâ jedes Pixels angibt.
Manche Arten von Bildern, etwa Strichzeichnungen oder Diagramme, werden besser als Vektorgrafiken gespeichert. Hierbei werden keine Pixel, sondern die grafischen Grundobjekte (Primitive), aus denen sich das Bild zusammensetzt, gespeichert. Diese Art der ReprÀsentation ist unabhÀngig von der Bildauflösung und erlaubt die verlustfreie Bearbeitung der Bildinhalte. Um eine Vektorgrafik auf Rasterbildschirmen anzeigen zu können, muss sie zunÀchst in eine Rastergrafik umgewandelt werden. Dieser Vorgang wird Rasterung genannt.
Rasteralgorithmen
[Bearbeiten | Quelltext bearbeiten]
Bei 2D-Vektorgrafiken sind verschiedene grafische Grundobjekte gebrĂ€uchlich. Hierzu zĂ€hlen Linien, Kreise, Ellipsen, Polygone und andere Kurven. Alle diese Grundobjekte mĂŒssen erst gerastert werden, um sie auf einem Rasterbildschirm darstellen zu können. Dabei mĂŒssen auch Parameter wie FĂŒll- und Linienfarben, LinienstĂ€rken und Linienstile berĂŒcksichtigt werden. Bei der Rasterung von Linien, Kreisen, Ellipsen und Polygonen werden oft iterative (schrittweise arbeitende) Algorithmen verwendet, die ausgehend vom Anfangspunkt entscheiden, welches Pixel jeweils als NĂ€chstes eingefĂ€rbt werden soll.
Oft muss die Rasterung einer Vektorgrafik auf einen bestimmten Bereich, zum Beispiel ein rechteckiges Fenster, begrenzt werden. Dies geschieht am einfachsten, indem die Grundobjekte vollstĂ€ndig gerastert, aber nur diejenigen Pixel eingefĂ€rbt werden, die sich tatsĂ€chlich innerhalb des gewĂŒnschten Bildausschnitts befinden. Es wurden jedoch verschiedene effizientere Methoden entwickelt, bei denen ein Grundobjekt vor der Rasterung auf den Bildausschnitt zugeschnitten wird. Derartige Clipping-Algorithmen kommen sowohl bei der 2D- als auch bei der 3D-Computergrafik zum Einsatz.
Zur FĂŒllung beliebiger zusammenhĂ€ngender FarbflĂ€chen werden Floodfill-Algorithmen angewandt. Bei der einfarbigen Rasterung kann es neben dem unausweichlichen Treppeneffekt zu weiteren Problemen wie etwa âfehlendenâ Pixeln kommen, die von der endlichen Auflösung des AusgabegerĂ€tes herrĂŒhren. Besonders bei Schriftzeichen ist dies ein Problem. Hier muss sogenanntes Hinting angewandt werden, um die Zeichen auch bei kleiner SchriftgröĂe oder auf niedrig auflösenden Bildschirmen in bestmöglicher QualitĂ€t darstellen zu können.
Abtastung und Antialiasing
[Bearbeiten | Quelltext bearbeiten]
Beim Rastern eines Bildes muss jedem Pixel ein Farbwert zugeordnet werden, der die ideale Bildbeschreibung an diesem Punkt möglichst gut reprĂ€sentiert. Komplexere Bildbeschreibungen lassen sich nur an einzelnen Punkten auswerten, was im Sinne der Signalverarbeitung als Abtastung interpretiert werden kann. Hierbei können kleine Figuren durch das Pixelraster fallen oder Aliasing-Effekte auftreten, bei denen regelmĂ€Ăig angeordnete, sehr kleine Bilddetails völlig falsch dargestellt werden. In der Computergrafik tritt dieses Problem besonders zutage, da das ideale Bild meist harte Objektkanten enthĂ€lt.
Methoden, die die als Folge der Abtastung auftretenden unerwĂŒnschten Effekte abzuschwĂ€chen versuchen, werden Antialiasing genannt. Dazu werden die ein Pixel umgebenden Bildregionen in die Rasterung mit einbezogen. Selbst kleine Details flieĂen so in die Farbe eines Pixels ein, auch wenn sie zwischen zwei Pixeln liegen sollten. Der Treppeneffekt lĂ€sst sich durch Antialiasing ebenfalls deutlich reduzieren.
Helligkeit und Farbe
[Bearbeiten | Quelltext bearbeiten]
Der Farbwert jedes Pixels einer Rastergrafik wird ĂŒblicherweise mittels Rot-, GrĂŒn- und Blau- (RGB-)Werten angegeben. Die Anzahl der Werte, die jeder dieser drei FarbkanĂ€le annehmen kann, wird durch die Farbtiefe angegeben; viele Bildschirme erlauben 256 Werte pro Farbkanal (True Color). Zur Auswahl von Farben durch den Anwender ist der RGB-Farbraum jedoch nicht der benutzerfreundlichste. In Zeichenprogrammen sind andere FarbrĂ€ume wie der HSV-Farbraum gebrĂ€uchlich, bei dem eine Farbe durch Farbton, SĂ€ttigung und Helligkeit definiert wird. Beim Vierfarbendruck wird mit dem CMYK-Farbmodell gearbeitet.
Die Helligkeit der Bildschirmpixel ist nicht proportional zu den im Framebuffer angegebenen Farbwerten. Ein Graustufenwert von 50 % wird auf dem Bildschirm nicht als Grau mit 50 % Helligkeit dargestellt, sondern dunkler. Um korrekte Helligkeiten auszugeben, mĂŒssen daher computergenerierte Bilder stets eine Gammakorrektur oder â je nach Bildschirmtyp â andere Helligkeitsanpassungen durchlaufen. Damit eine möglichst konsistente Farbdarstellung auf verschiedenen GerĂ€ten gewĂ€hrleistet ist, können zusĂ€tzlich Farbmanagement-Techniken angewandt werden.
Manchmal ist es nötig, die Anzahl der Farben einer Rastergrafik zu verringern. Dies geschieht mittels Farbreduktion, bei der die fĂŒr die Grafik reprĂ€sentativsten Farben ausgewĂ€hlt werden mĂŒssen. ZusĂ€tzlich kann Dithering angewandt werden, um den bei der Farbreduktion entstandenen Fehler zu streuen. FĂŒr die Ausgabe auf Druckern gibt es spezielle Methoden, um Druckraster zu erzeugen.
Einige Grafikformate erlauben es, die Farbwerte eines Bildes mit einem sehr hohen Helligkeitsumfang anzugeben. Derartige High Dynamic Range Images (HDRIs) speichern einen wesentlich naturgetreueren Bildeindruck als herkömmliche Formate und ermöglichen nachtrÀgliche HelligkeitsÀnderungen ohne QualitÀtsverlust. Allerdings sind aktuell (im Jahr 2010) nur wenige Bildschirme zur annÀhernden Wiedergabe von HDRIs in der Lage.
Geometrische Modellierung
[Bearbeiten | Quelltext bearbeiten]
Die geometrische Modellierung ist die computergestĂŒtzte Beschreibung sowohl von zweidimensionalen Kurven als auch von dreidimensionalen FlĂ€chen und Körpern. Neben ihrer Verwendung in der Computergrafik bildet sie die Basis von ingenieurtechnischen und wissenschaftlichen Anwendungen, zum Beispiel physikalischen Simulationen.
Körper können auf verschiedene Weise reprĂ€sentiert werden; jedes Darstellungsschema besitzt Vor- und Nachteile im Hinblick auf Speicheranforderungen, PrĂ€zision und KomplexitĂ€t. Nicht jedes Schema garantiert, dass immer physikalisch realisierbare Körper reprĂ€sentiert werden. Man unterscheidet zwischen direkten Darstellungsschemata, bei denen das Volumen des Körpers selbst beschrieben wird, und indirekten Schemata, bei denen die Beschreibung eines Körpers ĂŒber dessen Kanten und OberflĂ€chen erfolgt. Diese beiden Methoden können auch kombiniert werden.
Die beiden am hĂ€ufigsten verwendeten Darstellungsschemata sind Constructive Solid Geometry (CSG) und OberflĂ€chendarstellungen.[6] CSG ist ein direktes Darstellungsschema, bei dem Objekte mithilfe von Grundkörpern wie Kugeln, Quadern oder Zylindern modelliert werden. Auf diese Grundkörper werden Operationen wie Vereinigung, Schnitt und Differenz angewandt, sodass sich am Ende eine Formel ergibt, die beschreibt, wie die Grundkörper miteinander verknĂŒpft werden. CSG ist besonders im CAD-Bereich gebrĂ€uchlich, da sich damit viele dort verwendete Objekte auf natĂŒrliche Weise beschreiben lassen.

Bei der OberflĂ€chendarstellung (Boundary Representation) hingegen wird ein Körper anhand seiner OberflĂ€che beschrieben; es handelt sich also um ein indirektes Darstellungsschema. Die mittels OberflĂ€chendarstellung modellierten Objekte werden meist aus sogenannten FreiformflĂ€chen zusammengesetzt, die sich an Kontrollpunkten verformen lassen. Lokale Ănderungen am Modell sind damit einfach möglich. Eine weitverbreitete Art von FreiformflĂ€chen sind Non-Uniform Rational B-Splines (NURBS). Vor der Darstellung werden NURBS aus EffizienzgrĂŒnden ĂŒblicherweise in Polygon- oder Dreiecksnetze umgewandelt (trianguliert). Auch allgemeine zweidimensionale Kurven werden ĂŒberwiegend mittels Splines beschrieben, deren Kurvenverlauf durch Kontrollpunkte festgelegt wird. Hier sind BĂ©zierkurven gebrĂ€uchlich, die fĂŒr die Rasterung in PolygonzĂŒge umgewandelt werden.
Das Ergebnis der 3D-Modellierung ist eine Szene, die neben der Objektgeometrie Materialeigenschaften, Lichtquellen sowie die Position und Blickrichtung eines virtuellen Betrachters enthÀlt.
Dreidimensionale Grafik
[Bearbeiten | Quelltext bearbeiten]Ausgehend von einer Szene werden durch Bildsynthese, auch Rendern genannt, 3D-Computergrafiken berechnet. Dieser Prozess lÀuft im Gegensatz zur Modellierung automatisch ab. Man unterscheidet zwischen der interaktiven Synthese von Bildern in Echtzeit, bei der meist Hardwarebeschleunigung zum Einsatz kommt, und der realistischen Bildsynthese, bei der vor allem auf hohe BildqualitÀt oder physikalische Korrektheit Wert gelegt wird.
Echtzeitrendern
[Bearbeiten | Quelltext bearbeiten]
Beim Echtzeitrendern wird eine Reihe von Bildern mit hoher Bildfrequenz berechnet und die zugrundeliegende Szene vom Anwender interaktiv verĂ€ndert. Mit wenigen Ausnahmen unterstĂŒtzt Grafikhardware als grafische Grundobjekte nur Punkte, Linien und Dreiecke,[7] andere Darstellungsschemata mĂŒssen daher erst in Dreiecksnetze umgewandelt werden.
Beim Echtzeitrendern beschreibt die Grafikpipeline modellhaft den Weg von der Szene bis zum fertigen Bild. Dieser Prozess wird von heutigen Grafikkarten gröĂtenteils direkt in Hardware ausgefĂŒhrt. Eine Ausnahme sind Techniken wie Kollisionserkennung, Animation oder Morphing, die die Szene verĂ€ndern und fĂŒr die das Anwendungsprogramm verantwortlich ist.
Viele Schritte der Grafikpipeline dienen dazu, die Grundobjekte der Szene schrittweise in anderen Koordinatensystemen auszudrĂŒcken, die die Berechnung vereinfachen. Dazu zĂ€hlt meist eine Zentralprojektion, um eine perspektivische Abbildung zu erhalten. AuĂerdem kommen Clipping- und Culling-Techniken zum Einsatz, um auĂerhalb des sichtbaren Volumens liegende FlĂ€chen zu beschneiden oder zu entfernen. Nach Abschluss der verschiedenen Koordinatentransformationen befinden sich die projizierten Grundobjekte an der richtigen Bildschirmposition. Dort werden sie gerastert, indem die zu ihnen gehörenden Pixel eingefĂ€rbt werden. Da bei ĂŒberlappenden Dreiecken nur die vom Betrachter aus sichtbaren Teile angezeigt werden sollen, wird mittels Z-Buffering eine Verdeckungsberechnung ausgefĂŒhrt.
Zur Ansteuerung von Grafikpipelines werden ĂŒblicherweise Grafik-APIs verwendet, die die Grafikhardware abstrahieren und dem Programmierer viele Aufgaben abnehmen. Im professionellen Bereich hat der Standard OpenGL die gröĂte Bedeutung, wĂ€hrend unter Windows laufende Programme, insbesondere Computerspiele, vornehmlich DirectX nutzen.
Shading
[Bearbeiten | Quelltext bearbeiten]Als Shading (âSchattierungâ) wird im Allgemeinen die Berechnung der Farben an OberflĂ€chen anhand der zugehörigen Materialeigenschaften und dem direkt von den Lichtquellen eintreffenden Licht bezeichnet. Shading kommt sowohl beim Echtzeitrendern als auch beim realistischen Rendern zum Einsatz. Die indirekte Beleuchtung durch Lichtreflexion zwischen Objekten bleibt dabei zunĂ€chst unberĂŒcksichtigt. Einen Spezialfall stellt sogenanntes Non-photorealistic Rendering dar, bei dem zum Beispiel aus Ă€sthetischen GrĂŒnden Verfremdungen erzeugt werden.

Zur Beschreibung des Reflexionsverhaltens einer OberflĂ€che werden lokale Beleuchtungsmodelle verwendet, mit denen sich diverse Materialien simulieren lassen. Das lambertsche Gesetz eignet sich beispielsweise fĂŒr matte FlĂ€chen wie WĂ€nde, wĂ€hrend mit dem Phong-Beleuchtungsmodell glĂ€nzende OberflĂ€chen dargestellt werden können. Beim Echtzeitrendern werden hĂ€ufig fĂŒr die Eckpunkte eines Dreiecks die Farben berechnet und diese anschlieĂend innerhalb des Dreiecks interpoliert (Gouraud Shading). Dadurch ergibt sich ein weniger kantiges Erscheinungsbild als beim Flat Shading, bei dem Dreiecke einheitlich mit einer Farbe gefĂŒllt werden.
Um OberflÀchendetails zu simulieren, werden Mapping-Techniken eingesetzt, die die Material- oder Geometrieeigenschaften an jedem Punkt der OberflÀche anhand einer Funktion oder Rastergrafik variieren. So etwa dient Texture Mapping dazu, ein zweidimensionales Bild (Textur) auf einer OberflÀche abzubilden. Eine weitere Technik ist Bumpmapping, mit dem OberflÀchenunebenheiten dargestellt werden können. Spiegelungseffekte lassen sich beim Echtzeitrendern mit Environment Mapping erzielen.
Realistisches Rendern
[Bearbeiten | Quelltext bearbeiten]

Ob ein gerendertes Bild realistisch wirkt, hĂ€ngt maĂgeblich davon ab, inwieweit die Verteilung des Lichts innerhalb einer Szene simuliert wird. WĂ€hrend beim Shading nur die direkte Beleuchtung berechnet wird, spielt bei der indirekten Beleuchtung die Reflexion von Licht zwischen Objekten eine Rolle. Dadurch werden Effekte wie RĂ€ume, die nur durch einen schmalen Lichtspalt insgesamt erhellt werden, möglich. Werden alle Arten der Lichtreflexion berĂŒcksichtigt, so spricht man von globaler Beleuchtung. Die globale Beleuchtung muss fĂŒr ein realistisches Ergebnis berĂŒcksichtigt werden und ist bei Echtzeitverfahren nicht oder nur sehr eingeschrĂ€nkt möglich. Mathematisch wird sie durch die Rendergleichung beschrieben.
Eines der in der realistischen Bildsynthese verwendeten Verfahren ist Raytracing. Raytracing ist zwar in erster Linie ein Algorithmus zur Verdeckungsberechnung, der auf der Aussendung von Strahlen basiert, kann aber in erweiterten Formen auch Lichtreflexionen und -brechungen berechnen. Um die globale Beleuchtung zu simulieren, werden Verfahren wie Path Tracing oder Photon Mapping verwendet, die auf Raytracing basieren.
Ein weiterer Algorithmus der realistischen Bildsynthese ist Radiosity. Er basiert auf der Unterteilung der OberflĂ€chen in kleine TeilflĂ€chen, fĂŒr die die Rendergleichung numerisch gelöst wird. In seiner Grundform ist Radiosity nur auf ideal diffuse FlĂ€chen anwendbar. Im Gegensatz zu Raytracing wird die Lichtverteilung unabhĂ€ngig vom Blickpunkt berechnet. Dadurch eignet sich Radiosity besonders zum Rendern statischer Szenen in Echtzeit, bei denen eine zeitaufwĂ€ndige Vorausberechnung vertretbar ist.
In der Filmindustrie wird vor allem das REYES-Verfahren verwendet, bei dem die OberflĂ€chen der Szene in sehr kleine Polygone zerlegt werden, fĂŒr die einzeln die Farbe berechnet wird.
Volumengrafik
[Bearbeiten | Quelltext bearbeiten]Bei der Volumengrafik werden die zu rendernden Objekte nicht als OberflĂ€chen beschrieben, sondern als rĂ€umliche DatensĂ€tze, sogenannte Voxelgitter. Es handelt sich dabei um gitterförmig angeordnete Werte, die die âDichteâ eines Objektes an einem bestimmten Punkt beschreiben. Diese Form der DatenreprĂ€sentation ist besonders geeignet fĂŒr Objekte wie Wolken, die keine klaren Umrisse haben. Zum Rendern von Voxelgittern wurden spezielle Techniken wie Splatting entwickelt. Da viele bildgebende Verfahren Voxeldaten erzeugen, ist die Volumengrafik insbesondere fĂŒr die Medizin von Bedeutung.
Animation
[Bearbeiten | Quelltext bearbeiten]
Die computergestĂŒtzte Erzeugung von Animationen erfordert Techniken, die ĂŒber die statische Modellierung und Synthese von Einzelbildern hinausgehen. Viele Computeranimationen basieren auf der SchlĂŒsselbildanimation, bei der nur fĂŒr einige Einzelbilder Parameter der Szene wie die Position und Form von Objekten oder die Kamerablickrichtung gesetzt werden. Die Werte dieser Parameter werden fĂŒr die dazwischen liegenden Bilder mithilfe geeigneter Splines interpoliert. Auch die Rotation von Objekten kann mit mathematischen Verfahren interpoliert werden.
Oft sind Objekte fĂŒr die Animation hierarchisch modelliert, sodass sich die Bewegung eines in der Hierarchie höher liegenden Objekts auf alle Unterobjekte auswirkt. Ein Beispiel ist ein Planetensystem, in dem Monde um Planeten und diese wiederum um die Sonne rotieren. Zum Teil werden Objekte Ă€hnlich wie in der Robotik als zusammenhĂ€ngende Struktur modelliert, deren Einzelteile durch Gelenke miteinander verbunden sind. Derartige Strukturen können unter Anwendung der direkten oder inversen Kinematik animiert werden. FĂŒr die Character animation bieten sich auch aufwĂ€ndigere Motion-Capture-Techniken an.

Die Animation mehrerer Objekte erfordert hĂ€ufig Techniken zur Kollisionserkennung. Besonders in Computerspielen wird zusĂ€tzlich auf die kĂŒnstliche Intelligenz zurĂŒckgegriffen, um im Rahmen der Gruppensimulation Objekte so zu animieren, dass sie ein bestimmtes Ziel ausfĂŒhren. Bei gröĂeren Gruppen von dutzenden Objekten entsteht oft ein Schwarmverhalten, das mit vergleichsweise einfachen Techniken plausibel simuliert werden kann. Eine noch höhere Anzahl von Objekten kann durch Partikelsysteme beschrieben werden. Dabei werden auf viele Tausend sehr kleine Partikel KrĂ€fte ausgeĂŒbt, um Erscheinungen wie Explosionen, FlĂŒssigkeiten, Rauch oder Feuer zu simulieren. Wirklich realistische Ergebnisse lassen sich jedoch nur mit physikalisch basierten Techniken erzielen, bei denen komplexe Berechnungen ausgefĂŒhrt werden mĂŒssen.
Anwendungen
[Bearbeiten | Quelltext bearbeiten]

Bildgebung in der Medizin
Eine wichtige Anwendung findet die Computergrafik in der Mensch-Computer-Interaktion, dem Teilgebiet der Informatik, das die benutzergerechte Gestaltung von interaktiven Systemen und ihren Benutzerschnittstellen untersucht. Dieses Gebiet wurde nicht nur deshalb oft mit der Computergrafik zusammen behandelt, weil es sich mit grafischen BenutzeroberflĂ€chen oder Prozessvisualisierung befasst, sondern auch, weil Forscher aus dem Bereich der Computergrafik bereits frĂŒh Zugang zu damals neuartigen Ein- und AusgabegerĂ€ten hatten.[8] AllgegenwĂ€rtig sind Computergrafiken in Form von PrĂ€sentationsgrafiken oder in Desktop-Publishing-Dokumenten.
Ein mit der Computergrafik verwandtes, aber abgegrenztes Gebiet ist die Bildverarbeitung. Sie beschĂ€ftigt sich mit der Aufbereitung von bereits vorhandenen Bildern, um deren Inhalte automatisch auszuwerten, fĂŒhrt also die umgekehrte Aufgabe der Computergrafik aus. Die Techniken der Bildverarbeitung finden zum Teil auch bei der Bildbearbeitung Anwendung.
Die visuelle digitale Kunst entwickelte sich schon mit Beginn der Computergrafik. Anwendung findet die kĂŒnstlerische Gestaltung von Computergrafiken in Computerspielen, die immer komplexere 3D-Modelle und fortgeschrittene Renderalgorithmen verwenden. In der Filmtechnik und Werbung kommen fast alle Arten von Computergrafik-Technologien zum Einsatz, um Trickfilme und Computer Generated Imagery zu erzeugen. Viele moderne Filme verwenden digitale Compositing-Techniken, um separat gefilmte Vordergrundszenen ĂŒber einen Hintergrund zu legen.
CAD nutzt die Computertechnik als âvirtuelles Zeichenbrettâ, um Maschinenteile und andere Produkte zu entwerfen oder die anschlieĂenden Fertigungsprozesse mittels Computer-aided manufacturing zu steuern. In der Kartografie und in Geoinformationssystemen wird die Computergrafik dazu verwendet, um sowohl prĂ€zise als auch schematische Darstellungen aus geografischen und anderen raumbezogenen Messdaten zu erzeugen.
Simulationen und Visualisierungen virtueller Umgebungen reichen von der Architekturdarstellung bis hin zu wissenschaftlichen und sicherheitskritischen Bereichen. Sowohl die virtuelle als auch die erweiterte RealitĂ€t legen ihr Hauptaugenmerk auf die Interaktion mit dem Betrachter, etwa auf das VerĂ€ndern der Perspektive bei einer Drehung des Kopfes. Dabei kommen sowohl 3D-Computergrafik als auch hoch entwickelte Darstellungstechnologien zum Einsatz. WĂ€hrend in der virtuellen RealitĂ€t die Welten komplett im Rechner generiert werden, beschĂ€ftigt sich die erweiterte RealitĂ€t mit dem Einbinden von kĂŒnstlichen Objekten in die RealitĂ€t, zum Beispiel ĂŒber Head-Mounted Displays.
In der Medizin werden möglichst aussagekrÀftige Bilder aus Daten, die durch bildgebende Verfahren gewonnen wurden, generiert. Dies geschieht hauptsÀchlich mit den Mitteln der Volumengrafik.
Die Computergrafik ist Teil der StudiengÀnge Computervisualistik, Visual Computing, Medieninformatik und Informatik.
Literatur
[Bearbeiten | Quelltext bearbeiten]BĂŒcher:
- Michael Bender, Manfred Brill: Computergrafik: ein anwendungsorientiertes Lehrbuch. Hanser, MĂŒnchen 2006, ISBN 3-446-40434-1.
- Hans-Joachim Bungartz, Michael Griebel, Christoph Zenger: EinfĂŒhrung in die Computergraphik: Grundlagen, geometrische Modellierung, Algorithmen. 2. Auflage. Vieweg, Braunschweig/Wiesbaden 2002, ISBN 3-528-16769-6.
- James Foley, Andries van Dam, Steven K. Feiner, John F. Hughes: Computer Graphics: Principles and Practice. 2. Auflage. Addison-Wesley, Reading 1996, ISBN 0-201-84840-6.
- David Rogers: Procedural Elements for Computer Graphics. WCB/McGraw-Hill, Boston 1998, ISBN 0-07-053548-5.
- Peter Shirley, Michael Gleicher, Stephen R. Marschner, Erik Reinhard, Kelvin Sung, Wiliam B. Thompson, Peter Willemsen: Fundamentals of Computer Graphics. Nr. 2. AK Peters, Wellesley 2005, ISBN 1-56881-269-8.
- Natascha Adamowsky (Hrsg.): Digitale Moderne. Die Modellwelten von Matthias Zimmermann. Hirmer Verlag, MĂŒnchen 2018, ISBN 978-3-7774-2388-3
Zeitschriften (Auswahl):
- ACM Transactions on Graphics, ISSN 0730-0301
- Computer Graphics Forum, ISSN 0167-7055
- IEEE Computer Graphics and Applications, ISSN 0272-1716
- IEEE Transactions on Visualization and Computer Graphics, ISSN 1077-2626
Weblinks
[Bearbeiten | Quelltext bearbeiten]- HyperGraph â Teaching Computer Graphics â Lernmaterialien zu Themen der Computergrafik (englisch)
- A Critical History of Computer Graphics and Animation â AusfĂŒhrliche Darstellung der Geschichte der Computergrafik (englisch)
- Computergrafik WBT â Web Based Training zum Thema Computergrafik
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- â James Foley u. a.: Computer Graphics: Principles and Practice. S. 2
- â Peter Shirley u. a.: Fundamentals of Computer Graphics. S. 1
- â a b Carl Machover: Four Decades of Computer Graphics. IEEE Computer Graphics and Applications 14, 6 (November 1994): 14â19, hier S. 14, ISSN 0272-1716
- â Carl Machover: Four Decades of Computer Graphics. S. 17
- â Carl Machover: Four Decades of Computer Graphics. S. 18
- â Max Agoston: Computer Graphics and Geometric Modeling: Implementation and Algorithms. Springer, London 2005, ISBN 1-85233-818-0, S. 157.
- â Tomas Akenine-Möller, Eric Haines: Real-Time Rendering. AK Peters, Natick MA 2002, ISBN 1-56881-182-9, S. 7.
- â Peter Shirley u. a.: Fundamentals of Computer Graphics. S. 2
