Technologien des Realismus des dreidimensionalen Bildes. 3D-Kunst

3D-Kunst umfasst eine Vielzahl von Graffiti, dreidimensionale Computergrafiken und realistische Zeichnungen, die die Illusion einer dreidimensionalen Szene erzeugen.

Künstler haben sich immer um eine glaubwürdige Darstellung der Natur und der sie umgebenden Dinge bemüht. In unserer modernen Zeit ist dies mit Hilfe fortschrittlicher Geräte leicht zu erreichen. Allerdings haben die vielen von Menschenhand geschaffenen 3D-Bilder etwas Charmantes und besonders Anziehendes. Schließlich erfordert die 3D-Zeichentechnik viel Geschick und Geduld, ganz zu schweigen von Talent.

Wir bieten Ihnen an, die Kreationen verschiedener Meister zu bewundern, deren Werke in einem realistischen 3D-Genre hergestellt werden.

1. Punkte.

Einfache, elegante und skurrile 3D-Zeichnung, die realistisch aussieht.

2. Halle der Giganten, Palazzo Te, Mantua, Italien

Illusionistische Fresken aus dem 16. Jahrhundert von Giulio Romano werden als Ursprünge der 3D-Kunst angesehen.

3. 3D-Bleistiftzeichnung von Nagai Hideyuki

Der Künstler schafft eine dreidimensionale Illusion, indem er nur ein Album und Buntstifte verwendet.

4. Museum für 3D-Gemälde in der Stadt Chiang Mai, Thailand

In Thailand gibt es ein ganzes Museum, das der 3D-Kunst gewidmet ist. Seine Hallen sind mit großen Fresken gefüllt, die völlig echt aussehen.

5. Coca Cola ist eine Illusion

Oft kommt die Inspiration für 3D-Kunst von beliebten Objekten in unserem täglichen Leben. Die klassische Version ist eine Flasche Cola.

6. CGI: Mädchen

Wer hätte gedacht, dass dieses Mädchen nicht existiert?

7. Säulen der korinthischen Ordnung

Schöne 3D-Bleistiftzeichnung von zwei korinthischen Säulen.

8. Realistischer Wasserfall in Dvur Kralove, Tschechische Republik

Ein Teil eines Stadtparks in der Tschechischen Republik wurde in die Illusion eines wunderschönen Wasserfalls verwandelt.

9. Globus

Oft wird 3D-Kunst im Marketing eingesetzt. Dieses Bild der Welt ermutigt die Menschen, Armut zu bekämpfen.

10. Igor Taritas

Der junge Künstler kreiert Gemälde mit den Grundlagen des Hyperrealismus. Diese Leinwand strahlt die Tiefe der realen Welt aus, als könnten wir auf die Bühne gehen, wenn wir wollten.

11. Davy Jones von Jerry Groschke

Eine klassische Figur aus Fluch der Karibik, die von einem 3D-CG-Künstler erstellt wurde.

12. Kazuhiko Nakamura

Ein japanischer 3D-Künstler, der mithilfe von Software kreative Steampunk-Fotografie erstellt.

13. Kurt Wenner: Wildes Rodeo in Calgary, Kanada

Einer der berühmtesten zeitgenössischen 3D-Künstler, Kurt Wenner, hat ein fiktives Rodeo in einer kanadischen Stadt dargestellt.

14. Leon Kier, Ruben Poncia, Remco van Schaik und Peter Westering

Vier Künstler haben sich zusammengetan, um diese unglaubliche Lego-Armee-Illusion zu erschaffen.

15. Lodz, Polen

Schwimmbad in der Nähe eines belebten Einkaufszentrums in Lodz, Polen. Ich hoffe, es ist niemand hineingesprungen.

16. Markt

Ein wunderschönes 3D-Stillleben, gemalt auf Asphalt in der Nähe eines Gemüsemarktes. Es vervollständigt die Atmosphäre mit perfekter Raffinesse.

17. MTO, Rennes, Frankreich

Der Straßenkünstler MTO hat in Rennes, Frankreich, eine Reihe großformatiger 3D-Wandbilder geschaffen. Seine Wandmalereien zeigen Riesen, die versuchen, in die Häuser der Menschen einzudringen. Die Bilder sind sowohl schockierend als auch erschreckend.

Um den Realismus der Anzeige von Texturen zu erhöhen, die Polygonen überlagert sind, werden verschiedene Technologien verwendet:

Glätten (Anti-Aliasing);

· MIP-Mapping;

Texturfilterung.

Anti-Aliasing-Technologie

Anti-Aliasing ist eine Technologie, die in der Bildverarbeitung verwendet wird, um den Effekt von "gestuften" Kanten (Aliasing) von Objekten zu eliminieren. Bei der Rastermethode zur Bildung eines Bildes besteht es aus Pixeln. Aufgrund der Tatsache, dass Pixel eine endliche Größe haben, können an den Rändern von dreidimensionalen Objekten sogenannte Treppen oder Stufenkanten unterschieden werden. Um den Treppeneffekt zu minimieren, ist es am einfachsten, die Bildschirmauflösung zu erhöhen und dadurch die Pixelgröße zu verringern. Aber dieser Weg ist nicht immer möglich. Wenn Sie den Stufeneffekt nicht durch Erhöhen der Monitorauflösung beseitigen können, können Sie die Anti-Aliasing-Technologie verwenden, mit der Sie den Effekt der Treppe optisch glätten können. Die dafür am häufigsten verwendete Technik besteht darin, einen fließenden Übergang von der Linien- oder Kantenfarbe zur Hintergrundfarbe zu erzeugen. Die Farbe eines auf der Grenze von Objekten liegenden Punktes ist als Mittelwert der Farben der beiden Grenzpunkte definiert.

Es gibt mehrere grundlegende Anti-Aliasing-Technologien. Das qualitativ hochwertigste Ergebnis lieferte erstmals die Vollbild-Anti-Aliasing-Technologie FSAA (Full Screen Anti-Aliasing). In einigen literarischen Quellen wird diese Technologie als SSAA bezeichnet. Das Wesentliche dieser Technologie liegt in der Tatsache, dass der Prozessor einen Bildrahmen mit einer viel höheren Auflösung als der Bildschirmauflösung berechnet und dann, wenn er auf dem Bildschirm angezeigt wird, die Werte einer Gruppe von Pixeln auf eins mittelt; die Anzahl der gemittelten Pixel entspricht der Bildschirmauflösung des Monitors. Wenn beispielsweise ein Frame mit einer Auflösung von 800 x 600 mit FSAA geglättet wird, wird das Bild mit einer Auflösung von 1600 x 1200 berechnet. Beim Umschalten auf die Monitorauflösung werden die Farben der vier berechneten Punkte, die einem Monitorpixel entsprechen, gemittelt. Dadurch haben alle Linien fließende Farbübergänge, wodurch die Wirkung der Treppe optisch eliminiert wird.

FSAA macht viel unnötige Arbeit, lädt die GPU und glättet nicht die Ränder, sondern das gesamte Bild, was der Hauptnachteil ist. Um diesen Mangel zu beseitigen, wurde eine wirtschaftlichere Technologie, MSSA, entwickelt.

Das Wesen der MSSA-Technologie ähnelt der FSAA-Technologie, aber es werden keine Berechnungen an den Pixeln innerhalb der Polygone durchgeführt. Für Pixel an den Rändern von Objekten werden je nach Glättungsgrad 4 oder mehr zusätzliche Punkte berechnet, anhand derer die endgültige Farbe des Pixels bestimmt wird. Diese Technologie ist derzeit am weitesten verbreitet.

Individuelle Entwicklungen von Videoadapterherstellern sind bekannt. Beispielsweise hat NVIDIA die Coverage Sampling (CSAA)-Technologie entwickelt, die nur von GeForce-Videoadaptern ab der 8. Serie (8600 - 8800, 9600 - 9800) unterstützt wird. ATI führte AAA (Adaptive Anti-Aliasing) in den R520-Grafikprozessor und alle nachfolgenden adaptiven Anti-Aliasing ein.

MIP-Mapping-Technologie

Die Technologie wird verwendet, um die Qualität der Texturierung von 3D-Objekten zu verbessern. Um einem dreidimensionalen Bild Realismus zu verleihen, muss die Tiefe der Szene berücksichtigt werden. Wenn Sie sich vom Betrachtungspunkt entfernen, sollte die Overlay-Textur immer verschwommener aussehen. Daher werden beim Texturieren auch einer homogenen Oberfläche meistens nicht eine, sondern mehrere Texturen verwendet, die es ermöglichen, perspektivische Verzerrungen eines dreidimensionalen Objekts korrekt zu berücksichtigen.

Beispielsweise muss ein Kopfsteinpflaster dargestellt werden, das tief in die Szene eindringt. Wenn Sie versuchen, nur eine Textur über die gesamte Länge zu verwenden, können Wellen oder nur eine Volltonfarbe erscheinen, wenn Sie sich vom Betrachtungspunkt entfernen. Tatsache ist, dass in dieser Situation mehrere Texturpixel (Texel) auf einmal in ein Pixel auf dem Monitor fallen. Es stellt sich die Frage: Für welches Texel soll man sich entscheiden, wenn man ein Pixel anzeigt?

Diese Aufgabe wird mit Hilfe der MIP-Mapping-Technologie gelöst, die die Möglichkeit impliziert, eine Reihe von Texturen mit unterschiedlichen Detaillierungsgraden zu verwenden. Basierend auf jeder Textur wird ein Satz von Texturen mit einem geringeren Detaillierungsgrad erstellt. Die Texturen eines solchen Satzes werden als MIP-Maps (MIP-Map) bezeichnet.

Im einfachsten Fall des Textur-Mappings wird für jeden Bildpixel die entsprechende MIP-Map nach der LOD-Tabelle (Level of Detail) ermittelt. Ferner wird aus der MIP-Map nur ein Texel ausgewählt, dessen Farbe dem Pixel zugeordnet ist.

Filtrationstechnologien

In der Regel wird die MIP-Mapping-Technologie in Kombination mit Filtertechnologien verwendet, die darauf ausgelegt sind, Mip-Texturierungsartefakte zu korrigieren. Wenn sich zum Beispiel ein Objekt weiter von dem Betrachtungspunkt wegbewegt, tritt ein Übergang von einer niedrigen MIP-Kartenebene zu einer höheren MIP-Kartenebene auf. Wenn sich ein Objekt in einem Übergangszustand von einer MIP-Map-Ebene zu einer anderen befindet, tritt ein Visualisierungsfehler besonderer Art auf: deutlich unterscheidbare Grenzen des Übergangs von einer MIP-Map-Ebene zu einer anderen.

Die Idee des Filterns ist, dass die Farbe der Pixel eines Objekts aus benachbarten Texturpunkten (Texeln) berechnet wird.

Die erste Texturfiltermethode war das sogenannte Point-Sampling, das in modernen 3D-Grafiken nicht verwendet wird. Das nächste wurde entwickelt bilinear Filterung. Die bilineare Filterung nimmt den gewichteten Durchschnitt von vier benachbarten Texturpixeln, um einen Punkt auf der Oberfläche anzuzeigen. Bei einer solchen Filterung ist die Qualität von langsam rotierenden oder sich langsam bewegenden Objekten mit Kanten (z. B. einem Würfel) gering (unscharfe Kanten).

Mehr hohe Qualität gibt trilinear Filterung, bei der zur Bestimmung der Farbe eines Pixels der mittlere Farbwert von acht Texeln genommen wird, vier von zwei benachbarten Strukturen, und als Ergebnis von sieben Mischoperationen die Farbe des Pixels bestimmt wird.

Mit dem Leistungswachstum von GPUs a anisotrop Filtration, die bisher erfolgreich angewendet wurde. Bei der Bestimmung der Farbe eines Punktes verwendet es eine große Anzahl von Texeln und berücksichtigt die Position der Polygone. Der Grad der anisotropen Filterung wird durch die Anzahl der Texel bestimmt, die verarbeitet werden, wenn die Farbe eines Pixels berechnet wird: 2x (16 Texel), 4x (32 Texel), 8x (64 Texel), 16x (128 Texel). Diese Filterung gewährleistet eine hohe Qualität des angezeigten Bewegtbildes.

Alle diese Algorithmen werden vom Grafikprozessor der Grafikkarte implementiert.

An(API)

Um die Ausführung der Stufen der 3D-Pipeline zu beschleunigen, muss der 3D-Grafikbeschleuniger einen bestimmten Satz von Funktionen haben, d. h. in Hardware, ohne Beteiligung des Zentralprozessors, um die zum Aufbau eines 3D-Bildes erforderlichen Operationen durchzuführen. Die Menge dieser Funktionen ist die wichtigste Eigenschaft des 3D-Beschleunigers.

Da der 3D-Beschleuniger über einen eigenen Befehlssatz verfügt, kann er nur effektiv verwendet werden, wenn das Anwendungsprogramm diese Befehle verwendet. Da es jedoch viele verschiedene Modelle von 3D-Beschleunigern sowie verschiedene Anwendungsprogramme gibt, die dreidimensionale Bilder erzeugen, entsteht ein Kompatibilitätsproblem: Es ist unmöglich, ein solches Programm zu schreiben, das die Low-Level-Befehle von verschiedenen gleichermaßen gut verwenden würde Beschleuniger. Offensichtlich benötigen sowohl Entwickler von Anwendungssoftware als auch Hersteller von 3D-Beschleunigern ein spezielles Dienstprogrammpaket, das die folgenden Funktionen ausführt:

effiziente Umwandlung von Anwendungsprogrammanforderungen in eine optimierte Folge von Low-Level-Befehlen des 3D-Beschleunigers unter Berücksichtigung der Besonderheiten seines Hardwareaufbaus;

Software-Emulation der angeforderten Funktionen, wenn der verwendete Beschleuniger nicht über deren Hardware-Unterstützung verfügt.

Ein spezielles Dienstprogrammpaket zum Ausführen dieser Funktionen wird aufgerufen Programmierschnittstelle (Anwendungsprogrammschnittstelle = API).

Die API nimmt eine Zwischenposition zwischen High-Level-Anwendungsprogrammen und Low-Level-Beschleunigerbefehlen ein, die von ihrem Treiber generiert werden. Die Verwendung der API entlastet den Anwendungsentwickler von der Notwendigkeit, mit Low-Level-Beschleunigerbefehlen zu arbeiten, was den Prozess der Programmerstellung erleichtert.

Derzeit gibt es mehrere APIs in 3D, deren Umfang recht klar umrissen ist:

DirectX, entwickelt von Microsoft, verwendet in Spielanwendungen, die auf Windows 9X und späteren Betriebssystemen ausgeführt werden;

OpenGL, hauptsächlich in professionellen Anwendungen (computergestützte Konstruktionssysteme, 3D-Modellierungssysteme, Simulatoren usw.) verwendet, die unter der Kontrolle eines Operationssaals ausgeführt werden Windows-Systeme NT;

Proprietäre (native) APIs von Herstellern von 3D-Beschleunigern exklusiv für ihre Chipsätze entwickelt, um deren Fähigkeiten so effizient wie möglich zu nutzen.

DirectX ist ein stark regulierter, geschlossener Standard, der bis zur Veröffentlichung seines nächsten keine Änderungen zulässt. neue Version. Dies schränkt einerseits die Möglichkeiten von Softwareentwicklern und insbesondere Beschleunigerherstellern ein, vereinfacht aber die Konfiguration von Software für den Benutzer erheblich und Hardware für 3D.

Im Gegensatz zu DirectX basiert die OpenGL-API auf dem Konzept eines offenen Standards mit einem kleinen Basissatz von Funktionen und vielen Erweiterungen, die komplexere Funktionen implementieren. Der Hersteller des Chipsatz-3D-Beschleunigers muss ein BIOS und Treiber erstellen, die grundlegende Open GL-Funktionen ausführen, muss jedoch nicht alle Erweiterungen unterstützen. Dies führt zu einer Reihe von Problemen beim Schreiben von Treibern für ihre Produkte durch Hersteller, die sowohl in vollständiger als auch in verkürzter Form geliefert werden.

Vollversion Ein OpenGL-kompatibler Treiber heißt ICD (Installierbarer Client-Treiber - Client-Anwendungstreiber). Es bietet maximale Leistung, tk. enthält Low-Level-Codes, die nicht nur den grundlegenden Satz von Funktionen, sondern auch deren Erweiterungen unterstützen. Unter Berücksichtigung des Konzepts von OpenGL ist die Erstellung eines solchen Treibers natürlich ein äußerst komplexer und zeitaufwändiger Prozess. Dies ist einer der Gründe, warum professionelle 3D-Beschleuniger teurer sind als Gaming-Beschleuniger.

Dabei spielt es keine Rolle, wie groß und reichhaltig die virtuelle 3D-Welt sein wird. Ein Computer kann es nur auf eine Weise darstellen: indem er Pixel auf einen 2D-Bildschirm setzt. In diesem Teil des Artikels erfahren Sie, wie das Bild auf dem Bildschirm realistisch wird und wie Szenen denen in der realen Welt ähnlich werden. Zuerst schauen wir uns an, wie einem Objekt Realismus verliehen wird. Dann werden wir uns der ganzen Szene zuwenden. Und schließlich schauen wir uns an, wie der Computer Bewegung implementiert: Realistische Objekte bewegen sich mit realistischer Geschwindigkeit.

Bevor das Bild realistisch wird, durchlaufen Objekte mehrere Verarbeitungsstufen. Die wichtigsten Phasen sind Formerstellung, Texturumhüllung, Beleuchtung, Perspektiverzeugung, Schärfentiefe und Kantenglättung.

Formularerstellung

Wenn wir aus dem Fenster schauen, sehen wir, dass alle Objekte eine Form haben, sie bestehen aus geraden und gekrümmten Linien unterschiedlicher Größe und Position. Auf die gleiche Weise sehen wir beim Betrachten einer dreidimensionalen Grafik auf einem Computermonitor ein Bild, das aus verschiedenen Formen besteht, obwohl die meisten bereits aus geraden Linien bestehen. Wir sehen Quadrate, Rechtecke, Parallelogramme, Kreise und Rauten. Aber vor allem sehen wir Dreiecke. Um ein zuverlässiges Bild mit geschwungenen Linien zu machen, wie in der Welt um uns herum, muss man aus vielen kleinen Formen eine Form zusammensetzen. Beispielsweise kann der menschliche Körper Tausende dieser Formen benötigen. Zusammen bilden sie eine Struktur, die Gerüst genannt wird. Ein Drahtmodell ist einer Skizze eines Objekts sehr ähnlich, Sie können ein Objekt leicht anhand des Drahtmodells identifizieren. Ebenso wichtig ist der nächste Schritt nach dem Erstellen der Form: Das Drahtgitter muss eine Oberfläche erhalten.

Die Abbildung zeigt ein Handskelett aus einer kleinen Anzahl von Polygonen – insgesamt 862

Oberflächentexturen

Wenn wir in der realen Welt auf eine Oberfläche stoßen, können wir auf zwei Arten Informationen darüber erhalten. Wir können die Oberfläche aus verschiedenen Blickwinkeln betrachten, sie berühren und feststellen, ob sie weich oder hart ist. Bei 3D-Grafiken können wir nur die Oberfläche betrachten, während wir alle verfügbaren Informationen erhalten. Und diese Informationen setzen sich aus drei Komponenten zusammen:

  • Farbe: Welche Oberflächenfarbe? Ist es einheitlich gefärbt?
  • Textur: Ist die Oberfläche eben oder weist sie Dellen, Unebenheiten, Begradigungen oder ähnliches auf?
  • Reflexionsvermögen: Reflektiert die Oberfläche Licht? Sind die Reflexionen klar oder verschwommen?

Eine Möglichkeit, einem Objekt "Realität" zu verleihen, besteht darin, eine Kombination dieser drei Komponenten in verschiedenen Teilen des Bildes auszuwählen. Schauen Sie sich um: Ihre Computertastatur hat eine andere Farbe/Textur/Reflexionsvermögen als Ihr Schreibtisch, die wiederum eine andere Farbe/Textur/Reflexionsvermögen als Ihre Hand hat. Damit die Farbe des Bildes wie echt aussieht, ist es wichtig, dass der Computer die Farbe eines Pixels aus einer Palette von Millionen verschiedener Farben auswählen kann. Die Vielfalt der Texturen hängt sowohl vom mathematischen Modell der Oberfläche (von der Haut eines Frosches bis zum geleeartigen Material) als auch von den Texturkarten (Texture Maps) ab, die den Oberflächen überlagert werden. Es ist auch notwendig, Objekten jene Eigenschaften zu verleihen, die nicht sichtbar sind: Weichheit und Härte, Wärme und Kälte durch verschiedene Kombinationen von Farbe, Textur und Reflexionsvermögen. Wenn Sie bei mindestens einem dieser Parameter einen Fehler machen, wird sich das Realitätsgefühl sofort auflösen.


Das Hinzufügen einer Oberfläche zu einem Drahtmodell beginnt sich zu ändern
ein Bild von etwas Mathematisiertem zu einem Bild,
in denen wir leicht eine Hand finden können.

Beleuchtung

Wenn Sie einen dunklen Raum betreten, schalten Sie das Licht ein. Sie denken nicht darüber nach, wie das Licht, das aus der Glühbirne kommt, im Raum verteilt wird. Bei der Entwicklung von 3D-Grafiken müssen Sie dies jedoch ständig berücksichtigen, da alle Oberflächen, die das Drahtgitter umgeben, von irgendwoher beleuchtet werden müssen. Eine Methode, die als Raytracing-Methode bezeichnet wird, zeichnet den Weg auf, den ein imaginärer Strahl nehmen wird, nachdem er die Lampe verlassen hat, von gespiegelten Oberflächen reflektiert wird und schließlich am Objekt endet. Der Strahl beleuchtet es mit unterschiedlicher Intensität aus verschiedenen Winkeln. Die Methode scheint ziemlich kompliziert zu sein, selbst wenn Strahlen aus einer einzelnen Lampe aufgebaut werden, aber in den meisten Räumen gibt es viele Lichtquellen: mehrere Lampen, Fenster, Kerzen usw.

Die Beleuchtung spielt eine Schlüsselrolle bei zwei Effekten, die Objekten ein Gefühl von Gewicht und Solidität verleihen: Schattierung und Schatten. Der erste Effekt der Schattierung besteht darin, die Lichtintensität eines Objekts von einer Seite zur anderen zu ändern. Dank der Schattierung wirkt der Ball rund, hohe Wangenknochen stehen im Gesicht hervor und die Decke wirkt voluminös und weich. Diese Unterschiede in der Lichtintensität verstärken zusammen mit der Form die Illusion, dass das Objekt neben Höhe und Breite auch Tiefe hat. Die Illusion von Gewicht entsteht durch den zweiten Effekt: den Schatten.


Das Hervorheben eines Bildes fügt nicht nur Tiefe hinzu
Objekt durch Schattierung, sondern auch "bindet"
Objekt durch den Schatten auf den Boden.

Optisch dichte Körper werfen bei Beleuchtung einen Schatten. Sie können einen Schatten auf einer Sonnenuhr sehen oder den Schatten eines Baumes auf dem Bürgersteig betrachten. In der realen Welt werfen Objekte und Personen Schatten. Wenn Schatten in der 3D-Welt vorhanden sind, wird es Ihnen noch mehr vorkommen, als würden Sie durch ein Fenster auf die reale Welt schauen und nicht auf einen Bildschirm mit mathematischen Modellen.

Perspektive

Das Wort Perspektive erscheint wie ein Fachbegriff, beschreibt aber eigentlich den einfachsten Effekt, den wir alle beobachten. Wenn Sie am Rand einer langen, geraden Straße stehen und in die Ferne blicken, wird es Ihnen so vorkommen, als würden die rechte und die linke Spur der Straße zu einem Punkt am Horizont zusammenlaufen. Wenn Bäume am Straßenrand gepflanzt werden, dann sind die Bäume umso kleiner, je weiter sie vom Betrachter entfernt sind. Sie werden feststellen, dass die Bäume am gleichen Punkt am Horizont zusammenlaufen wie die Straße. Wenn alle Objekte auf dem Bildschirm zu einem Punkt zusammenlaufen, wird dies als Perspektive bezeichnet. Es gibt natürlich auch andere Möglichkeiten, aber grundsätzlich wird in dreidimensionalen Grafiken die oben beschriebene Perspektive eines Punktes verwendet.

In der obigen Abbildung scheinen die Hände getrennt zu sein, aber in den meisten Szenen befinden sich einige Objekte im Vordergrund und blockieren teilweise die Sicht auf andere Objekte. Für solche Szenen Software sollte nicht nur die relative Größe von Objekten berechnen, sondern auch Informationen darüber berücksichtigen, welche Objekte andere wie stark verdecken. Am häufigsten wird hierfür der Z-Puffer (Z-Buffer) verwendet. Dieser Puffer hat seinen Namen vom Namen der Z-Achse oder einer imaginären Linie, die hinter dem Bildschirm durch die Szene bis zum Horizont verläuft. (Die anderen beiden Achsen sind die X-Achse, die die Breite der Szene misst, und die Y-Achse, die die Höhe der Szene misst).

Der Z-Puffer weist jedem Polygon eine Nummer zu, basierend darauf, wie nahe das Objekt, das dieses Polygon enthält, an der Vorderkante der Szene ist. Typischerweise werden den Polygonen, die dem Bildschirm am nächsten liegen, niedrigere Nummern zugewiesen, und den Polygonen neben dem Horizont werden höhere Nummern zugewiesen. Beispielsweise würde ein 16-Bit-Z-Puffer die Zahl -32.768 dem Bildschirm am nächsten und 32.767 am weitesten zuweisen.

In der realen Welt können unsere Augen keine Objekte sehen, die von anderen verdeckt werden, daher haben wir kein Problem damit, sichtbare Objekte zu identifizieren. Aber diese Probleme tauchen ständig vor dem Computer auf und er ist gezwungen, sie direkt zu lösen. Während jedes Objekt erstellt wird, wird sein Z-Wert mit dem Wert anderer Objekte verglichen, die denselben Bereich in X- und Y-Koordinaten einnehmen. Das Objekt mit dem kleinsten Z-Wert wird vollständig gezeichnet, während andere Objekte mit höheren Z-Werten wird nur teilweise gezeichnet. Daher sehen wir keine Hintergrundobjekte, die durch die Zeichen hervorstehen. Da der Z-Puffer vor dem vollständigen Zeichnen von Objekten aktiviert wird, werden Teile der Szene, die hinter der Figur verborgen sind, überhaupt nicht gezeichnet. Dies beschleunigt die Grafikleistung.

Tiefenschärfe

Ein weiterer optischer Effekt, die Tiefenschärfe, wird ebenfalls erfolgreich in 3D-Grafiken eingesetzt. Wir verwenden das gleiche Beispiel mit Bäumen, die am Straßenrand gepflanzt wurden. Wenn sich die Bäume vom Betrachter entfernen, tritt ein weiterer interessanter Effekt auf. Wenn Sie die Bäume betrachten, die Ihnen am nächsten sind, sind die entfernten Bäume unscharf. Dies wird besonders deutlich, wenn man sich ein Foto oder Video mit denselben Bäumen ansieht. Regisseure und Computeranimatoren verwenden diesen Effekt für zwei Zwecke. Die erste besteht darin, die Illusion von Tiefe in der beobachteten Szene zu verstärken. Natürlich kann der Computer jedes Objekt in der Szene genau scharf zeichnen, egal wie weit es entfernt ist. Da der Effekt der Tiefenschärfe in der realen Welt jedoch immer vorhanden ist, führt das Scharfstellen aller Objekte zu einer Verletzung der Illusion der Realität der Szene.

Der zweite Grund für die Verwendung dieses Effekts besteht darin, Ihre Aufmerksamkeit auf die richtigen Themen oder Schauspieler zu lenken. Um beispielsweise Ihren Fokus auf eine Filmfigur zu verstärken, verwendet der Regisseur einen geringen Tiefenschärfeeffekt, bei dem nur ein Schauspieler im Fokus steht. Auf der anderen Seite nutzen Szenen, die Sie mit der Majestät der Natur verblüffen sollen, den tiefen Tiefenschärfeeffekt, um so viele Objekte wie möglich in den Fokus zu rücken.

Kantenglättung

Anti-Aliasing ist eine weitere Technologie, die entwickelt wurde, um das Auge zu täuschen. Digitale Grafiksysteme sind sehr gut darin, vertikale oder horizontale Linien zu erzeugen. Aber wenn Diagonalen und Kurven erscheinen (und sie kommen in der realen Welt sehr oft vor), zeichnet der Computer Linien mit charakteristischen "Leitern" anstelle von glatten Kanten. Um Ihre Augen davon zu überzeugen, dass sie eine glatte Linie oder Kurve sehen, fügt der Computer Pixel mit unterschiedlichen Farbschattierungen um die Linie herum hinzu. Diese „grauen“ Pixel erzeugen die Illusion, dass es keine „Stufen“ gibt. Dieser Prozess des Hinzufügens von Pixeln, um das Auge zu täuschen, wird als Anti-Aliasing bezeichnet und ist eine der Techniken, die 3D-Computergrafiken von „handgezeichneten“ Grafiken unterscheidet. Die Aufgabe, die Linien beizubehalten und genau die richtige Menge an "glättenden" Farben hinzuzufügen, ist eine weitere knifflige Aufgabe für den Computer, um 3D-Animationen auf Ihrem Bildschirm zu erstellen.

Dreidimensionale Grafiken sind heute fest in unser Leben eingetreten, dass wir manchmal nicht einmal auf ihre Manifestationen achten.

Wenn wir eine Werbetafel betrachten, die das Innere eines Raums oder eine Eiscreme-Werbung darstellt, oder die Rahmen eines actiongeladenen Films betrachten, erkennen wir nicht einmal, dass die sorgfältige Arbeit eines 3D-Grafikmeisters hinter all dem steckt.

3D-Grafik ist

3D-Grafiken (dreidimensionale Grafiken)- Dies ist eine spezielle Art von Computergrafik - eine Reihe von Methoden und Werkzeugen, mit denen Bilder von 3D-Objekten (dreidimensionalen Objekten) erstellt werden.

Ein 3D-Bild ist nicht schwer von einem zweidimensionalen zu unterscheiden, da es die Erstellung einer geometrischen Projektion eines 3D-Szenenmodells auf eine Ebene unter Verwendung spezialisierter Softwareprodukte beinhaltet. Das resultierende Modell kann ein Objekt aus der Realität sein, z. B. ein Modell eines Hauses, eines Autos, eines Kometen, oder es kann völlig abstrakt sein. Der Prozess des Aufbaus eines solchen dreidimensionalen Modells wird genannt und zielt in erster Linie darauf ab, ein visuelles dreidimensionales Abbild des modellierten Objekts zu erzeugen.

Heute können Sie auf der Grundlage dreidimensionaler Grafiken eine hochpräzise Kopie eines realen Objekts erstellen, etwas Neues schaffen und die unrealistischsten Designideen zum Leben erwecken.

3D-Grafiktechnologien und 3D-Drucktechnologien haben viele Bereiche der menschlichen Tätigkeit durchdrungen und bringen enorme Gewinne.

3D-Bilder bombardieren uns täglich im Fernsehen, in Filmen, bei der Arbeit mit Computern und in 3D-Spielen, von Werbetafeln und veranschaulichen die volle Kraft und Errungenschaften von 3D-Grafiken.

Errungenschaften der modernen 3D-Grafik werden in folgenden Branchen eingesetzt

  1. Kinematographie und Animation- Erstellung von dreidimensionalen Charakteren und realistischen Spezialeffekten . Erstellung von Computerspielen- Entwicklung von 3D-Charakteren, Virtual-Reality-Umgebung, 3D-Objekte für Spiele.
  2. Werbung- Die Möglichkeiten der 3D-Grafik ermöglichen es Ihnen, das Produkt gewinnbringend auf dem Markt zu präsentieren, mit Hilfe der dreidimensionalen Grafik können Sie die Illusion eines kristallweißen Hemdes oder eines köstlichen Eis am Stiel mit Schokoladenstückchen usw. erzeugen. Gleichzeitig kann es bei einem echten beworbenen Produkt viele Mängel geben, die sich leicht hinter schönen und hochwertigen Bildern verbergen.
  3. Innenarchitektur- Auch Design und Entwicklung der Innenarchitektur kommen heute nicht mehr ohne dreidimensionale Grafik aus. 3D-Technologien ermöglichen es, realistische 3D-Modelle von Möbeln (Sofa, Sessel, Stuhl, Kommode usw.) zu erstellen, die Geometrie des Objekts exakt zu wiederholen und eine Imitation des Materials zu erstellen. Mithilfe von dreidimensionalen Grafiken können Sie ein Video erstellen, das alle Stockwerke des entworfenen Gebäudes zeigt, dessen Bau möglicherweise noch nicht einmal begonnen wurde.

Phasen der Erstellung eines dreidimensionalen Bildes


Um ein 3D-Bild eines Objekts zu erhalten, müssen Sie die folgenden Schritte ausführen

  1. Modellieren- Erstellen eines mathematischen 3D-Modells der allgemeinen Szene und ihrer Objekte.
  2. Texturierung umfasst das Überlagern von Texturen auf erstellten Modellen, das Anpassen von Materialien und das Realisieren von Modellen.
  3. Lichteinstellung.
  4. (sich bewegende Objekte).
  5. Wiedergabe- der Prozess der Erstellung eines Bildes eines Objekts nach einem zuvor erstellten Modell.
  6. Compositing oder Layout- Nachbearbeitung des empfangenen Bildes.

Modellieren- Erstellung eines virtuellen Raums und darin befindlicher Objekte, einschließlich der Erstellung verschiedener Geometrien, Materialien, Lichtquellen, virtueller Kameras und zusätzlicher Spezialeffekte.

Die gängigsten 3D-Modellierungssoftwareprodukte sind: Autodesk 3D max, Pixologic Zbrush, Blender.

Texturierung ist eine Überlagerung auf der Oberfläche des erstellten dreidimensionalen Modells eines Raster- oder Vektorbildes, mit der Sie die Eigenschaften und das Material des Objekts anzeigen können.


Beleuchtung
- Erstellen, Festlegen der Richtung und Einrichten von Lichtquellen in der erstellten Szene. Grafische 3D-Editoren verwenden in der Regel die folgenden Arten von Lichtquellen: Punktlicht (divergierende Strahlen), Omni-Licht (omnidirektionales Licht), gerichtetes Licht (parallele Strahlen) usw. Einige Editoren ermöglichen es Ihnen, eine volumetrische Glühquelle zu erstellen ( Kugellicht).

Stellen Sie sich vor, wie das Objekt in das bestehende Gebäude passen wird. Das Anzeigen verschiedener Versionen des Projekts ist in einem dreidimensionalen Modell sehr bequem. Insbesondere können Sie die Materialien und Bedeckung (Texturen) von Projektelementen ändern, die Ausleuchtung einzelner Bereiche (je nach Tageszeit) prüfen, verschiedene Interieur-Elemente platzieren etc.

Im Gegensatz zu einer Reihe von CAD-Systemen, die zusätzliche Module oder Programme von Drittanbietern zur Visualisierung und Animation verwenden, verfügt MicroStation über integrierte Tools zum Erstellen fotorealistischer Bilder (BMP, JPG, TIFF, PCX usw.) sowie zum Aufzeichnen von Animationsclips in Standardformaten (FLI, AVI ) und eine Reihe von Frame-by-Frame-Bildern (BMP, JPG, TIFF usw.).

Realistische Bilder erstellen

Die Erstellung fotorealistischer Bilder beginnt mit der Zuordnung von Materialien (Texturen) zu verschiedenen Elementen des Projekts. Jede Textur wird auf alle Elemente der gleichen Farbe angewendet, die in der gleichen Ebene liegen. Da die maximale Anzahl von Schichten 65.000 und 256 Farben beträgt, kann davon ausgegangen werden, dass ein individuelles Material wirklich auf jedes Element des Projekts angewendet werden kann.

Das Programm bietet die Möglichkeit, jede Textur zu bearbeiten und basierend auf einem Bitmap-Bild (BMP, JPG, TIFF usw.) eine neue Textur zu erstellen. In diesem Fall können zwei Bilder für die Textur verwendet werden, von denen eines für das Relief und das andere für die Textur des Materials verantwortlich ist. Sowohl Relief als auch Textur haben unterschiedliche Platzierungsparameter pro Element, wie z. B.: Skalierung, Drehwinkel, Versatz, Art und Weise, unebene Oberflächen zu füllen. Außerdem hat der Bump einen Parameter „Höhe“ (änderbar im Bereich von 0 bis 20) und die Textur wiederum ein Gewicht (änderbar im Bereich von 0 bis 1).

Zusätzlich zum Muster hat das Material die folgenden einstellbaren Parameter: Streuung, Diffusion, Glanz, Polieren, Transparenz, Reflexion, Brechung, Grundfarbe, Hervorhebungsfarbe, die Fähigkeit des Materials, Schatten zu hinterlassen.

Die Texturzuordnung kann auf standardmäßigen 3D-Volumenkörpern oder auf jedem Projektelement in der Vorschau angezeigt werden, und es können verschiedene Arten von Elementschattierungen verwendet werden. Mit einfachen Werkzeugen zum Erstellen und Bearbeiten von Texturen können Sie fast jedes Material erhalten.

Ein ebenso wichtiger Aspekt für die Erstellung realistischer Bilder ist die Art der Visualisierung (Rendering). MicroStation unterstützt die folgenden bekannten Schattierungsmethoden: Entfernung verdeckter Linien, Schattierung verdeckter Linien, permanente Schattierung, glatte Schattierung, Phong-Schattierung, Raytracing, Radiosity, Partikelverfolgung. Während des Renderns kann das Bild geglättet (gestampft) sowie ein Stereobild erstellt werden, das mit einer Brille mit speziellen Lichtfiltern betrachtet werden kann.

Es gibt eine Reihe von Anzeigequalitätseinstellungen (entsprechend der Bildverarbeitungsgeschwindigkeit) für Raytracing-, Radiosity- und Partikelverfolgungsmethoden. Für eine schnellere Bearbeitung grafische Informationen MicroStation unterstützt Grafikbeschleunigungsmethoden QuickVision-Technologie. Um die erstellten Bilder anzuzeigen und zu bearbeiten, gibt es auch integrierte Modifikationswerkzeuge, die die folgenden Standardfunktionen unterstützen (die natürlich nicht mit den Funktionen spezialisierter Programme konkurrieren können): Gammakorrektur, Tonwertanpassung, Negativ, Waschen, Farbmodus , zuschneiden, skalieren, drehen, spiegeln, in ein anderes Datenformat konvertieren.

Beim Erstellen realistischer Bilder wird ein erheblicher Teil der Zeit mit der Platzierung und Verwaltung von Lichtquellen in Anspruch genommen. Lichtquellen werden in globale und lokale Beleuchtung unterteilt. Global Illumination wiederum besteht aus Umgebungslicht, Streulicht, Sonnenlicht, Oberlicht. Und für die Sonne werden neben Helligkeit und Farbe auch der Azimutwinkel und der Winkel über dem Horizont eingestellt. Diese Winkel können automatisch anhand des angegebenen geografischen Standorts des Objekts (an jedem auf der Weltkarte angegebenen Punkt auf dem Globus) sowie anhand des Datums und der Uhrzeit der Betrachtung des Objekts berechnet werden. Das Licht des Himmels hängt von der Bewölkung, der Qualität (Opazität) der Luft und sogar von der Reflexion am Boden ab.

Lokale Lichtquellen können von fünf Typen sein: entfernt, punktförmig, konisch, flächig, zum Himmel hin offen. Jede Quelle kann folgende Eigenschaften haben: Farbe, Lichtstärke, Intensität, Auflösung, Schatten, Dämpfung in einem bestimmten Abstand, Kegelwinkel usw.

Lichtquellen können dabei helfen, unbeleuchtete Bereiche eines Objekts zu identifizieren, in denen zusätzliche Beleuchtung benötigt wird.

Kameras werden verwendet, um Projektelemente aus einem bestimmten Winkel zu betrachten und die Ansicht frei durch die Datei zu bewegen. Mit den Steuertasten der Tastatur und der Maus können Sie neun Arten von Kamerabewegungen einstellen: fliegen, drehen, absinken, gleiten, ausweichen, drehen, schwimmen, auf einem Wagen fahren, kippen. vier verschiedene Arten Bewegungen können mit Tastatur und Maus verbunden werden (die Modi werden durch Halten der Tasten Umschalt, Strg, Umschalt + Strg umgeschaltet).

Mit Kameras können Sie das Objekt aus verschiedenen Winkeln betrachten und hineinschauen. Durch Variieren der Kameraparameter (Brennweite, Objektivwinkel) können Sie die Perspektive der Ansicht verändern.

Um realistischere Bilder zu erstellen, ist es möglich, ein Hintergrundbild anzuschließen, z. B. ein Foto einer vorhandenen Landschaft.

mob_info