CGI – Content aus dem Computer

Content Produktion in 3D mittels CGI

CGI – Computer Generated Imagery steht für Bilderzeugung durch Computergrafik und dient als Sammelbegriff für Bilder und Filme, die digital erzeugt werden. Dabei wird üblicherweise eine zweidimensionale Sequenz aus einem dreidimensionalen Bild errechnet. Für die Erzeugung von fotorealistischen Abbildungen bedeutet CGI eine Revolution – denn das abgebildete Objekt muss nicht real existieren.

CGI – Der Ablauf im Detail

Um ein Bild des Objektes oder der Szene zu erzeugen, sind verschiedene Arbeitsschritte erforderlich. Dabei wird sequenziell gearbeitet – vom Bauplan über das Objekt hin zum Bild.

1. Der Input

Was in der Fotografie das Objekt ist, das ist im CGI der Bauplan. Denn der CGI-Artist ist gleichzeitig Ingenieur, Fotograf und Regisseur. Wenn das Ziel der CGI-Produktion ist, ein bestehendes Produkt digital nachzubilden, so ist entsprechender Input notwendig.

Immer häufiger wird das Produktdesign ebenfalls am Computer mittels CAD (Computer Aided Design) vorgenommen. Im Maschinenbau und in der Architektur ist dies bereits seit mehreren Jahren üblich und sinnvoll, da komplexe Pläne auf reduzierten Formenreichtum treffen. Linien und Flächen waren die ersten Anwendungsfälle für CAD-Software. In der Architektur ist das Schlagwort dazu BIM – Building Information Modelling. Die Technologie erlaubt es dem Bauherrn, Statik und Optik der Konstruktion bereits im Vorwege detailliert zu überprüfen. Mit der immer weiter steigenden Rechenleistung ziehen nun auch andere Branchen nach – derzeit steht die Fashion-Industrie vor einem entsprechenden Umbruch.

Apps für CAD – Der Digitale Bauplan

Die bekanntesten Tools und Programme für die Erstellung von CAD-Daten sind

  • AutoCAD
    Der Marktführer im CAD-Bereich. Durch Erweiterungen kann die Software auf bestimmte Einsatzbereiche erweitert bzw. spezialisiert werden – z.B. AutoCAD Mechanical für den Maschinenbau. Diese Spezialisierten Anwendungen hat AutoCAD kürzlich in das neue Tool Inventor überführt.
    Der Fokus von AutoCAD liegt dabei jedoch primär auf der Hertsellung von 2D-Konstuktionszeichnungen.
  • Catia
    Catia ist das führende Programm für den Entwurf von 3D-CAD Daten. Catia tritt dabei als PLM-Lösung an. PLM steht für Product Lifecycle Management und meint, dass von der Produktentwicklung bis zur automatisierten Fertigung jeder Schritt aus Catia heraus realisiert werden kann.
  • Creo
    Ebenfalls nennenswerte Marktanteile hat Creo vom Hersteller PTC. Das hochpreisige Tool ist für professionelle Anwender gedacht und verfügt ebenfalls über eine Vielzahl von modularen Erweiterungen.
  • Des Weiteren sind Solidworks sowie SolidEdge und NX von Siemens zu nennen.
  • OpenSource: FreeCAD und SketchUp Free
    Die beste OpenSource Lösung ist FreeCAD – sie kommt ebenfalls mit spezialisierten Modulen daher, gilt aber als etwas unhandlich und schwer zu erlernen. Als etwas simpler n der Bedienung gilt SketchUp Free – weitere Plugins lassen sich hier allerdings nur in der kostenpflichtigen Vollversion laden.

Wenn CAD-Daten existieren, so können diese in das übliche Austauschformat dxf kovertiert werden – die meisten Programme können dieses Format interpretieren. Auch .obj und .fbx sind übliche Austauschformate.

Wenn keine CAD-Daten als Vorlage zur Verfügung stehen, so bleibt nur eine aufwändige Lösung: Im Modelling werden die gewünschten Objekte (anhand von Bauplänen oder Maßskizzen) in digitaler Form aufgebaut. Auch hier kommen häufig CAD-Tools zum Einsatz.

CAD für Fashion

Auf die Schwierigkeiten des Fashion-Industrie wurde bereits hingewiesen: Durch das elastische Material und fließende Stoffe sind dem CAD-Ansatz enge Grenzen gesetzt. Außerdem kann das Kleidungsstück selten isoliert von seinem Träger entworfen werden. So zerfließen hier die Grenzen zwischen der technischen Zeichnung und der 3D-Simulation, was in der Vergangenheit ein Hinderungsgrund war.

Immer mehr Marken setzen mittlerweile aber auf digitale Schnittmuster, so dass auch hier Fortschritte zu vermelden sind, die das Zeug zur Disruption haben. Derzeit entstehen viele Tools, die dynamische Entwürfe direkt am dreidimensionalen Körper in zweidimensionale Schnittmuster umwandeln. Diese sind dann die Vorlage, die von Schneidern und CGI-Workflows rund um den Globus gleichermaßen als Vorlage verwendet werden kann.

2. Modelling

Auf Basis der CAD-Vorlage kann das digitale Modell in das 3D-Programm überführt und dort weiter bearbeitet werden.

Am Ende des Modelling steht somit ein digitales Abbild- sei es ein Auto, eine Immobilie oder ein Elektro-Artikel. Dieses Objekt wird auch als Digital Twin ( Digitaler Zwilling) oder Object Mesh (Objektnetz) bezeichnet, denn es besteht aus einer Vielzahl von Polygonen, die wie ein komplexes dreidimensionales Netz aussehen. Damit sind sämtliche geometrische Eigenschaften des Objektes beschrieben.

Das Object-Mesh am Beispiel eines Kopfes
Das Object-Mesh am Beispiel eines Kopfes

Im nächsten Schritt geht es um die optischen Eigenschaften der geometrischen Figur.

3. Shading

Wörtlich können wir Shading mit Schattierung in die deutsche Sprache übersetzen – und das beschreibt diesen Arbeitsschritt bereits ziemlich gut. Im weiteren Sinne werden sämtliche Oberflächeneigenschaften des Digital Twins simuliert. Die Simulation der Oberfläche im optischen Sinne ist dabei natürlich ganz eng mit der Reaktion auf Licht und eben das resultierende Verhalten von Licht und Schatten verknüpft.

Grundvoraussetzung für das Shading ist somit die Beschreibung der Textur des Objektes, die man auch als Summe der Materialeigenschaften verstehen kann. Dabei sollten Textur und Shading nicht miteinander verwechselt werden: Der Shader definiert vielmehr über die gegebenen Texturen ihre optische Wirkung.

Die Textur wird üblicherweise über eine zweidimensionale Abbildung auf die Oberfläche des Objektes projiziert – dieser Vorgang wird als Texture Mapping, UV-Mapping oder 3D-Mapping bezeichnet. Um alle Materialeigenschaften zu ausreichend zu charakterisieren, werden dabei verschiedene Texturen genutzt. Folgende Eigenschaften der Textur lassen sich separat definieren:

  • Specularity – das Reflektionsverhalten
    Die Specularity definiert, wie eine Oberfläche Licht reflektiert. So sind die Unterschiede zwischen einer Metalloberfläche und Holz natürlich gewaltig – sie werden im Glanzverhalten deutlich.
  • Normals
  • Bump Maps – Struktur
    Je genauer wir die Oberfläche eines Objektes betrachten, desto deutlicher wird, dass diese streng genommen auch dreidimensional ist. Denken wir beispielsweise an einen Stoff oder gar einen Teppich. Die Teppichfasern stehen hervor und bilden eine 3D-Oberfläche. Diesen Umstand wird über die Bump-Map Rechnung getragen. Die Bump Map beschreit somit die Struktur oder die Erhabenheit der Oberfläche. Diese Eigenschaften werden zweidimensional durch Abstufungen in Graustufen bildlich dargestellt und sind enorm wichtig für eine realisitsche Darstellung.
  • Transparency Map – Transparenz
    Viele Objekte weisen Oberflächen auf, die lichtdurchlässig sind. Ein offensichtliches Beispiel sind Fensterscheiben oder Glas im Allgemeinen – aber auch Gitter oder Zäune haben vollständig durchsichtige Bereiche. Diese Bereiche werden in der Transparency Map ebenfalls in schwarz-weiß definiert.
  • Normal Maps – Details
    Häufig wird versucht, das Object Mesh nicht unnötig komplex zu machen. Die Kunst ist, das Objekt mit einer möglichst niedrigen Anzahl von Polygonen hinreichend zu beschreiben. Um dennoch eine detailreiche Oberfläche zu erzielen, können weitere Details über eine Normal Map eingebracht werden. Diese Technik wird häufig in Videospielen eingesetzt, um das Budget und die notwendige Rechenleistung schonend anzusetzen. Normal Maps verhalten sich ähnlich wie Bump Maps, erlauben aber einen größeren Detaillierungsgrad, da sie nicht in schwarz/weiß sondern in RGB-Farben angelegt werden. Somit verfügt die Normal Map über eine deutlich höhere Datendichte.

Ein weiteres Hilfsmittel, um die Rechenzeit zu begrenzen, ist das Baking. Dabei werden alle Texturen und Lichtelemente zusammengefügt und statisch auf die Oberfläche des Mesh Objekts “gebacken”. Besonders animierte Sequenzen werden mit dieser Technik bearbeitet, da Licht und Textur sonst in jedem einzelnen Frame neu berechnet werden müssen. Für fotorealistische Ergebnisse ist diese Technik indes nicht empfehlenswert.

4. Lighting – Lichsetzung

Jede fotografische Szene setzt sich aus der Kamera, den Objekten und dem Licht zusammen. Bislang haben wir uns ausgiebig mit den Objekten beschäftigt. Nun kümmern wir uns um das Licht.

Licht hat verschiedene Eigenschaften: Es hat eine Intensität (oder Helligkeit), eine Richtung und eine Farbe. Im 3D-Raum werden diese Eigenschaften durch die Position der Lichtquelle(n) und ihrer Eigenschaften definiert.

Aus technischer Sicht wird die Beleuchtung in verschiedene Elemente unterteilt:

  • Ambient Light
    Das Ambient ist die Grundhelligkeit der Szene. Lichteinfall und -intensität sind an jedem beliebigen Punkt der Szene identisch. Das Licht ist somit zweidimensional und hat keinerlei Unterschiede in Intensität und Richtung – das Ambient Light ist das Grundrauschen des Tageslichts.
  • Diffuse Light
    Das Diffuse ist der direktionale Teil des Lichts. Es kommt aus einer bestimmten Richtung und hat somit eine dreidimensionale Wirkung. Das Diffuse interagiert mit den Objekten der Szene und hat eine schattenbildende Wirkung.
  • Specular Light
    Das Specular ist der reflektierende Teil des Lichts. Wie das Diffuse hat es eine Richtung. Der große Unterschied ist, dass im Specular auch die Blickrichtung des Betrachters einbezogen wird, die maßgeblichen Einfluss auf die wahrgenommenen Lichtreflexe hat.

Die drei genannten Lichtarten bilden gemeinsam eine Lightmap, die für eine ganzheitliche, realistische Ausleuchtung der Szene sorgt. Die Lichtquelle ist allerdings für den Betrachter nicht sichtbar. Einfluss hat daher noch eine vierte Lichtart:

Das Emessive Light kommt zusätzlich zum Tragen, wenn die Szene Objekte enthält, die ebenfalls Licht aussenden – beispielsweise eine Kerze oder eine Glühbirne. Das Emessive interagiert mit den sonstigen Lichtquellen und kann deren Wirkung vollständig verändern.

5. Die Kamera

Kein Bild ohne Kamera – das gilt auch für computergenerierte Bilder. Denn die Kamera definiert durch ihre Position im Raum den Betrachtungswinkel. Außerdem werden in den einschlägigen 3D-Tools auch weitere Eigenschaften der Kamera definiert, die für das Endergebnis ausschlaggebend sind. Wer eine Vergangenheit als Fotograf hat, der wird sich hier zuhause fühlen. Exemplarisch seien einige Grundbegriffe genannt:

  • Brennweite
    Definiert den Abstand zwischen der virtuellen Linse und dem dem Brennpunkt. Die Brennweite definiert somit die Größe des Bildausschnitts und wird auch als Zoom bezeichnet. Häufig wird die Abkürzung F für Focal Lenght genutzt.
  • Verschlusszeit (Belichtungszeit)
    Simuliert die Dauer der Belichtung. Eine Belichtungszeit unter 1/60 Sekunde gilt als kurze Belichtungszeit, alles darüber als lange Belichtungszeit. Als Faustregel gilt: Als Verschlusszeit soll der Kehrwert der Brennweite gewählt werden. Beträgt die Brennweite also 40 mm, so ist eine Verschlusszeit von 1/40 s. eine gute Ausgangsbasis.
  • Blende
    Die Blende regelt, wie weit das Objektiv geöffnet wird. Somit wird die Lichtmenge definiert, die durch die Kameralinse einfallen kann und damit auf die Belichtung des Motivs. Die Blendenöffnung wird im Verhältnis zur Brennweite gesehen. Wenn also von Blende F4 die Rede ist, so ist damit die Brennweite geteilt durch 4 (F/4) gemeint. Je kleiner die Zahl, desto größer die Blende.
    Eine große Blende wird auch als Offene Blende bezeichnet – ein unter Fotografen gängiger Ausdruck.
    Die Blende hat auch einen eklatanten Einfluss auf die Schärfentiefe des Bildes: Je größer die Blende, desto weniger scharfe Bereiche hat das Bild. Mit einer offenen Blende lassen sich also Unschärfen im Hintergrund erzeugen. Aber Achtung: Bei geringem Abstand vom Motiv wird schnell das ganze Motiv unscharf. Beispielwerte für eine weit offene Blende sind F2,8 oder F3.2
  • Lichtempfindlichkeit (ISO)
    Die Lichtempfindlichkeit des Bildsensors wird als ISO bezeichnet. Hierbei handelt es sich also im klassichen Sinne nicht um eine Eigenschaft der Kamera, sondern des verwendeten Film-Materials. Obgleich aus analogen Zeiten stammend, spielt ISO auch in 3D-Programmen als Empfindlichkeit des Bildsensors eine Rolle.
    Ein typischer (niedriger) Iso Wert ist 100. Jede Verdopplung des ISO-Wertes bedeutet, dass nur halb soviel Licht benötigt wird.

Weiterführende Links

Gerald Dehlow

Autor: Gerald Dehlow

Nach vielen Jahren im Marketing habe ich mich entschlossen, mich noch intensiver mit Content in all seinen Facetten zu beschäftigen. Mich reizt die Mischung aus Technik und Inhalt, die Content zum Leben erweckt. Auf diesem Blog teile ich meine Erfahrungen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.