Dynamisches Hautmodell für muskelbasierte Gesichtsanimation

Kommunikation ist ein wichtiger Bestandteil unseres menschlichen Lebens, ganz besonders die nonverbale Kommunikation. Die Körpersprache ist darin ein wesentlicher Bestandteil. Nach den Forschungen des Pantomimen und Hochschullehrers Samy Molcho erzeugt der nonverbale Anteil an unserer Kommunikation über 80 Prozent der Reaktionen.

Unsere Gefühlsregungen oder sprachlichen Äußerungen zeichnen sich in zumeist sehr differenzierter Form in unseren Gesichtsausdrücken ab. Da wir ständig verbal oder auch nonverbal mit Mimik kommunizieren, haben wir die Bedeutung vielfältiger Gesichtsausdrücke erlernt und in unserem visuellen Gedächtnis gespeichert. Hierdurch können wir die Gefühlslage unseres Gegenübers richtig einschätzen und bei entsprechender Übung zumindest teilweise sogar Wörter von den Lippen unseres Kommunikationspartners ablesen. Die visuell im Gedächtnis eingeprägten und sehr fein abgestuften Gesichtszüge stellen für die Modellierung und Animation von Gesichtsmodellen ein erhebliches Problem dar, weil selbst eine geringfügige Abweichung vom natürlichen Vorbild leicht als Fehler registriert wird.

Das Hauptziel der Gesichtsanimation in der Computergrafik ist die realitätsnahe Simulation der Mimik, also der sichtbaren Bewegungen des menschlichen Gesichts. Zur Gesichtsanimation gehören auch Augen- und Zungenbewegungen. Sie sind für einen realistischen Gesamteindruck sehr wichtig. In dieser Arbeit beschränke ich mich auf die Simulation der Hautbewegungen, denn sie stellt die größte Herausforderung dar.

Für die Gesichtsanimation gibt es vielfältige Anwendungsbereiche. Hierzu gehören beispielsweise künstliche Akteure für Werbe- oder Spielfilme. Beeindruckende Beispiele für die Gesichtsanimation in Spielfilmen sind u. a. in den Filmen Shrek oder Final Fantasy zu finden. Infolge der anhaltend rasanten Leistungssteigerung der Hardware hat die 3DGrafik schon seit Jahren Einzug in den großen Markt der Computerspiele gehalten. Hierbei werden große Anstrengungen unternommen, um die virtuellen Figuren möglichst realistisch erscheinen zu lassen. Die in Echtzeit durchgeführte Gesichtsanimation findet daher in diesem Anwendungsfeld weite Verbreitung.

Parametergesteuerte Gesichtsanimation

Die ersten Versuche, realistisch wirkende Gesichter zu synthetisieren, wurden bereits am Anfang der Siebzigerjahre mit der parametergesteuerten Gesichtsanimation unternommen. Hierbei wird durch Anwendung verschiedener Transformationen der Parameter die Geometrie der Gesichtshaut direkt verändert.

Ein bekanntes und sehr verbreitetes Verfahren ist das Morphing. Bei diesem Verfahren wird eine Palette mit Gesichtsausdrücken vordefiniert. Jeder Gesichtsausdruck wird dabei durch die Verschiebung der Punkte der originalen Hautgeometrie bestimmt. Die originale Hautgeometrie ist eine Polygonoberfläche, die das Gesicht mit neutralem Gesichtsausdruck bei entspannter Gesichtsmuskulatur beschreibt. Durch Überlagerung der Gesichtsausdrücke aus dieser Palette mit verschiedener Gewichtung können weitere Gesichtsausdrücke erzeugt werden. Mit Interpolation sorgt man für einen weichen Übergang von einem Gesichtsausdruck zum anderen.

Bei der parametergesteuerten Gesichtsanimation hängt das Ergebnis stark vom künstlerischen Geschick und der Erfahrung jenes Benutzers ab, der die Gesichtsausdrücke gestaltet. Bei jedem neuen Gesicht muss dann allerdings die ganze Arbeit wiederholt werden, oder es müssen aufwändige Anpassungen durchgeführt werden.

Muskelgesteuerte Gesichtsanimation

Die muskelgesteuerte Gesichtsanimation bedient sich der Kenntnis über die Mechanik von Haut und Muskeln, über die Anatomie des menschlichen Gesichtsmuskelsystems sowie über das Zusammenwirken der einzelnen Gesichtsmuskeln. Das erste Muskelmodell wurde Ende der Achtzigerjahre von Keith Walters vorgestellt.

Während ein medizinischer Eingriff mit sehr genauen Nachbildungen der Anatomie geplant werden muss, können in der Computergrafik bereits stark vereinfachte Modelle zu guten Ergebnissen führen.

Bei der muskelbasierten Gesichtsanimation muss man also ein stark vereinfachtes Modell für ein virtuelles Gesicht suchen, das bei kurzer Rechenzeit und möglichst in Echtzeit sehr realistische Animationsergebnisse liefert. Besonders wünschenswert ist ein universelles Muskelmodell, das mit möglichst wenig Aufwand an ein neues Gesicht angepasst werden kann.

Durch Kontraktion einzelner Muskeln gelingt es, den Gesichtsausdruck zu steuern. Ein Gesichtsmodell ist umso besser, je weniger es von der Kunstfähigkeit des Animators abhängt.

Download der Studienarbeit als PDF-Dokument:
Dynamisches Hautmodell für Muskelbasierte Gesichtsanimation

 

Derzeitig betreibe ich xonu EEC, eine Magento-Agentur in Hamburg und biete Magento-Schulungen und Magento-Beratung, Magento-Entwicklung, sowie MySQL-Trainings an.

 

Impressum: Pawel Kazakow, Oktaviostr. 120 b, 22043 Hamburg. E-Mail: vorname.nachname@gmail.com