Blog

08.05.2025

Future Frames: Drei Akte für eine Szene, die nicht mehr warten kann

Wie genau entstehen Filme mithilfe von KI-Tools? Diese Frage versuchte die Veranstaltung „Future Frames“ am 24. April im Rahmen des Frankfurter LICHTER Filmfests zu beantworten. Drei internationale Künstler*innen produzierten Bewegtbilder live, den Entstehungsprozess in Form der Prompts konnte das Publikum mitverfolgen, bevor abschließend eine Jury das beste Werk prämierte. Ein Anlass, medienphilosophisch über den Umgang mit KI-generierten Bildern nachzudenken.

Von Marcela Hernández

Alles geschah an einem einzigen Tag: ein Workshop am Vormittag, ein Panel zur Mittagszeit, ein Wettbewerb am Nachmittag. Drei Programmpunkte, verbunden durch eine gemeinsame Unruhe: die künstliche Intelligenz und ihr Eindringen – vielleicht eher ihre endgültige Installation – in den Alltag, insbesondere in filmische Praktiken. Diese drei Veranstaltungen bildeten so etwas wie einen dramatischen Bogen: zuerst die Lehre, dann die Warnung, schließlich das Spiel.

Der erste Akt war ein Workshop, der sich einer grundlegenden Frage widmete: Wie genau entstehen bewegte Bilder mithilfe von KI-Tools? Drei Künstler*innen – Manuela Klauser, Nathaly Shafir und Philipp Ladage – stellten ihre Methoden und Werkzeuge vor. Für die zu produzierenden Sequenzen wurden drei Kriterien festgelegt, die den Künstler*innen erst am Tag der Veranstaltung mitgeteilt wurden. Es sollte ein monströses oder mythologisches Wesen vorkommen (etwa eine Hexe, ein Alien, ein Vampir), die Szene sollte Angst auslösen, und sie sollte sich auf die Stadt Frankfurt beziehen. Von Anfang an wurde klar: Jede*r der Künstler*innen arbeitet mit einer eigenen Ästhetik, einem wiedererkennbaren Stil – und die Tools schaffen es, Bilder und Klänge zu erzeugen, die diese Handschrift tragen. Nach dem Workshop hatten die Künstler*innen einige Stunden Zeit, Materialien vorzubereiten, die sie später im dritten Akt – dem Wettbewerb „Future Frames“– weiterverwenden konnten.

Der zweite Akt war eine Art nachdenkliche Pause, eine abstraktere Diskussion über die Narrative, die diesen Moment prägen, in dem KI-Technologien omnipräsent geworden sind. Die Organisator*innen zitierten David Foster Wallace’ Anmerkung über die Fische, die nicht wissen, was Wasser ist. Aber vielleicht passt der Vergleich nicht ganz. Denn hier geht es nicht um ein natürliches, ewiges Umfeld, das uns durch Gewöhnung unsichtbar geworden ist. Es handelt sich vielmehr um eine Technologie, die relativ plötzlich in unser Leben getreten ist, sich immer mehr Bereiche aneignet, während wir gerade erst anfangen, sie zu benennen – was es umso schwieriger macht, zu ihr eine kritische Distanz zu gewinnen.

Die Sorge ist also mehr als berechtigt. Wie wirkt die KI schon jetzt in unseren Räumen, unseren Körpern, unserer Wahrnehmung? Und was könnte sie noch hervorbringen, wenn sie nicht gestoppt wird – oder zumindest, wenn wir uns nicht selbst dazu bringen, inne zu halten und über sie nachzudenken? Vor diesem Hintergrund wirkte der Titel des Panels – STOP ALL AI – wie ein zu spät gesprochener Zauberspruch, wenn das Wesen längst aus dem Labor entkommen ist. Der Titel bezog sich auf einen offenen Brief, den das Future of Life Institute 2023 veröffentlichte, mit der Forderung nach einem sechsmonatigen Moratorium für die Entwicklung fortgeschrittener KI-Modelle, um Sicherheits- und Regulierungsrahmen zu etablieren.

Es war nicht der erste Brief dieser Art, und es wird sicher nicht der letzte sein. Immer wenn eine neue Technologie droht, die Lebensbedingungen auf dem Planeten grundlegend zu verändern, tauchen ähnliche Appelle auf: Briefe, Manifeste, Warnungen, die nach einem deus ex machina rufen, der den Lauf der Dinge unterbricht. Allen gemeinsam ist ein mythischer Kern, der die gegenwärtige Debatte über KI durchzieht: die Vorstellung von Fortschritt als Schicksal, und das späte, fast verzweifelte Begehren, diesen Faden zu kappen, wenn es scheinbar schon zu spät ist. Keiner dieser Aufrufe hat bisher den rasenden Takt des Sektors aufgehalten. Nicht, weil es an Argumenten mangelte, sondern weil – wie so oft – die kritische Klarheit erst eintritt, wenn die Ereignisse ihren Lauf genommen haben und nur noch das Beobachten aus dem Schatten bleibt.

Der Brief, im Panel laut vorgelesen, wirkte weniger wie ein politisches Instrument als vielmehr wie ein Bühnenrelikt. Eine späte, beinahe naive Geste, vielleicht ein kollektives Symptom. Die Webseite des Festivals brachte es auf den Punkt: „Fear. Anxiety. Doom. Excitement. Potential. Hope? Hype!“ – ein Spannungsbogen, der mit Alarm beginnt und in Leichtigkeit mündet. Und diese Verschiebung wurde im letzten Akt des Tages deutlich: dem Wettbewerb.

In diesem dritten Akt verkörperte einer der Veranstalter und Moderator des Abends, Uri Aviv, selbst diese Ambivalenz. Er begann mit dem Geständnis: „I’m a doomer. I’m a pessimist. I think we’re all going… not to die — I’m not a Terminator kind of person — but to suffer very, very much.“ Und doch holte er bewusst optimistischere Stimmen auf die Bühne: Boaz Lavie sowie eine dreiköpfige Jury, bestehend aus Fachleuten, die alle an der Schnittstelle von Film, Technologie und Gestaltung arbeiten. Aviv wollte mit ihrer Perspektive seine eigene Sicht ausbalancieren und verhindern, dass der Abend in apokalyptischer Stimmung versinken würde. Ziel war es, so sagte er, eine gewisse Entmystifizierung des audiovisuellen Produktionsprozesses mit KI zu ermöglichen – live, mitsamt seiner Komplexität und seinen Stolpersteinen.

Was folgt, ist der Versuch, einigen jener Irritationen nachzugehen, die zwischen technischen Pannen, Prompt-Experimenten und ad hoc erzeugten Monstern unausgesprochen im Raum standen. Nicht unbedingt das, was das Programm vorgesehen hatte, sondern das, was sich zwischen den Zeilen, zwischen Körpern und Algorithmen aufdrängte. Denn der Versuch, das Mysterium zu enthüllen, führte an diesem Abend eher zu seiner Reinszenierung.

Hinter welchen Kulissen eigentlich?
Die Elyseé 2, ein kleiner Kinosaal aus den 1980er Jahren, war nur zur Hälfte gefüllt. Vielleicht lag es daran, dass die Atmosphäre intimer wirkte. Vorn auf der Bühne: zwei Moderator*innen, drei Künstler*innen und ihre Laptops. Projektoren, Kabel, Verbindungsprobleme. Und ein klarer Auftrag: In zehn Minuten sollte jede*r Künstler*in eine audiovisuelle Sequenz von höchstens fünfzehn Sekunden generieren. Sichtbar fürs Publikum, in Echtzeit, mit im Netz zugänglichen KI-Tools. Das Thema, wie im gesamten Festival, war Angst.

Doch wie erzählt man von einem Prozess, der live geschieht und doch hinter einer Benutzeroberfläche, einer Maske, verborgen bleibt? Die Moderatorin, Geraldine de Bastion, beschrieb das Format als „Operation am offenen Herzen“. Das Bild ist nicht ganz unpassend: Medizinisch meint es jenen Eingriff, bei dem der Brustkorb geöffnet und das Herz freigelegt wird. Doch womöglich wollte sie etwas anderes andeuten – nicht nur klinische Sichtbarkeit, sondern auch öffentliche, lehrreiche, theatralische Zurschaustellung. Vielleicht passt hier eher das theatrum anatomicum: jene barocken Räume, in denen Körper vor neugierigem Publikum seziert wurden, Orte der Wissensinszenierung. Die dort stattfindenden anatomischen Lektionen dienten nicht notwendigerweise dem wirklichen Verständnis des (toten) Körpers (geschweige denn des lebendigen), sondern vielmehr einer performativen Sichtbarmachung dessen, was sich dem Verstehen letztlich entzieht: einer Sichtbarkeit, die das Rätsel nicht löst, sondern intensiviert.

Etwas Ähnliches geschah in dem Kinosaal. Auf der großen Leinwand war abwechselnd zu sehen, wie die Künstler*innen arbeiteten: die Prompts, die sie eingaben, die Tools, die sie benutzten – und sehr, sehr viele Ladebalken. Denn in diesem Wettbewerb wurde vor allem gewartet. Während die Bilder generiert wurden, füllten Anekdoten, Publikumsfragen und Kommentare der gerade nicht aktiven Künstler*innen die angespannte Leere.

Dass jede*r Teilnehmer*in am Ende eine kleine filmische Sequenz zustande brachte, war weniger ein Zeichen technischen Geschicks als ein Akt der Improvisation, eine echte Meisterschaft im Chaosmanagement mit instabiler Internetverbindung und anderen technischen Störungen. Die schöpferische Leistung bestand vor allem darin, inmitten von Unterbrechungen, Anpassungen und Neustarts etwas Ruhe zu bewahren.

So viel wurde offengelegt – und doch blieb der Prozess nicht durchschaubar. Denn die wahren Kulissen bestehen nicht aus Befehlen oder Oberflächen. Es sind die Sprachmodelle, die Trainingsdaten, jene Datenwolken, die nicht schweben, sondern in energiehungrigen Rechenzentren wohnen. Es sind unsichtbare Codes, algorithmische Architekturen, in die Plattformen eingebettete Entscheidungen. Der Strom, der jeden Klick speist. Wir sahen Menschen, die mit Interfaces arbeiteten – aber nicht die Infrastruktur, die diese scheinbar magische Bilderzeugung überhaupt ermöglicht. Der Prozess blieb, in dieser Hinsicht, undurchsichtig.

Illusion von Intelligenz
Aber die Undurchsichtigkeit ist nicht nur technischer Natur. Sie ist auch konzeptuell. Das Event wollte zeigen, „wie es gemacht wird“ – doch was sichtbar wurde, war eher ein Ritual der Oberfläche. Nichts von dem, was wir sahen, ließ erkennen, was eine KI versteht, wenn man sie um eine Hexe oder ein nächtliches Frankfurt bittet: Denn die KI versteht nichts.

Sprachmodelle, auf denen viele dieser generativen Werkzeuge basieren, werden unter anderem von Noam Chomsky kritisiert – vor allem deshalb, weil sie nicht denken oder urteilen – sie sagen lediglich voraus. Es handelt sich um Systeme, die wie gigantische Autovervollständiger funktionieren, ohne jegliches Verständnis der Welt oder der Sprache. Sie können plausible Sätze und glaubwürdige Bilder erzeugen, unterscheiden aber nicht zwischen Terror und Kitsch, zwischen Metapher und Klischee, zwischen gelebter Gewalt und Spezialeffekt. Was sie hervorbringen, sind synthetisch erkennbare, kulturell anschlussfähige, statistisch erfolgreiche Formen. Es gibt dort kein Urteil, kein Gedächtnis, keine Erfahrung – nur eine Wiederholung dessen, was bereits gesehen wurde, was funktioniert, was sich gut verbreitet hat. Das Problem liegt also nicht darin, dass diese Bilder „falsch“ wären (ohne Referenz in der eigentlichen Welt), sondern dass sie wirksam sein können, dass ihre Form mit dem übereinstimmt, was wir ohnehin zu sehen erwarten.

Chomskys Kritik richtet sich nicht nur gegen ein angeblich fehlendes Denken in diesen Systemen, sondern gegen die kulturelle und mediale Illusion, die sie umgibt: die Vorstellung, „die Maschine“ denke. Eine Illusion, die sich auch bei Veranstaltungen wie derjenigen beim LICHTER Filmfest nicht ganz auflöst – selbst wenn sich Kommandos, Ladezeiten und technische Störungen häufen. Vielleicht, weil – wie Philip E. Agre schon in den 1990er-Jahren warnte – das eigentliche Problem der KI nicht das ist, was sie tut, sondern welche Fiktionen wir auf sie projizieren.

Gestell und Sinn
Was hier also auf dem Spiel steht, ist nicht nur die Produktion von Bildern, sondern die Produktion von Bedeutung. Welche Art von technischer und kultureller Imagination entfaltet sich in diesen Szenarien? Was sehen wir, wenn wir einer Person dabei zusehen, wie sie mit einem KI-Werkzeug audiovisuelle Inhalte erzeugt? Und wie nehmen diese Menschen selbst diesen Prozess wahr? Was im Wettbewerb deutlich wurde: Mehr als die generierten Bilder selbst war es die Beziehung, die auf der Bühne stand. Eine spannungsreiche, instabile, mitunter frustrierende Beziehung zwischen Künstler*innen und ihren Werkzeugen. Diese Werkzeuge sind weder neutral noch passiv: Sie schlagen vor, begrenzen, fordern, versagen, sie tun so, als ob sie kooperieren würden.

Man könnte einwenden, dass das nicht wirklich neu sei. Auch in anderen kreativen Prozessen – der Maler mit seinem Pinsel, die Filmemacherin mit ihrer Kamera – greifen die Werkzeuge ein, stellen Bedingungen. Kein Werkzeug ist einfach nur folgsam, die Materie selbst war nie inert. Der Pinsel hat Textur, die Kamera erzwingt einen Bildausschnitt, Software stürzt ab: All das trägt wesentlich zu jedem kreativen Prozess bei. Doch mit der KI tritt etwas anderes auf: eine Interaktion, die zu antworten scheint – mit Intelligenz, mit Emotion, manchmal sogar mit Humor.

Was sich also ändert, ist nicht so sehr die Tatsache, dass die Werkzeuge am kreativen Prozess beteiligt sind – das waren sie immer –, sondern wie wir diese Beteiligung wahrnehmen. Die KI gibt etwas zurück, und dieses Etwas – oft irritierend treffend, erschreckend nah – wird als Vorschlag lesbar. In diesem Akt des Lesens neigen wir dazu, so zu tun, als ob da jemand wäre, der denkt. Selbst der Name, den wir dem System gegeben haben – „Künstliche Intelligenz“ – enthält bereits eine Fiktion: Etwas, das keine Bewusstheit, kein Verständnis, keine Erfahrung besitzt (denn ja, es besteht aus Materie, vielleicht aus vielen Körpern – Kabeln, elektromagnetischen Wellen, Siliziumkernen, Codezeilen, Lüftern, Festplatten – aber es besitzt keinen Leib), erscheint uns dennoch so, als bewohne es ein Inneres, als hätte es etwas Bedeutungsvolles zu sagen.

Mit anderen Worten: Wir projizieren auf diese Instrumente eine Form von Handlungsmacht, die sie nicht haben. Das Bild wird zum Berührungspunkt zwischen Kalkül und Begehren. Was sich verändert, ist nicht die Struktur des Mensch-Technik-Gestells, sondern die subjektive Erfahrung dieses Ensembles – sowohl auf der Seite der Produzierenden als auch auf der Seite der Betrachtenden. Das Werkzeug erscheint nicht länger nur als Verlängerung – des Auges, der Hand, des Willens –, sondern als ambivalentes Gegenüber. Wir schreiben ihm keinen eigenen Willen zu, aber es bleibt auch nicht völlig fremd. Noch bevor wir den Bildinhalt bewerten, werden wir dazu verleitet, ihm Glauben zu schenken.

Diese Verschiebung in der Wahrnehmung macht den Einsatz von KI in der audiovisuellen Produktion so komplex. Kling zum Beispiel, eines der von den Teilnehmer*innen meistgenutzten Tools, erlaubt es, aus Standbildern kurze Clips mit simulierten Kamerabewegungen, Lichtführung und Rhythmus zu erzeugen. Like magic. Aber es fängt nicht bei null an. Es schöpft aus einer trainierten Bibliothek, aus einem ästhetischen Repertoire, das bereits festlegt, was als „filmisch“ gilt: Flüssigkeit, Dynamik, Schärfe. Eine Ästhetik der Wiederholung, die Bekanntes neu anordnet, ohne seine Herkunft oder Wirkung zu hinterfragen.

Die Zusammenarbeit zwischen Mensch und Maschine findet also nicht im luftleeren Raum statt, sondern innerhalb eines durch Training und Wiederholung definierten Feldes, eines durch Kalkül regulierten Möglichkeitsraums. Und dennoch: Genau hier wird Bedeutung verhandelt. Genau hier wird entschieden, was übernommen, was abgelehnt, was transformiert wird. Denn selbst die glattesten, am perfektesten generierten Bilder tragen die Spuren ihres Ursprungs. Sie sind nicht nur Ergebnisse, sondern auch Symptome. Spuren eines Prozesses, der historische Daten, algorithmische Architekturen, Ladezeiten, Formatzwänge, gelernte Verzerrungen und kulturelle Erwartungen umfasst. Es reicht nicht, sie zu sehen. Man muss fragen, von wo aus sie überhaupt möglich wurden.

Wiederkehr der Illusion
Angesichts all dessen inszenierte das Event eine Art affektive Verhandlung. Eine performative Darstellung jenes Zwischenraums, in dem die Illusion – ja sogar das Verlangen – entsteht, dass dieses technische und digitale Gefüge denkt. Wir wollen es antworten sehen. Wir wollen in seinen Formen etwas Authentisches lesen, etwas Echtes.

Diese Projektion auf die Maschine ist nicht nur eine kulturelle Illusion – sie ist eine strukturelle Bedingung zeitgenössischer ästhetischer Erfahrung. Wir interpretieren so, als ob hinter dem, was wir sehen, ein Sinn stünde – als ob dieses Bild, diese Wortfolge, ihren Ursprung in einer Intelligenz hätte, die der unseren gleicht: einer Intelligenz, die verkörpert ist und mit Erfahrung, Affekt und Erinnerung einhergeht. Jede ästhetische Erfahrung impliziert auf gewisse Weise dieses „Als-ob“. Im Fall von KI-generierten Bildern aber erfordert diese Annahme ein noch wacheres Bewusstsein: das Bewusstsein, dass diese Antwort, diese Form nicht aus einem Körper, nicht aus einem Leben, nicht aus einem Gedanken stammt. Und dennoch müssen wir von ihnen ausgehend denken, fühlen, leben.

Filme haben immer in diesem doppelten Register funktioniert: Sie erzeugen Welten, denen wir beiwohnen, obwohl wir wissen, dass sie nicht real sind – und dennoch erleben wir sie, als wären sie es. Diese Illusion – die weder Täuschung noch Halluzination ist, sondern eine spielerische Form ästhetischer Teilnahme – stützt sich auf eine leibliche Disposition: eine bestimmte Aufmerksamkeit, eine Weise, präsent zu sein. Es geht nicht um einen naiven Glauben an die Realität des Gesehenen, sondern um ein Resonanzspiel zwischen dem, was das Bild anbietet, und dem, was unsere Körper erinnern, erwarten oder fürchten. Eine Art affektives Einverständnis zwischen der Welt des Films und der des Zuschauers.

Im Fall von KI-generiertem Kino allerdings gerät dieses Spiel aus dem Takt. Denn das, was uns da anspricht, entstammt keiner fühlenden Körperlichkeit, sondern algorithmischen Operationen. Und dennoch wird die ästhetische Erfahrung aktiviert: Wir lassen uns auf das ein, was wir sehen, obwohl wir wissen, dass dort niemand ist. Die Illusion funktioniert weiterhin, aber mit anderen Mitteln – und gerade in dieser Verschiebung zeigt sich etwas Grundsätzliches. Dass es nicht genügt, wenn uns ein Bild berührt, um bedeutsam zu sein. Dass diese Berührung statistisch sein kann, induziert, darauf programmiert, bedeutungsvoll zu wirken.

Genau darin liegt die eigentliche Herausforderung: zu verstehen, dass diese Bilder nicht leer sind, sondern voller Muster. Dass sie nicht harmlos sind, sondern normativ wirken. Nicht, weil sie eine explizite Ideologie transportieren, sondern weil sie ungehindert fließen. Weil sie – trotz einer gewissen Zufälligkeit – uns immer wieder das zeigen, was wir ohnehin zu sehen erwarten. Und dieses Funktionsprinzip trägt eine gefährliche Banalität in sich: so bedeutungsvoll zu erscheinen, dass wir zu fragen aufhören, was in ihrem Erscheinen, in ihrer Wirkungsweise auf dem Spiel steht. Dass wir darauf verzichten, kritisch hinzusehen, zu interpretieren, zu unterbrechen. Denn genau in der Unterbrechung all dieser Effizienz – all dieses Stroms von Bildern, die sich zu gut einfügen in das, was wir schon kennen – öffnet sich vielleicht ein Möglichkeitsraum für das Denken.

Nervöses Lachen
Unterbrechungen lassen das Befremdliche hervortreten. Und genau dort, im Übergang zwischen Wiedererkennen und Irritation, zwischen simulierter Geste und echter Emotion, setzt das Unbehagen ein. Es ist keine offensichtliche Angst, sondern etwas Tieferes: das Unheimliche. Die Rückkehr des Vertrauten in einer fremd gewordenen Form. Die Bilder, die wir bei diesem Event sahen, erschreckten nicht durch das, was sie zeigten, sondern weil in ihnen eine Leere spürbar wurde – ein Abgrund hinter all den Befehlen, Anpassungen und Wiederholungen. Diese Leere trat genau dann zutage, wenn das System versagte: Glitches, Verzerrungen, Bewegungen, die ihren Fluss verloren, Fehler, die die Illusion des Organischen brüchig machten.

Doch diese Momente entwerteten das Bild nicht. Im Gegenteil: Sie eröffneten eine kritische Möglichkeit. Wie ein Hammer, der nicht mehr schlägt und so in seinem Scheitern als bloßes Ding erscheint, so rissen auch diese Störungen die glatte Oberfläche des Simulakrums auf und legten dessen Zusammensetzung offen. In diesem Moment verlor das Bild seine Anmaßung und zeigte sich als das, was es ist: ein Artefakt, manchmal sogar ein lächerliches.

Ein Intermezzo gegen Ende der Veranstaltung machte dies deutlich. Eine Person aus dem Publikum fragte, ob es möglich sei, eine kurze Sequenz zu generieren, in der Putin und Trump vor dem Frankfurter Römer einen Walzer tanzen. Einer der Künstler*innen nahm die Herausforderung an – keine ganz einfache Aufgabe – und versuchte, ein Prompt zu formulieren, der die Zensurfilter des Programms umging, die die Bilder der beiden Politiker wahrscheinlich blockiert hätten. Um diese Schranke zu umgehen, lud der Künstler zwei namenlose Porträtfotos hoch und ergänzte nur knappe Hinweise zur Szene und zur Bewegung.

Das Ergebnis löste Gelächter im ganzen Saal aus. Doch es war ein unsicheres, nervöses Lachen. Vielleicht war es die unheimlichste Szene des ganzen Tages. Wir sahen, wie die Figuren tatsächlich tanzten, sich anlächelten, sich die Hände reichten. Doch plötzlich begannen ihre Gesichter zu verschwimmen. Sie waren nicht mehr jene unverkennbaren Gesichter, die man lieber nicht so oft sehen möchte. Es war verstörend, ihre Finger begannen ineinander überzugehen, ihre Form zu verlieren, als würde die Materie selbst ins Wanken geraten. Vielleicht lachten wir, weil uns dieses Bild für einen Moment den Spiegel vorhielt: Wir sahen, wie viel Wunsch wir in es hineinprojiziert hatten. Wie sehr wir wollten, dass es antwortet. 

Vielleicht war das Interessanteste an diesem Event gerade, dass es nicht erreichte, was es sich vorgenommen hatte. Es gelang ihm nicht, die künstliche Intelligenz oder ihre Funktionsweise in audiovisuellen Praktiken zu entmystifizieren. Doch es ließ deutlich erkennen, dass der Mythos nicht verschwunden ist – und wahrscheinlich nie verschwinden wird. Er ändert nur ständig seine Form. Und darin liegt seine Kraft: immer wieder Bilder hervorzubringen, die mehr zeigen, als sie zu erklären vorgeben. Bilder, die uns etwas zumuten – eine Ahnung, eine Spannung, eine Warnung, die sich anders nicht zeigt. Vielleicht wollen ja diese Bilder, dass wir ihre Spuren lesen, ihr Gerüst betrachten. Dieses Gerüst – technisch, ja, aber auch affektiv, kulturell, epistemisch – wird weiterwirken, auch wenn wir es ignorieren. Und genau deshalb lohnt es sich, hinzusehen. Innezuhalten. Die Schwierigkeit etwas länger auszuhalten, nicht zu schnell dem Trost des Vertrauten nachzugeben. Um weiterzudenken – gerade dann, wenn das Denken unbequem wird.

Marcela Hernández ist eine Philosophin aus Costa Rica. Sie hat an der Goethe Universität Frankfurt mit einer film- und medienphilosophischen Dissertation promoviert und ist bei der Hessischen Film- und Medienakademie tätig. Inhaltlich beschäftigt sie sich mit Fragen des Gestus, der Cultural Human-Animal Studies und der ästhetisch-filmischen Erfahrung.

Kategorie: GRIP-Blog

Schlagworte: Festival, Filmtechnik, GRIP-Blog, Webformat, Digitalisierung, Animation, Filmproduktion