AI Food Photography 2026: Enhancement statt Fantasy
2026 wird AI im Food-Bereich weniger zur Traumfabrik und mehr zum präzisen Werkzeug: für Licht, Textur und Konsistenz. Wer Produkt und Marke ernst nimmt, nutzt GenAI nicht zum Erfinden, sondern zum Veredeln – und spart dabei Zeit, Nerven und oft auch Budget.
By Thomas Fenkart · 6 min read
Man merkt’s gerade ziemlich deutlich: Die Phase, in der Food-Visuals mit AI vor allem „Wow, das sieht ja aus wie aus einer anderen Welt“ sein mussten, läuft aus. 2026 ist fast das Gegenteil spannend. Enhancement statt Fantasy. Also: echte Produkte, echte Sets, echte Markenlogik – und AI eher als unsichtbarer Co-Operator, der Dinge korrigiert, glättet, angleicht. Nicht, um die Realität zu ersetzen, sondern um sie verlässlich zu reproduzieren. Ich komme aus der Film-/Post-Ecke, und das fühlt sich… vertraut an. Niemand diskutiert am Set ernsthaft, ob wir Colour Grading „brauchen“. Die Frage ist eher, wie viel – und ob es nach Absicht aussieht oder nach Unfall. Genau in dieser Zone landet Food-Fotografie mit GenAI gerade. Und ja, ich ertappe mich dabei, wie ich bei manchen aktuellen „AI-Food“-Motive kurz hängen bleibe. Nicht weil sie schlecht wären. Eher weil sie so glatt sind, dass mein Kopf irgendwie auf Abstand geht. Warum „Fantasy Food“ 2026 müde wirkt Fantasy ist ein guter Trick, wenn du Aufmerksamkeit brauchst. Aber Aufmerksamkeit ist nicht automatisch Vertrauen. Bei Food ist das heikel, weil das Bild sofort eine sensorische Erwartung baut: Knuspert das? Ist das saftig? Ist die Sauce cremig oder eher… na ja, Kleister? Wenn AI dann etwas „verbessert“, das es im Produkt nicht gibt, hast du ein Problem – nur nicht so eins, das wie ein klassischer Retusche-Fail aussieht. Es ist subtiler. Der Kunde kann’s nicht benennen, aber irgendwas stimmt nicht. Und diese Art von Misstrauen ist Gift für FMCG, D2C-Food, Gastro – eigentlich für alle, die wiederkehrende Käufer wollen. Dazu kommt: Plattformen und Marktplätze werden strenger. Wer schon mal für einen großen Retailer oder Delivery-Partner produziert hat, kennt diese unangenehmen Rückfragen: „Ist das wirklich so groß?“, „Ist das wirklich so viel Käse?“ oder der Klassiker: „Bitte ohne irreführende Darstellung.“ AI-Fantasy liefert da eher mehr Angriffsfläche als weniger. Und dann ist da noch der Zeitgeist. Die Leute sehen mittlerweile täglich generierte Bilder. Der „AI-Look“ ist keine Magie mehr, sondern eine Textur. Man erkennt ihn. So wie man irgendwann Stock-Fotos gerochen hat. Ich bin mir nicht sicher, ob das an bestimmten Lichtkanten liegt oder an dieser „zu perfekten“ Materialität – aber wenn man ihn einmal sieht, sieht man ihn überall. Enhancement heißt: sauberes Basismaterial – und AI macht’s robust Das Missverständnis: Enhancement bedeutet nicht „wir fotografieren schlampig und AI rettet’s“. Es bedeutet, dass du ein solides, ehrliches Ausgangsbild produzierst (oder ein 3D/CGI-Basissetup, wenn’s Sinn macht) und AI dann dort ansetzt, wo klassische Postproduktion entweder zu langsam, zu teuer oder einfach zu fragil ist. Was 2026 realistisch viel bringt, ohne ins Fantasieland abzudriften: - Mikro-Konsistenz über Serien hinweg: Wenn du 40 Motive für eine Kampagne hast, willst du nicht, dass die Petersilie mal sattgrün, mal gelblich ist oder die Sauce mal spiegelnd, mal stumpf. AI kann diese Serien-Logik erstaunlich gut stabilisieren – vorausgesetzt, du definierst die Referenz sauber. - Lichtkontinuität als Produkt-Asset: Im Film reden wir ständig von „Continuity“, Food-Foto hat das gleiche Problem. Ein Set wird über Tage geschossen, jemand stellt das Keylight minimal anders, plötzlich wirkt die Packung flach. AI kann Lichtcharakteristiken angleichen (Highlights, Shadow Softness, specular roll-off), ohne das Produkt neu zu „erfinden“. - Textur-Rettung, die nicht nach Plastik aussieht: Jeder, der schon mal Burger oder Eis fotografiert hat, kennt die Tragödie: In echt sieht’s nach 90 Sekunden anders aus. Enhancement heißt hier nicht, ein neues Eis zu generieren, sondern das vorhandene Eis wieder so aussehen zu lassen wie 30 Sekunden nach dem Aufbau. Minimal. Plausibel. - Cleanup, aber ohne sterile Perfektion: Krümel weg, Fingerabdruck weg, Staub weg – klar. Aber Holzmaserung totretuschieren oder jede unregelmäßige Blase in einer Sauce glätten? Dann wirkt’s wie Render. AI kann „natural cleanup“ besser, wenn man sie dazu zwingt: lieber weniger als mehr. Was wir intern bei Not Another Mate (und auch bei Produktionen, die ich außerhalb gesehen habe) immer wieder sagen: AI ist am stärksten, wenn sie Entscheidungen nicht ersetzt, sondern repetitive Mikroarbeit frisst. Klingt simpel, aber das ist oft der Unterschied zwischen „wir sind schneller“ und „wir liefern random“. Ein Workflow, der sich 2026 durchsetzt, ist so etwas wie Locked Look + Controlled Variations: Du definierst einen Look (Farbwelt, Kontrast, Lens-Charakter, Grain/no Grain, Whites nicht clippen, Schwarzpunkt etc.), sperrst den ab, und lässt AI nur innerhalb dieser Leitplanken arbeiten. Dann kann sie z.B. Varianten für unterschiedliche Formate erzeugen (9:16, 1:1, 4:5), ohne dass plötzlich der Teller ein anderer wird oder die Nudeln neue Physik bekommen. Klingt trivial. Ist es aber in der Praxis nicht – und genau da scheitern viele Teams: Sie geben der AI zu viel Freiheit, weil sie „kreativ“ sein soll… und wundern sich, dass der Brand-Look ausfranst. Wobei: Manchmal will man ja genau dieses Ausfransen, nur dann sollte man es halt auch so nennen und nicht „Enhancement“. Der neue Realismus: rechtlich, ethisch, markentechnisch Wir werden 2026 mehr Gespräche darüber führen, was eigentlich noch Enhancement ist. Nicht nur aus Moral, sondern weil es messbare Folgen hat. Wenn du eine Pizza fotografierst und die AI „macht den Käse appetitlicher“, ist das oft nur ein anderes Wort für: mehr Käse. Und wenn der Kunde dann eine andere Menge bekommt, ist das nicht mehr Stil, sondern Versprechen. Ich bin da relativ streng: AI sollte nicht die Produktmenge, Produktform oder Produktbestandteile verändern. Licht, Farbe, Schärfe, minimale Textur-Reparatur – okay. Aber keine Fantasie-Zutaten, kein „bisschen mehr Füllung“, keine unrealistischen Dampf- oder Glanz-Effekte, die das reale Produkt nie liefert. (Und ja, ich weiß: Genau diese Effekte verkaufen sich manchmal gut. Das ist der Punkt, an dem’s unangenehm wird.) Das Gute daran: Wenn man diese Grenze akzeptiert, wird das ganze Setup plötzlich entspannter. Du kannst AI als Produktionspartner einsetzen, ohne ständig Angst zu haben, dass dir jemand die Motive um die Ohren haut. Heißt aber auch: mehr Verantwortung am Anfang. Bessere Setups, sauberere Referenzen, klare Do/Don’t-Regeln im Team. Ein bisschen weniger Spieltrieb. Dafür Ergebnisse, die man auch noch in sechs Monaten anschauen kann, ohne dass sie nach „AI 2024“ wirken. Am Ende ist es wie beim Grading: Die besten Eingriffe sieht man nicht. Man fühlt sie. Das Bild wirkt einfach stimmig, lecker, glaubwürdig. Vielleicht ist das die eigentliche Reife von AI in Food Photography: Nicht, dass sie alles kann – sondern dass wir endlich wissen, was sie nicht tun sollte. Und trotzdem frage ich mich manchmal, wie streng diese Grenze in der Praxis wirklich bleibt, wenn der Druck auf „mehr Appetit“ wieder steigt…