28

Fotobearbeitung gone wild

Kevin Karsch, Varsha Hedau, David Forsyth und Derek Hoiem haben eine Methode der Fotobearbeitung entwickelt („Manipulation“ ist sicher das richtigere Wort dafür), die ein äußerst realistisches Einfügen von computergenerierten und auch animierten Objekten in Fotos erlaubt, das Video zeigt, dass dies in naher Zukunft auch Anwendern ohne besondere Kenntnisse möglich sein soll.

Was das Video nicht zeigt: Wie schnell sich die Werbeindustrie und Facebook auf solche Technologien stürzen werden, um Werbe-Objekte subtil und automatisiert in unsere Fotos einzusetzen – erst nach unserer Genehmigung, versteht sich.

Und in ein paar Jahren werden wir selbst glauben, dass wir auf der tollen Party damals diese eine Biermarke getrunken haben. Ob es wirklich so war… daran wird sich dann niemand mehr erinnern können.

[via, via]

28 Kommentare

  1. 01

    Ein Label auf ’ne Bierflasche pappen geht schon lange. Die Technik dafür wurde in den 90ern von einer israelischen Bude (Name vergessen) entwickelt, um Stadionwerbung im Fernsehen zu überkleistern.

  2. 02

    Für Videos wird das noch interessanter. Immerhin werden Filmeffekte besser. Simulationen echter, also Unfallrekonstruktionen, Wohnungseinrichtungen oder Operationen. Alles kann man nochmal oder noch vor Beginn „anfassen.“

  3. 03

    Na, ich denke mit automatisieren ist da nicht viel. Die relevanten Informationen werden alle händisch erstellt. Denn die Raumdefinition und die Extrusion der „Störobjekte“ sowie die Einzeichnung der Lichtquellen samt deren Leuchtrichtungen ist etwas was algorithmisch scheinbar fast unmöglich, für das menschliche Gehirn aber intuitiv zu erkennen ist.

    Zudem hat die Lösung auch Grenzen. Ein schon beleuchtetes Objekt ist quasi unbrauchbar weil Farbwerte und Schattenwerte aus einem Bild nicht separiert werden können. Schatten werden als Szenen-Overlay auf das Objekt gelegt was viele Effekte (wie Transluzenz) ausschließt und generell wirkt der Effekt vor allem auf einfarbigen Objekten.

    Die tolle Transparenzberechnung geht ganz sicher nur mit einer im Bild inkludierten Alpha-Map. Und deren Erstellung geht in der Qualität nur durch das Rendern dieses Objektes. Wenn aber sowieso ein 3D-Objekt erstellt werden will dann kann das Compositing auch klassisch in einer 3D-Anwendung erfolgen. Der Zeitaufwand dürfte ähnlich sein.

    Trotzdem eine tolle Anwendung. Hat sie doch das Potenzial uns vor ganz vielen grafischen Verbrechen in den Schweinebauch-Anzeigen (der Möbelhäuser u.ä. Branchen) zu erlösen.

    Aber fotorealistisch und sich unkennbar in die Szene einfügende Objekte on-the-fly? Never! Zumal sich unsere Sehgewohnheiten im ständigen Fluss befinden und wir ständig darauf trainiert werden digitalen Content von echtem Bildmaterial zu unterscheiden.

  4. 04
    Robert

    „Ob es wirklich so wahr“ ….
    Wahr ist was wahr ist, dass das was war nicht mehr da ist.

  5. 05
    honk

    @epospecht: doom hatte damals auch eine realistische darstellung und niemand konnte sich vorstellen, das die grafik irgendwann mal ein „realistisches“ aussehen haben sollte, wie bspw. bei cod. ich denke, das mit diesem programm in eine neue richtung gewiesen wird.

  6. 06

    @honk: Auch dieses Programm muss mit Wasser kochen.
    Und wir schauten nur ein Werbevideo. Also bitte nicht ins Schwärmen geraten ;-)

    Die Geometrieselektion kloniert fast komplett die Oberfläche SketchUp`s. Wobei das nicht schlecht sein muss.

    Aber wie gut die Algorithmen funktionieren wird dann erst das fertige Programm zeigen.

    Der Vergleich zu Doom hinkt hingegen. Tolle Grafik gab es damals wie heute vor allem in der CGI Branche. Die Gamingbranche eifert diesen Entwicklungen dann immer nach. Wobei sie durch das Echtzeitrendering stark in ihrer Innovationskraft gehindert wird.

  7. 07
    niclas trouble

    Ich bin Fotograf und habe Angst um meine Zukunft!

  8. 08
    Ben

    Die ersten Sekunden sehen beeindruckend aus… doch wenn man dem Computer manuell derart genaue Informationen über Geometrie und Lichtquellen geben muss ist das alles nur noch halb so magisch wie es auf den ersten Moment wirkt. Ein weiterer kleiner Schritt zur Optimierung und Vereinfachung von Bildbearbeitung. Dass der Laie hier innerhalb von wenigen Minuten perfekte Bildmanipulationen vornehmen kann, das lässt sich hier allerdings nicht mal im Ansatz erkennen.

  9. 09

    Das einzige was da manuell eingegeben wird ist die Raumstruktur. Und die könnte mit einer Tiefenaufnahme (Kinect z.B.) sogar noch genauer erfasst werden.
    Das _ist_ voll automatisierbar.

  10. 10
    Jan Ok

    Ich hoffe es gelten bald keine Digitalen Objekte mehr als Beweise vor Gericht.

  11. 11
    Erik

    Eine schönes Projekt … aber spiegelnde Materialien bleiben hier komplett außen vor. Und da hat der Ansatz aktuell seine Grenzen. Ohne Reflektions-Informationen (zB. mittels Reflection-Sphere) können solche Materialen nicht realistisch / automatisch integriert werden. Ich bin gespannt wie sich das weiterentwickelt.

  12. 12
    mmm

    „Und in ein paar Jahren werden wir selbst glauben, dass wir auf der tollen Party damals diese eine Biermarke getrunken haben. Ob es wirklich so wahr… daran wird sich dann niemand mehr erinnern können.“

    zum thema erinnerung:
    http://www.wdr.de/tv/quarks/sendungsbeitraege/2010/0316/005_erinnerung.jsp

  13. 13

    Ich glaube Wahnnsinn beschreibt das am besten. Es ist waaaahansinnig interessant, einfach genial sowie auch erschütternd. Realität und Fiction verschwimmen. Das ist die Macht über die Zukunft UND die Vergangenheit.

  14. 14

    @carsten:

    Und wie bekommst du eine Tiefen-Map in irgendwelche Facebook Photos?

    Grundsätzlich stimme ich dir (mit Einschränkungen: Tiefenerfassung funktioniert nur in kleinen, abgeschlossenen Räumen) zu. Aber bis Digicams einen Tiefensensor besitzen, es ein einheitliches Bildformat dafür gibt und das dann von der typischen Userschaft auch benutzt wird geht noch viel Zeit ins Land.

    Und btw. eine Tiefenkamera erkennt nur dem Betrachter zugeneigte Objekte. Also nichts was in deren Schatten vorhanden ist (das kann höchstens algorithmisch erraten werden). Das ist für Streulichtberechnungen (Ambient Occlusion) aber sehr wichtig. Also ist man vom Photorealismus noch meilenweit entfernt.

  15. 15
    Fufu

    Sowas, viel viel viel einfacher, wünsche ich mir in Photoshop schon seit Jahren, einfach zum verzerren…

  16. 16
    Elblette

    @epospecht: Es ist jetzt nur ein Forschungsprojekt, aber mit meilenweit wäre ich vorsichtig. Mal abgesehen davon, dass unsere Wahrnehmung, was „echt“ oder „unecht“ aussieht, zusehends verschwimmt. Der Umgang mit Bildern und Realität wird spannend in nächster Zeit.

  17. 17
    konstantin

    es kommt mir gerade so vor als würden die oberflächlichen grenzpfosten dieser neuen digitalen welt neu gesteckt (und das nicht erst seit gestern) das was oberflächlich ist wird zum inhalt gemacht und der inhalt selbst fehlt da man sich auf essenzielle grenzen noch nicht wirklich verständigt hat. auch die tollste neuste entwicklung wird keinen reelen wert in unser schödes leben voller unendlicher möglichkeiten bringen, der muss schon aus uns herraus entstehen. es wird lieber gleich auf die macht des kommerzes verwiesen der anscheinend das alles zum schlechten wieder ausschlachten wird (in der zukunft, natürlich) die frage ist doch wer macht irgendwas für einen nutzen solcher möglichkeiten jenseits vom kommerz?
    hat vielleicht jemand eine antwort?

  18. 18

    Das will ich auch können. So kann ich Partyfotos o. ä. aufpeppen.

Diesen Artikel kommentieren