Gerade sind neue Updates für Lightroom und Photoshop erschienen. Besonders wurden hier die neuen Möglichkeiten zur Erstellung von Auswahlen in den Vordergrund gestellt. Wie auch bei anderen Softwareherstellern, Produzenten unterschiedlichster Waren und nicht zuletzt bei unseren Politikern, wird alles Mögliche mit dem Siegel der „künstlichen Intelligenz“ auf ein scheinbar besonderes Niveau gehoben, das sich natürlich nicht auf unterster Ebene befindet, sondern in der Herrlichkeit des Neuen gleichzeitig auch das Bessere implementiert. Bezüglich der Neuerungen in Lightroom und der identischen Funktonen in Adobe Camere Raw habe ich mir diese „künstliche Intelligenz“ mal genauer angeschaut.
Wissen, Logik, Emotionen und Kreativität
Intelligenz kann nur beschrieben werden, wenn mehrere Faktoren zusammenkommen. Dabei sind alle Zutaten wichtig. Haben Sie schon einmal einen Text im Internet automatisiert übersetzen lassen? Die Ergebnisse sind erschütternd. Wir sind aber in der Lage, je intelligenter wir sind, desto besser, das Übersetzungschaos in eine sinngebende Form zu bringen und mit etwas Glück sogar den korrekten Sinn der Übersetzung zu erfassen. Wenn es eine funktionierende „künstliche Intelligenz“ gäbe, wären automatisierte Übersetzungen überhaupt kein Problem mehr. Doch werfen wir einen Blick auf die „künstliche Intelligenz“ in Lightroom.
Um es vorwegzunehmen, die neuen Auswahlerstellungsmöglichkeiten in Lightroom finde ich toll, doch auch hier stoßen die automatisierten Prozesse an ihre Grenzen. Dazu habe ich einige Versuche gemacht. Als Ausgangsfoto wurde von mir ein klassisches Durchschnittsmotiv einer Spaziergangsfotografie gewählt. Hier ging es hauptsächlich darum, klar strukturierte Bereiche im Foto zu erkennen; ich wollte es der „künstlichen Intelligenz“ nicht zu schwer machen.
Wenn ich Sie nun fragen würde, was in diesem Foto das Motiv ist, würden Sie wahrscheinlich sagen: „Der Schwan im Vordergrund.“. Wie Lightroom auswahltechnisch damit umgeht, sehen Sie im obigen Beitragsbild. Auf dem Foto sehen Sie im Vordergrund eine Rasenfläche auf der sich mehrere Schwäne befinden, im oberen Teil des Fotos, also im Hintergrund, befindet sich eine Wasserfläche, in der sich Blattwerk spiegelt. Farbmäßig liegt dieser Bereich nah an der Wiedergabe des Rasens im Vordergrund. Die Schwäne heben sich durch andere Farbgebung gut ab und der Schwan im Vordergrund ist der Einzige, der scharf abgebildet ist. Der Schärfe scheint aber bei der Auswahl nicht die größte Gewichtung zugefallen zu sein, denn sonst wäre der Schwan im Vordergrund alleine ausgewählt worden. Zur Ehrenrettung der neuen Funktion sei gesagt, dass ein Löschen der zuviel ausgewählten Bereiche in diesem Fall nicht nur schnell gemacht ist sondern auch die Geschwindigkeit einer manuellen Auswahl des vorderen Schwans übertrifft.
Bei folgendem Foto habe ich die Regler Struktur, Klarheit und Dunst entfernen in den negativen Bereich gezogen. Struktur und Klarheit auf -100 und Dunst entfernen auf -81.
Auch wenn das sicherlich keine sehr praxisnahe Einstellung ist, wäre ich doch in der Lage, eine manuelle Auswahl des Schwans zu erstellen. Lightroom macht Folgendes daraus:
Sowohl vorderer als auch rechter Schwan wurden korrekt ausgewählt, doch aus irgendeinem Grund wird der linke Schwan nicht wie im Beitragsbild berücksichtigt. Ich wollte das Ganze noch auf die Spitze treiben und habe das Originalfoto mit einem Gaußschen Weichzeichner mit einer Stärke von 75,5 Pixeln in Photoshop versehen. Das Ergebnis sehen Sie hier:
Die Auswahl, die Lightroom nun erstellt, ist jetzt nicht mehr zu gebrauchen. Sie sehen sie in folgendem Foto:
Selbst in diesem Foto wäre eine korrekte manuelle Auswahl möglich gewesen. Wo bleibt da die „künstliche Intelligenz“? Ein Pixel besteht aus einer Farbe, einer Sättigung und einer Helligkeit. Mehrere nebeneinanderliegende Pixel mit gleichen Werten bilden logischerweise eine homogene Fläche. Gibt es Abweichungen in der Pixelwiedergabe, kann das eine reine Änderung der drei genannten Faktoren bedeuten und somit z.B. eine Farb- oder auch Helligkeitsänderung im gleichen Objekt bedeuten. Es kann aber auch das nächste Pixel einer Kante eines Objekts sein, das schon den Hintergrund bildet.
Die Schärfeebene eines Fotos kann unter Umständen bestimmt werden, wenn die Informationen der verwendeten Focus Points von der Kamera in die Exif-Daten geschrieben werden. Zur Anzeige gibt es das z.B. das Plug-in Show Focus Points für Lightroom, . In Capture One und in DPP von Canon ist diese Funktion ebenfalls gegeben. Diese Informationen können natürlich auch für die Auswahl eines Motivs in Lightroom genutzt werden. Doch all das reicht scheinbar nicht aus, eine korrekte Auswahl zu erstellen.
Wir sehen z.B., wie weich eine Kante im Übergang zum Hintergrund ist und können dementsprechend z.B. die Kante eines Pinsels an diese Weichheit anpassen, was zu einer realistischen Maskierung führt. Wir können schauen und sagen: „Da ist der Übergang noch nicht sauber, da verändere ich mein Werkzeug nochmal!“ Kann das eine „künstliche Intelligenz“? Nein!!! Alle sogenannte „künstliche Intelligenz“ in Bildbearbeitungsprogrammen kann nur die vorliegenden Informationen in logischen Abläufen verarbeiten. Die Software weiß also viel und sie kann logische Vorgehensweisen daraus ableiten. Sie kann aber weder ein Gefühl für das vorhandene Pixelchaos entwickeln noch kann sie in irgendeiner Form kreativ sein. Trotzdem sind die neuen Auswahlmöglichkeiten klasse – besonders die Optionen Hinzufügen und Subtrahieren!!!