iPhone 13-Kamera vor dem Start des iPhone 14: Apple und Android scheitern weiterhin daran, echte Kamerahandys herzustellen

Die Fotografie, wie Ihre Eltern oder Großeltern sie früher kannten, ist eine aussterbende Rasse.

Wenn vor 20 Jahren die Idee eines Fotos darin bestand, einen wichtigen Moment im eigenen Leben so authentisch wie möglich festzuhalten, leben wir heute in einer anderen Welt … Fairerweise besaß 1980 nicht jeder eine Kamera, und Telefone haben es geschafft, sie herzustellen diese einst unerreichbare Sache ist sehr zugänglich, was wunderbar ist!

Wie sich jedoch im Jahr 2022 herausstellt, dreht sich die Welt weniger um Authentizität als vielmehr darum, „alles besser zu machen“ – was auch immer das bedeuten soll. Heutzutage sollen Fotos (unter anderem) unsere Realität aufwerten und „cool and fun“ machen. Ihr Baby kann Hasenohren haben und Sie können Regenbögen kotzen.

Aber es gibt noch mehr als Snapchat-Filter, die das Aussehen Ihrer Fotos verbessern, und alles läuft auf etwas namens hinaus computergestützte Fotografie. Es ist der „versteckte Filter“, der Fotos, die mit Ihrem Telefon aufgenommen wurden, aussehen lässt, als wären sie bereit, online geteilt zu werden.

Dieses kleine Experiment wird versuchen, die Vor- und Nachteile moderner Computerfotografie-fähiger Telefonkameras aufzuzeigen, und das Telefon, das ich gewählt habe, ist das von Apple

– eines der beliebtesten Telefone der letzten zehn Monate.

Bevor ich Ihnen ein paar „Vorher-Nachher“-Beispielfotos zeige, lassen Sie mich etwas festhalten: Ich bin mir bewusst, dass Menschen Fotos mögen, die bereit sind, online geteilt zu werden. Und obwohl ich vielleicht keiner von ihnen bin, denke ich, dass ich vielleicht weiß, was hier passiert ist …

Kurz gesagt, soziale Medien spielten eine große Rolle bei der Nachfrage nach „Instagram-fähigen“ Fotos (das ist ein Begriff, den wir tatsächlich in der Tech-Community verwenden). Apropos Das Grammhat das soziale Netzwerk zum Teilen von Fotos und Videos seit seinem Erscheinen im Jahr 2010 die Verwendung von kräftigen Filtern mit übertriebenen Farben gefördert, denen die Leute einfach nicht widerstehen konnten, was natürlich bedeutete, dass Apple und Android an Bord sprangen …

Instagram war zum Beispiel der Grund Apple hatte das Bedürfnis, einen quadratischen Fotomodus in das iPhone 5S (2013) einzubauen, das fast ein Jahrzehnt lang Teil der iPhone-Kamera war. Noch wichtiger ist jedoch, dass dies ungefähr zu der Zeit war, als iPhone und Android damit begannen, Fotofilter zu ihren Standardkamera-Apps hinzuzufügen. Denn das Instagram-Fieber machte deutlich, dass die Leute Filter mögen.

Und dann … traten wir in die Ära ein, die ich „Filter auf Steroiden“ oder „Hardcore-Computerfotografie“ oder „ausgefeilte Filter“ nenne, wenn Sie so wollen. Das Telefon, das meiner Meinung nach die Einführung der „Hardcore-Computerfotografie“ darstellt, ist das von Google Nexus 6P. In diesem Telefon kam (die meisten) Computerfotografien in Form von etwas namens HDR+.

Was HDR+ tat, war „erweitertes Bildstapeln“. HDR+ war Teil der Nachbearbeitungsphase beim Aufnehmen eines Fotos mit dem Nexus 6P/Nexus 5X und hatte die Aufgabe, die Lichter und Schatten in kontrastreichen Szenen auszugleichen – eine der größten Herausforderungen für Telefone in den Jahren 2014–2015 ( neben der schieren Unfähigkeit, brauchbare Nachtfotos zu produzieren).

Wie auch immer, ein kurzes Urteil zu HDR+: Es hat das Nexus 6P zu einem der besten Telefone zum Fotografieren gemacht. Sicher, meine Voreingenommenheit spielt bei dieser Aussage eine Rolle (ich habe nie ein Nexus 6P gekauft, aber nur, weil ich es mir nicht leisten konnte), aber es war nicht zu leugnen, dass die etwas dunkleren Fotos, die Googles Flaggschiffe von 2015 gemacht haben, etwas hatten sehr ansprechend für sie. Andere Technikbegeisterte liebten sie auch.

Licht, Lichter und Schatten: Worum es beim Fotografieren wirklich gehen sollte

Erst vor ungefähr einem Jahr sah ich mir ein brillantes 24-minütiges Video von an David Imel Das hat mir geholfen, meine Gefühle über die Zeit zu verbalisieren, als das Nexus 6P und die Originalkameras von Google Pixel die Telefonkameraindustrie beherrschten.

Um 24 Minuten des Geschichtenerzählens zusammenzufassen, zieht David eine Parallele zwischen moderner Computerfotografie und klassischer Kunst, alles in dem Versuch, die Bedeutung des Lichts sowohl für die Fotografie als auch für die Malerei zu erklären.

Was er zu erklären versucht, ist, dass in den frühen Tagen der Fotografie die künstlerische Kontrolle/das künstlerische Element (in Fotos) vollständig „auf der Intensität der Lichter und der Tiefe der Schatten“ basierte – wie in Gemälden. Diese werden verwendet, um Gefühle auszudrücken und durch Tonalität in unseren Fotos Tiefe zu erzeugen. Dies wird besonders deutlich in der monochromen Fotografie, wo Licht, Schatten und Glanzlichter so ziemlich die einzigen Elemente sind, die Nuancen und Perspektiven erzeugen.

Aber, wie er sagt, „die Rechengeschwindigkeit schritt viel schneller voran, als sich die Physik veränderte“, und es sieht so aus, als ob ich deshalb viele der Fotos, die mein superstarkes iPhone 13 macht, nicht mag und wünschte, sie wären ähnlicher die ursprünglichen Google Pixel-Bilder.

iPhone 13, Galaxy S22, Pixel 6 machen Fotos, die nicht der Realität entsprechen und nicht immer ansprechender sind als das, was die reale Szene aussieht

Was wir hier sehen, sind ein paar Fotos, die ich mit dem iPhone 13 im vollautomatischen Modus aufgenommen habe. Es ist wichtig anzumerken, dass ich nicht angefangen habe, Fotos zu machen, um meinen Standpunkt zu verdeutlichen, aber die Fotos, die mir das iPhone 13 gab, waren der Grund, diese Geschichte zu schreiben …

Wie auch immer, die im Auto-Modus aufgenommenen iPhone 13-Fotos befinden sich auf der linken Seite und die gleichen iPhone 13-Fotos, die ich bearbeitet habe, auf der rechten Seite. Ich habe sie nicht nach meinem Geschmack, sondern nach der damaligen Authentizität der Szene (und nach bestem Wissen und Gewissen) angepasst.

Ich habe mich entschieden, die Fotos mit den Fotobearbeitungsfunktionen des iPhones zu bearbeiten, weil die meisten Menschen darauf Zugriff haben. Lightroom hätte mir natürlich viel mehr (und bessere) Kontrolle über die verschiedenen Eigenschaften der Bilder gegeben (die nicht im RAW-Format aufgenommen wurden), aber darum geht es hier nicht.

Wenn Sie neugierig sind, was mir bei meinem Versuch, die Fotos des iPhone 13 realistischer für die Szene zu machen, am meisten geholfen hat, war, die Helligkeits- und Belichtungsregler weit nach hinten zu ziehen. Das bedeutet, dass Fotos, die mit modernen Telefonen aufgenommen wurden, zu hell sind. Dann halfen mir einige Helligkeits- und Lichter- und Schattenanpassungen, ein noch genaueres Ergebnis zu erzielen.

iPhone 13, Galaxy S22 und Pixel 6 zeigen die Probleme moderner HDR- und Computerfotografie

Die Ergebnisse sagen mir, dass Computerfotografie auf Handys heute buchstäblich ein Hit oder Miss ist.

Einerseits werden einige Leute die Standardausgabe des iPhone 13, Galaxy S22 und Pixel 6 mögen (das Galaxy macht auch zu helle Fotos, während die Pixel unglaublich flach sind), weil sie „teilbar“ sind. Aber Selbst wenn wir die Authentizität beiseite lassen, würde ich argumentieren, dass die Verarbeitung des iPhones die Fotos nicht wirklich „besser“ aussehen lässt als die Szene. Werfen Sie einen weiteren Blick auf die oben gezeigten Beispiele. Welche Fotos gefallen dir mehr? Die links oder die rechts?

Apfel, Samsung, Google & Co haben in allen drei Bereichen erstaunliche Fortschritte gemacht, dank großer Kamerasensoren (Capture), schneller Prozessoren, einschließlich dedizierter Bildprozessoren (Process), und superheller und farbgenauer Bildschirme, auf denen Sie Ihre Fotos anzeigen können (Display). . Ich würde jedoch argumentieren, dass wir, wie es oft passiert, nicht wissen, wann wir aufhören sollen … Aus heutiger Sicht missbrauchen die meisten Telefonhersteller die unglaubliche Software- und Hardwareleistung, die die moderne Telefonkamera bietet.

Fotos und sogar Videos, die mit dem iPhone 13 und anderen modernen Telefonen aufgenommen wurden, wirken oft zu hell, zu überscharf, zu flach und schließlich „leblos“. Sicher, sie können sowohl die Lichter als auch die Schatten unglaublich gut einfangen und dank des Nachtmodus sogar die Nacht zum Tag machen, aber ohne das Element der Balance und des natürlichen Kontrasts werden Fotos, die mit den meisten Handys aufgenommen wurden, keine Gefühle hervorrufen …

Aber hey! Auf Instagram sehen sie gut aus.

Fazit: Dank Sony und Xiaomi ist Licht am Ende des Tunnels der Computational Photography

Um positiv zu enden, es gibt Licht (Wortspiel beabsichtigt) am Ende des Tunnels!

Im Gegensatz zu Apple und Samsung mögen Unternehmen Sony hat immer versucht, sich an die Grundlagen der Fotografie zu halten, und das wird durch die Tatsache deutlich, dass das Sony Xperia 1 IV eine unglaubliche Rechenleistung hat, aber nicht einmal einen Nachtmodus in seiner Kamera enthält. Das Telefon bringt auch den ersten kontinuierlichen Zoom auf einem modernen Smartphone mit, der einem “echten Kamerazoom” so nahe kommt, wie wir es je hatten. Und dann haben wir natürlich den Xiaomi 12S Ultra, das einen vollen 1-Zoll-Sensor und die Magie von Leica verwendet, um einige der besten Fotos zu liefern, die ich je von einer Telefonkamera gesehen habe (wenn nicht die allerbesten). Xiaomi und Leica entschieden sich dafür, die Schatten Schatten sein zu lassen, Überschärfen zu vermeiden und sich auf bahnbrechende Hardware zu verlassen, was (schockierend!) zu Fotos mit unglaublicher Tiefe und natürlichen Details führt.

Also fordere ich Apple, Samsung und sogar Google auf, zurückzugehen und sich das ursprüngliche Pixel anzusehen. Gehen Sie zurück und schauen Sie sich das iPhone 4S an (so unscheinbar seine Kamera heute erscheinen mag) und bringen Sie den Realismus in unsere Fotos zurück. Ich bin mir sicher, dass mit der zunehmenden Leistungsfähigkeit von Hard- und Software ein Hauch von Authentizität kann weit gehen!

Und wissen Sie – für diejenigen, die helle und satte Fotos wollen … Geben Sie ihnen Filter!

source site-33