Das neue Rowigotchi: Google Pixel 4a
Gestern habe ich meine Entscheidungsfindung für das neue Smartphone gebloggt, heute soll es nun über das Gerät selbst gehen: Ein Google Pixel 4a. Mittelklasse, relativ klein, Kunststoffgehäuse – so ziemlich das Gegenteil von meinem vorherigen Huawei Mate 10 Pro. Und für mich genau richtig.
Der erste Eindruck im Vergleich ist deutlich: klein! leicht!
Ersteres ist relativ. Die Zahlen sind deutlich: 154.2 × 74.5 × 7.9 mm für das Mate 10 Pro, 144 × 69.4 × 8.2 mm für das Pixel 4a. Gut 1cm kürzer, ein halber cm schmaler, etwas dicker. Auf dem Bild oben sieht man, dass das Pixel 4a in etwa so groß ist wie das Display das Mate 10 Pro (real etwa 2mm länger). Für das sichere einhändige Halten ist vor allem die Breite relevant, das sind also “nur” 5mm, aber das reicht. Will ich einhändig mit dem Daumen die entfernteste Ecke erreichen kann ich das Gerät problemlos leicht kippen und so alles erreichen.
Da beide Displays etwa gleich hoch sind ist der Unterschied in der Höhe nur in den Rändern der Geräte. Die hat das Pixel 4a auch noch, aber sie sind schmal. Da sie vorhanden sind, ist das Display plan und nicht über die Kanten gebogen. Letzteres sieht vielleicht schick aus, ist aber unpraktisch, wie ich am S10 Plus meiner Freundin erleben darf. Würde ich nicht haben wollen (sie auch nicht mehr).
Die Größe wird sehr relativ, wenn du auf das Bild rechts blickst. Da liegt das Pixel 4a auf dem Mate 10 Pro (beide in durchsichtigen Schutzhüllen) und man kann sehen, wie wenig es wirklich ausmacht. Aber das Wenige reicht, dass es sich für mich einhändig bedienen lässt. Ungewohnt ist es Anfangs dennoch.
Das Gewicht ist sachlich korrekt, von 178g auf 143g sind knapp 20% weniger und schon fast auf vor-Smartphone-Niveau. In Kombination mit den etwas kleineren Abmessungen ist der Unterschied sehr deutlich. Die ersten Stunden fühlt sich das Pixel fast wie ein Spielzeug an. Hat man sich dran gwöhnt hat man beim Mate das Gefühl, einen Ziegelstein in die Hand zu nehmen.
Schwere empfindet man oft als Wertigkeit, das will sich bei mir aber nicht mehr einstellen. Weder beim Mate 10 Pro, noch beim Galaxy S10 Plus meiner Freundin oder dem iPhone 7 Plus das ich hier auch noch habe. Sie fühlen sich im Vergleich zum Pixel 4a nur klobig an.
Nach dem ersten Eindruck geht es zu den weiteren Hardwareeigenschaften und dem Wichtigsten: die Software.
Hardware
Die weiteren technischen Daten sind wohl bekannt, ich werde sie daher nur kurz anreissen.
Typische Mittelklassehardware: Snapdragon 730G CPU, 6GB RAM, 128GB Speicher (nicht erweiterbar). Kein Wireless Charging, aber natürlich NFC. 5,81 Zoll Display über die gesamte Vorderseite ohne Notch, dafür Punch-Hole Frontkamera.
Die Hauptkamera ist wie beim Pixel 2, 3 und 3a der gleiche Sony IMX363 12,2MP Sensor mit f1.7 und optischer und elektronischer Bildstabilisation. Das wirkt sehr aus der Zeit gefallen, dass das kein Nachteil sein muss siehst du unten.
Das Gehäuse besteht komplett aus Kunststoff. Das macht es leicht und im Vergleich zu Glasoberflächen weniger rutschig und anfällig. Es ist natürlich auch günstiger in der Produktion und es kommt kein Premium-feeling auf. Billig wirkt es aber auch nicht, eher pragmatisch genau Richtig.
Bei der Farbe hält es Google genau wie Henry Ford: du kannst jede Farbe haben, solange sie schwarz ist. Ganz neu gibt es eine hellblaue Sonderedition, aber wohl auch wegen der Corona-bedingten Verzögerung hat Google ansonsten die SKUs (stock keeping units) auf 1 reduziert: 128GB in Schwarz.
Ich habe mein Pixel 4a aber mit einem Skin von dbrand individualisiert:
Das ist eine 3M Folie in der Farbe “Pastel Schwarz” im Precision Fit der auch die Seite umschließt. Es gibt auch noch einen Standard Fit, das ist dann nur die Rückseite. Bei dbrand sind immer beide Varianten in der Packung und ich habe erstmal den etwas schwerer anzubringenden Precision Fit probiert und es hat auf Anhieb funktioniert. Nur bei den Ecken muss ich nochmal nacharbeiten, aber das ist Kleinkram. Das Material ist optisch sehr fein, aber fühlt sich griffiger an, als die nackte Oberfläche des Telefons – und die ist schon gut im Vergleich zu den meißten anderne Geräten.
Die Folien von dbrand kann ich wirklich empfehlen, Nachteil ist allerdings der Versand aus Canada, das hat bei mir fast 4 Wochen gedauert trotz der angeblich schnelleren Lieferung mit DHL. Auch das Tracking taugt nichts. Davon abgesehen aber
Ansonsten verwende ich das Gerät wirklich nackt, zum Transport nutze ich eine rustikale Einsteckhülle von Feuerwear, Mitch 6 passt perfekt.
Software
Das Android ist so pur, wie es nur sein kann. D.h. fast, es gibt für die Pixel Geräte ein paar Goodies die andere Hersteller nicht bekommen. Die Google Kamera ist eines davon, die SmartHome Steuerung hinter dem Power-Button ein Anderes.
Im Vergleich zu allen anderen Geräten, die ich in den letzten 11 Jahren hatte, ist das System so wirklich am stimmigsten. Dass Hardware und Software aus einer Hand kommen ist spürbar, trotz der auf Papier eher mittelprächtigen Hardware läuft alles flüssig. Nur bei einigen Effekten der Kamera muss man einen Moment warten. Das beeinträchtigt aber nicht die Aufnahmegeschwindigkeit, sondern nur die Anzeige.
Das Android wird auch von Google mit Updates versorgt. Erschienen ist es in den USA im August noch mit Android 10, mein Gerät hatte aber schon Android 11 installiert. Nächstes Jahr kommt Android 12 und ich vermute es wird auch noch Android 13 bekommen.
Monatliche Sicherheitsupdates kommen jeweils Abends am ersten Montag des Monats. Das Pixel 4a ist mein erstes Gerät, das die Updates so einspielt, wie Google es mit Android 8(?) grundsätzlich eingeführt hat, aber wohl von keinem Hersteller genutzt wird: Das Gerät hat zwei Betriebssystembereiche. Das Update wird heruntergeladen und auf dem inaktiven Bereich installiert. Im Hintergrund, man merkt davon nichts. Auch das optimieren der Programme, das sonst beim ersten Start efolgt, wird schon gemacht. Um das Update zu aktivieren muss man nur einmal neu starten und das fertig installierte neue System startet. Das dauert nicht länger, als jeder andere Start.
Zur Erinnerung nochmal meine Kriterien:
- gute Kamera
- glaubwürdige Aussicht auf längere Updates (oder Custom-ROM Support)
- möglichst sauberes Android
- etwas kleiner
- wenn möglich Mittelklasse, ich will keine 1000€ für ein Topmodell ausgeben, dafür sind auch andere Kompromisse möglich
Ein Mittelklassegerät für 340,20€. Etwas kleiner, so dass es gut mit einer Hand zu bedienen ist und ein sauberes Android mit zuverlässigen Updates. Es fehlt also nur noch mein erster Punkt:
Kamera
Das Kamerasetup ist wie erwähnt sehr koventionell, um nicht zu sagen: alt. Diese Kobination gab es schon im Pixel 2, 3 und 3a.
Selbst Mittelklassegeräte haben heute schon oft mehrere Kameras, Google setzt weiterhin auf nur Eine. Und auf seine Software.
Warum die Software so viel erreichen kann:
Das Bild, das wir als Ergebnis bekommen, ist bei allen Digitalkameras immer nur eine Interpration der Rohdaten des Sensors. Wenn man das Motiv kennt ist es einfacher, die Daten passend zu interpretieren. Und die Google Kamera ist sehr gut darin, das Motiv zu erkennen und die rohen Sensorwerte gut zu interpretiere.
Den Unterschied kann man selbst sehen, wenn man seine Kamera auf Speicherung der Rohdaten einstellt. Das geht bei vielen oder den meisten Geräten. Auf meinem alten Huawei Mate 10 Pro war die Kamera nicht sehr gut darin, das Bild zu erkennen und hat immer recht pauschale Werte genommen. Nur bei Haut neigte sie zum weichzeichnen, das ist in Asien wohl ein beliebter Look. Unser Kater bzw. sein Fell wurde für mich da zum Benchmark, die Huawei Software hat spätestens mit ihrer starken Komprimierung das Fell verkleistert. So sehr, dass ich darüber einen eigenen Beitrag geschrieben habe. Was man mit der manuellen Interpretation der Bilder herausholen kann habe ich beim Mate 10 Pro regelmässig gesehen, meine Interpretationen waren idR. natürlicher und nicht zuletzt weil ich die Bilder nicht so sehr komprimiert habe auch feiner. Die Kamerahardware könnte es also, es ist die Software, die nicht optimal arbeitet.
Die Google Software ist wie gesagt sehr gut darin, aus den Rohdaten das Motiv zu erkennen und passend zu interpretieren. Eine Katze wird anders behandelt, als eine Landschaft und in einer Landschaft der Himmel anders als die Berge. Mit dem Fell unseres Katers hat die Kamera übrigens überhaupt keine Probleme. Ich könnte auch hier die Speicherung der Sensorrohdaten (RAW) aktivieren, aber hab bisher noch nie dran gedacht. Die Bilder sind schon so gut, dass ich sie nicht verbessern wollen würde.
Dadurch gelingt es der Google Kamera das Objekt im Vordergrund zu erkennen und z.B. im Portraitmodus einen Bokeh Effekt hinzuzufügen und den Hintergrund verschwimmen zu lassen. Ganz ohne zweite Kamera oder Tiefensensor. Und da das Objekt im Vordergrund für die Berechnung ja eh schon freigestellt wurde, kann man auch noch andere Effekte gezielt auf z.B. den Hintergrund anwenden. Das geht übrigens auch nachträglich:
Die Interpretation des gemachten Bildes fängt schon lange an, bevor das Bild wirklich gemacht wird. In dem Moment, indem man die Kamera-App öffnet, fängt sie an Fotos aufzunehmen. Eine endlose Reihe von Bilder in einem Ringspeicher, der immer wieder überschriebenn wird. Wenn man dann auf den Auslöser drückt wurde das Foto schon aufgenommen. Es gibt keine Verzögerung vom Entschluss im Kopf, über die Fingerbewegung und Reaktionszeit in der Kamera. Das Bild wurde ja schon aufgenommen, als man sich bewusst wurde, dass man es haben will. Und die Millisekunden davor und danach genauso. Die Kamera nimmt je nach Motiv auch noch die 9-15 Bilder um diesen Moment und kombiniert sie zu einem Bild.
Das alles geschieht schon, bevor es daran geht, die Rohdaten des Sensors zu interpretieren. Das Bild des Sensors wird auch schon für diese Endlosaufnahmen ausgewertet, so wird z.B. bei Tieren oder Kindern die Verschlusszeit verringert, um plötzliche Bewegungen einfangen zu können. Um dennoch genug oder mehr Licht zu haben werden wiederum mehrere Aufnahmen kombiniert. Das macht die Software vor allem auch beim Nachtmodus und dessen Steigerung, dem Astromodus für Sternenfotografie.
Auch im Nachtmodus verwendet die Software mehrere Aufnahmen und kombiniert diese. Jede einzelne Aufnahme ist dabei etwas länger, aber kurz genug, damit man das Bild nicht verwackelt. In Summe hat die Software dann doch genug Lichtinformationen vom Sensor für ein schönes Bild.
Auch hier kommt die Motiverkennung zur Entfaltung: unterschiedliche Bildbereiche werden auch unterschiedlich behandelt. Eine lange (Reihen-) Belichtung lässt auch eine dunkle Szene heller erscheinen, aber es wirkt dann leicht unnatürlich. Das berücksichtigt die Software und behandelt z.B. den Himmel anders, als den Vordergrund. Die “Magie” hinter dem Nachtmodus hat Google hier gebloggt und auch auf Konferenzen vorgetragen.
Was das praktisch bedeutet konnte ich vor ein paar Wochen Nachts spontan ausprobieren. Unser Kater lag in einer sehr hellen Nacht am Fenster und beobachtete die Straße. Das habe ich mit den drei Smartphones die ich liegen hatte fotografiert. Alle mit ähnlicher Hardware was Alter und Konfiguration angeht: ein iPhone 7 Plus (Ende 2016), ein Huawei Mate 10 Pro (Ende 2017, den SW Sensor können wir wohl ignorieren) und das Pixel 4a, das zwar neu ist aber eine Hardware hat, die schon seit dem Pixel 2 von Ende 2017 so eingesetzt wird:
Das iPhone hat keinen dedizierten Nachtmodus und generell fast keine manuellen Kontrollen. Die Software sorgt aber auch hier für die guten Ergebnisse, für die das iPhone bekannt ist.
Mit dieser Szene hat die Software aber ihre Probleme. Belichtet für 1/4 Sekunde bei ISO800 erkennt man zumindest den Himmel, der Rest ist aber eher schwarz:
Das Mate 10 Pro schlägt sich besser. Ich habe den Nachtmodus aktiviert und es ansonsten auf Automatik gelasssen. Es hat die Szene mit 1/2 Sekunde doppelt so lange belichtet und ist auf ISO1000 gegangen.
Das Ergebnis ist ein deutlicherer Himmel mit den Wolken und man erkennt die Silhuetten der Häuser:
Das Pixel hat den Nachtmodus direkt vorgeschlagen (das Pixel 4a 5G und Pixel 5 können ihn auch automatisch aktivieren), das habe ich auch getan. Der Rest blieb wieder auf Automatik. Auch das Pixel hat nominell 1/2 Sekunde belichtet, ist aber auf recht hohe ISO6240 gegangen. Nominell deshalb, weil es mehrere Aufnahmen (4 oder 5) gemacht und diese kombiniert hat zu einem Bild. Das Resultat ist ein klar erkennbarer Himmel und Wolken und die Häuser sind nicht nur Silhuetten, sondern die Dächer sind bis auf einzelne Dachpfannen genau aufgenommen. Wer zählt sie nach? Und man erkennt erstmals sogar den Kater:
Die Nacht war real in etwa so hell wie auf dem Bild des Pixels. Das hat es wirklich gut eingefangen. Nur den Kater konnte man als Mensch natürlich viel genauer erkennen.
Die Szene ist fies, aber zeigt gut, was Software zu leisten in der Lage ist und dass Software den Unterschied macht.
Auf die Spitze getrieben hat Google den Nachtmodus mit der Astrophotografie:
Denkt man die Mechanismen des Nachtmodus etwas weiter landet man am Himmel. Um Sterne aufzunehmen braucht man Licht. Sehr viel mehr Licht, als nur am Abend. Aber da geht doch was!
So in etwa haben die Leute bei Google wohl gedacht und die Astrophotografie entwickelt (und hier ausführlich beschrieben). Lange belichten allein reicht da nicht, wenn man mehrere Minuten belichtet sieht man die Bewegung der Sterne am Himmel. Es wären also keine Punkte, sondern Striche. Die Google Kamera des Pixel nimmt dadurch bis zu 15 Bilder zu je maximal 16 Sekunden auf und kombiniert diese zu einem Bild. Es ginge auch mehr, aber so kommt man auf 4 Minuten Aufnahmezeit und mehr will wohl niemand warten. Also limitiert die Software es auf diese 4 Minuten.
Vorraussetzung dafür ist neben Dunkelheit, dass das Telefon still steht oder liegt, man es also nicht in der Hand hält. Im Nachtmodus aktiviert sich der Astromodus (nur) automatisch, wenn es Dunkel genug ist und das Telefon auf einem Stativ oder ähnlich fest steht. Ich habe mir dieses Stativ gekauft und kann es für Smartphones empfehlen.
Die Ergebnisse sind wirklich beeindruckend:
Der Sternenhimmel allein ist übrigens sehr langweilig auf so einem Bild, hier machen die Wolken es erst richtig interessant.
Mit Objekten im Vordergrund wird es noch beeindruckender, hier unser Dorfkrug mit Bäumen. Man erkennt das Gebäude (die Beleuchtung unten kommt nur von den Notausgangsschildern!) und den Sternenhimmel darüber. Dahinter liegt Flensburg, daher ist der Himmel nie wirklich dunkel:
Um die Sterne wirklich zu sehen musst du einmal draufklicken für das Originalbild.
Und ich habe mich auch schon an künstlerischer Verwendung des Astromodus gemacht, dieses Bild nenne ich “Der Garten schläft”:
Fazit
Wie man unschwer herauslesen kann bin ich sehr angetan vom Pixel 4a. Für meine Bedürfnisse wäre es Verschwendung, mehr Geld auszugeben.
Das Telefon liegt gut in der Hand, macht tolle Fotos und bekommt pünktlich seine Updates. Bei der Mittelklasse können mit Topmodelle gestohlen bleiben
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt