Du bist hier:  Seitenreport    Forum    Internes & Ankündigungen    Feedback    Ladezeit & Antwortzeit

Ladezeit & Antwortzeit

Verfasst am: 18. 03. 2017 [23:45]
Matthes
929 Beiträge
Evil Genius
Dabei seit: 08.05.2010

✓ Seitenreport Vorantreiber

Beitrag hilfreich?

Ich habe es jetzt einmal ausprobiert. Die fertige Binary gegen tinypng und jpegmini, alle in Standardeinstellungen, mit dem Beispielbild von GitHub und drei eigenen Fotos unterschiedlicher Größe, die alle den Hinweis von Guetzli erfüllen:
"Note that Guetzli is designed to work on high quality images (e.g. that haven't been already compressed with other JPEG encoders)"

Größenangaben in Bytes.

Guetzli-Beispiel "bees"
177.424

Guetzli
37.910 (21,37%)

jpegmini
ging nicht, Quelle ist png
tinypng
59.149 (33,34%)


Privates Foto 1
134.927

Guetzli
47.463 (35,18%)
jpegmini
20.971 (15,54%)

tinypng
33.280 (24,67%)


Privates Foto 2
1.595.290

Guetzli
581.659 (36,46%)
jpegmini
460.029 (28,84%)
tinypng
349.259 (21,89%)



Privates Foto 3
4.049.546

Guetzli
1.493.802 (36,89%)
jpegmini
1.260.747 (31,13%)
tinypng
1.041.044 (25,71%)


Guetzli gewinnt nur beim eigenen Beispielbild. Allerdings habe ich nicht weiter überprüft, ob jpegmini und tinypng eventuell die Qualität des Ergebnisses herunterdrehen, Guetzli lief auf 100%.

Bei den beiden großen Bildern lief Guetzli über 5 Minuten und hat bis zu 2,5GB RAM benötigt.

Für das letzte Bild habe ich Guetzli testweise noch einmal mit 84% Qualität laufen lassen (weniger geht mit den fertigen Binaries nicht und würde Veränderungen im Quellcode erfordern), das Ergebnis liegt aber auch über dem von tinypng:

Guetzli 84%
1.058.897 (26,15%)


Make Seitenreport great again!


Verfasst am: 19. 03. 2017 [15:13]
arnego2
134 Beiträge
Webmaster, SEO, Backlinks etc.
Dabei seit: 28.02.2017

Aktiver Schreiber

Beitrag hilfreich?

"Matthes" schrieb:

Ich habe es jetzt einmal ausprobiert.



Danke das ich nett von dir. Anscheinend ist Guetzli just another Google hype.



Verfasst am: 21. 03. 2017 [12:26]
Tattooentfernung
19 Beiträge
Tattooentfernung, Permanent Make-Up Entfernung und Altersfleckenentfernung
Dabei seit: 28.02.2017

Nicht Untätiger

Beitrag hilfreich?

Aus eigener Erfahrung mit dem Pagespeed:

Ich würde die Aussagen des Tools nicht immer für das "Optimum" nehmen. Ein Beispiel sind die Bildgrößen. Auch bei meiner Webpage zur professionellen Tattooentfernung wurde an den Bildern gemeckert (Kompressionsraten konnten immer angeblich zwischen 50-75% der größe der einzelnen Bilder einsparen.

Ich hab mich dann lange mit Bildgrößenoptimierung auseinandergesetzt und relativ viele Formate und Skalierungen ausprobiert. Meine Erfahrung war, dass ich ~10-20% je nach OHNE QUALITÄTSVERLUST rausholen konnte - danach war es ein Trade-off zwischen visuellem Eindruck und Ladezeit.

Ich schließe mich dem Statement, dass reine Ladezeitoptimierung wahrscheinlich überbewertet ist also an.

LG



Verfasst am: 21. 03. 2017 [12:48]
Matthes
929 Beiträge
Evil Genius
Dabei seit: 08.05.2010

✓ Seitenreport Vorantreiber

Beitrag hilfreich?

Clever den keywordrelevanten Backlink untergebracht. Ein Schelm, wer Böses dabei denkt...

Die reine Ladezeitoptimierung ist absolut überbewertet. Auch Google wird wissen, dass durch einen Algorithmus bis zum letzten Byte optimierte Grafiken nicht unbedingt ein Genuss fürs Auge sein müssen. Auf die gleiche Weise könnte man Texte durch Abkürzungen herunterrechnen und maximal minimieren, doch die Lesbarkeit wäre dahin.
Bei einem Tool, das letzteres ausführt, würden Benutzer auch viel eher merken, dass diese Tipps nicht zu einem allgemeingültigen besten Ergebnis führen, sondern das Ergebnis ganz blind und innerhalb engster Grenzen nur die speziellen Aspekte berücksichtigt, die ein automatisches Skript derzeit testen kann.

Von daher ist das klügste Fazit immernoch mein Lieblingssatz: entwickelt für Besucher, nicht für Tools.
Der Besucher will einfach Informationen finden, ein optisch ansprechendes und deutliches Ergebnis sehen und nicht zu lange darauf warten, dass die Seite angezeigt wird. Alle Maßnahmen, die diese drei Punkte gleichberechtigt unter einen Hut bringen, sind gut. Jede Verstärkung in Richtung eines einzelnen Punktes geht zu Lasten der beiden anderen, ist aber akzeptabel, solange der Komfort nicht spürbar darunter leidet.

Make Seitenreport great again!


Verfasst am: 27. 03. 2017 [04:38]
d_spaete
53 Beiträge
Webentwickler
Dabei seit: 20.12.2012

Ab und An Schreiber

Beitrag hilfreich?

"Matthes" schrieb:

entwickelt für Besucher, nicht für Tools.


Klar, muss ich das als Ladezeitfetischist sagen, aber es gibt m.E. kaum ein Gebiet, dass sowohl Besuchern als auch Maschinen derart und gleichermaßen zugute kommt wie die Optimierung der Ladezeit.

Bei mir kommen auf jeden neuen Server jpegoptim und optipng, die einmal frühmorgendlich alle binnen der letzten 24h geänderten JPEGs und PNGs verlustfrei komprimieren und gut. Aufwand: Ca. 5min pro 2 Jahre.

Schon klar, dass die meisten Leute cleverer sind als ich und sich keine root-Server antun. Aber mit einem auf dem lokalen Rechner ausgeführten Script ließe sich die Komprimierung ja - zugegebenermaßen aufwendiger - auch automatisieren.

Verfasst am: 27. 03. 2017 [11:19]
Matthes
929 Beiträge
Evil Genius
Dabei seit: 08.05.2010

✓ Seitenreport Vorantreiber

Beitrag hilfreich?

"d_spaete" schrieb:
Klar, muss ich das als Ladezeitfetischist sagen, aber es gibt m.E. kaum ein Gebiet, dass sowohl Besuchern als auch Maschinen derart und gleichermaßen zugute kommt wie die Optimierung der Ladezeit.

Das sehe ich auch so und ich liebe es ebenfalls, die Ladezeit bis ins kleinste Detail zu verbessern. Doch gerade bei Auftritten, bei denen die Optik sehr wichtig ist, erreicht man irgendwann den Punkt, an dem man die Optik zugunsten der Ladezeit vernachlässigen würde.
Wenn für den Benutzer detailreiche Grafiken oder Fotos wichtiger sind als geringe Ladezeiten, dann kommt ihm die Optimierung eben nicht mehr zugute.

"d_spaete" schrieb:
Bei mir kommen auf jeden neuen Server jpegoptim und optipng, die einmal frühmorgendlich alle binnen der letzten 24h geänderten JPEGs und PNGs verlustfrei komprimieren und gut. Aufwand: Ca. 5min pro 2 Jahre.

Aber hoffentlich keine Kundengrafiken, oder?

Make Seitenreport great again!


Verfasst am: 27. 03. 2017 [19:27]
d_spaete
53 Beiträge
Webentwickler
Dabei seit: 20.12.2012

Ab und An Schreiber

Beitrag hilfreich?

Das ist nicht mein Fachgebiet, aber "verlustfreie" Komprimierung bedeutet meines Wissens, dass überflüssige Metadaten (Exif?) aus der Grafikdatei ebenso entfernt werden wie nicht verwendete Farben aus der Palette.

Rein optisch gibt es also 0 Unterschied zwischen dem ursprünglichen und dem komprimierten Bild. Wenn es nicht gerade um einen Shop für Stockfotos geht, kann ich keinerlei Nachteile erkennen.

Kunden? Sehe ich aus, als hätte ich Kunden? Nein, mit allen Grafiken meinte ich alle in bestimmten Verzeichnissen wink.gif

Verfasst am: 27. 03. 2017 [20:52]
arnego2
134 Beiträge
Webmaster, SEO, Backlinks etc.
Dabei seit: 28.02.2017

Aktiver Schreiber

Beitrag hilfreich?

"d_spaete" schrieb:

Das ist nicht mein Fachgebiet, aber "verlustfreie" Komprimierung bedeutet meines Wissens, dass überflüssige Metadaten (Exif?) aus der Grafikdatei ebenso entfernt werden wie nicht verwendete Farben aus der Palette.

Rein optisch gibt es also 0 Unterschied zwischen dem ursprünglichen und dem komprimierten Bild. Wenn es nicht gerade um einen Shop für Stockfotos geht, kann ich keinerlei Nachteile erkennen.

Kunden? Sehe ich aus, als hätte ich Kunden? Nein, mit allen Grafiken meinte ich alle in bestimmten Verzeichnissen wink.gif


Na ja im reellen sehen die meisten es nicht das eine Sekunde schneller oder langsamer zu laden bei dem User eigentlich nichts ausmacht. Es ist halt nur die Frage wie die Suchmaschinen, allen voran Google, das letztendlich beurteilen.

Verdient eine Sekunde Ladezeit was praktisch ca 30% langsamer wäre eine Verurteilung; die eine Webseite dazu verdonnert 2 SERP Seiten später zu erscheinen?



Verfasst am: 27. 03. 2017 [22:40]
Matthes
929 Beiträge
Evil Genius
Dabei seit: 08.05.2010

✓ Seitenreport Vorantreiber

Beitrag hilfreich?

"d_spaete" schrieb:
Das ist nicht mein Fachgebiet, aber "verlustfreie" Komprimierung bedeutet meines Wissens, dass überflüssige Metadaten (Exif?) aus der Grafikdatei ebenso entfernt werden wie nicht verwendete Farben aus der Palette.

Ja, natürlich, da bin ich übers Ziel hinausgeschossen und habe verallgemeinert. Mit optipng und jpegoptim macht man erst einmal nichts verkehrt. Es gibt allerdings auch Spezialisten, die bei einer .jpg z.B. die Qualität auf 70% drehen und die Datei einige Male speichern, das lädt sicher toll, sieht aber aus wie Müll.

"d_spaete" schrieb:
Kunden? Sehe ich aus, als hätte ich Kunden? Nein, mit allen Grafiken meinte ich alle in bestimmten Verzeichnissen wink.gif

Vom Aussehen auf die Kunden zu schließen klappt bei uns weißkäsigen Webentwicklern nun wirklich nicht. ;)

Schöne Grüße aus Erlangen.

Make Seitenreport great again!


Verfasst am: 27. 03. 2017 [23:39]
d_spaete
53 Beiträge
Webentwickler
Dabei seit: 20.12.2012

Ab und An Schreiber

Beitrag hilfreich?

"arnego2" schrieb:

Na ja im reellen sehen die meisten es nicht das eine Sekunde schneller oder langsamer zu laden bei dem User eigentlich nichts ausmacht.


Sorry, aber das ist ja wohl mal absolut daneben. Da gibt es die berühmte Fallstudie von Amazon, wonach eine um 1 Sekunde längere Ladezeit das Unternehmen 1,6 Mrd. Dollar Umsatz pro Jahr kosten würde. Da gibt es Fallstudien, dass bei Ladezeiten höher als 3 Sekunden 50% der potenziellen Besucher schon weggeklickt haben. Das ist alles kalter Kaffee und durch die fortschreitende Verbreitung mobiler Endgeräte ist die Erwartung der Nutzer an die Ladezeit sicherlich nicht gesunken.

Die Ladezeit ist ein niedrig gewichteter Rankingfaktor und die Grafikkomprimierung auch nur ein kleiner Teil der Ladezeitoptimierung. Die Google-Suche ist deshalb die beliebteste, weil Google die beste Nutzererfahrung bietet. Der Nutzer ist es, der die geringe Ladezeit erwartet. Google schafft damit nur einen Anreiz für Website-Betreiber, die Zufriedenheit der eigenen Besucher zu erhöhen. Es geht also nur darum, seine Hausaufgaben zu machen und dass Google das, was man eh tun muss, auch noch belohnt, ist absoluter Bonus.




to Top to Top

Du bist nicht eingeloggt. Bitte beachte, dass Du eingeloggt sein musst, um Themen zu erstellen oder auf Beiträge zu antworten.

RSS Feed abonnieren

Werde in Echtzeit über neue Foren-Beiträge informiert:

RSS Feed abonnieren


4 Mitglieder waren innerhalb der letzten 15 Minuten online (33 heute gesamt):
GuitarShop, Matthes, oms, Vodkarist

Administratoren und Moderatoren:
[keine]

Seitenreport hat 46240 registrierte Mitglieder, 4301 Themen und 37515 Beiträge.
Der aktuelle Mitgliederzuwachs liegt bei durchschnittlich 4 bestätigten Neuregistrierungen pro Tag.
Pro Tag werden im Seitenreport Forum durchschnittlich 0 neue Themen und 1 Beiträge erstellt.
Die Durchschnittszahlen berechnen sich aus den letzten 7 Tagen.

Mehrfach empfohlen

Seitenreport ist einer der bekanntesten SEO und Website Analyse Dienste im deutschsprachigen Raum und wurde u.a. schon empfohlen:
von Mr. Wong im Wong Letter
vom Leserservice der Deutschen Post
vom Technik Blog SiN
und vielen anderen

Seitenreport API

Verfolge die SERP Positionen Deiner Keywords und erhalte Informationen über verwendete Mikroformate, frage die Ergebnisse unserer Analysen live ab oder greife auf unsere History-Datenbank zu. Dies alles bietet Dir die neue Seitenreport API. Kontaktiere uns, um weitere Infos zu erhalten.