Warum registrieren? Nur als registriertes Mitglied vom ABAKUS Forum hast Du vollen Zugriff auf alle Funktionen unserer Website.

Optimierte Bilder mit Google Page Speed Insights runterlagen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Felix_8333
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 29.10.2018, 14:40

Beitrag von Felix_8333 » 14.04.2019, 14:26

Hi zusammen,

ich habe in diesem Artikel gelesen, dass es wohl die Möglichkeit gibt, opimierte Bilder von Google Page Speed Insights runterladen zu können In diesem Artikel (#https: //www.ithelps.at/blog/771-google-pagespeed-insights) heißt es

Hast du deine Webseite mit Google Pagespeed Insights analysiert, kannst du dir die bereits optimierten Bilder herunterladen.

Gibt es diese Möglichkeit noch? Ich finde es einfach nicht und frage mich gerade, ob diese Funktion ggf. abgeschaltet wurde? Weiß das jemand?

LG Felix

arnego2
PostRank 9
PostRank 9
Beiträge: 1457
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag von arnego2 » 14.04.2019, 15:06

Felix_8333 hat geschrieben:Hi zusammen,

ich habe in diesem Artikel gelesen, dass es wohl die Möglichkeit gibt, opimierte Bilder von Google Page Speed Insights runterladen zu können In diesem Artikel (#https: //www.ithelps.at/blog/771-google-pagespeed-insights) heißt es
Warum probierst du es nicht einfach aus?

Es ist nicht gerade sehr seriös:
Google Pagespeed Insights (Anleitung) – Wie du bis zu 100% bei der Page Speed Optimierung erreichst!


Ein Bild und 100% gehen flöten.
Arnego2 <VideoContent>

Felix_8333
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 29.10.2018, 14:40

Beitrag von Felix_8333 » 14.04.2019, 16:10

Da in dem Artikel ein Screenshot gezeigt wird, dass es diese Funktionalität bei Google Pagespeed wohl mal gegeben hat, gehe ich zumindest was diesen Aspekt angeht von Seriosität aus. Finde diese Möglichkeit aber wie gesagt nicht mehr. Habe es daher bereits ausprobiert...

elmex
PostRank 9
PostRank 9
Beiträge: 1015
Registriert: 03.05.2005, 10:09

Beitrag von elmex » 14.04.2019, 16:30

Also, ich finde diese Download Links mittlerweile auch nicht mehr, denke die sind seit dem Update 7/2018 weg?

Muss man jetzt wohl selber seine Bilder optimieren :o

nerd
PostRank 10
PostRank 10
Beiträge: 4037
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 14.04.2019, 22:21

Ich benutze immer tinypng.com / tinyjpg.com zum bilder optimieren. Erlaubt batch uploads und sie bieten imho auch eine api an. Absolut empfehlenswert.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 11:40
Wohnort: Olpe

Beitrag von ole1210 » 15.04.2019, 09:11

Ein Bild und 100% gehen flöten.
Nein! Wie kommst du darauf?

arnego2
PostRank 9
PostRank 9
Beiträge: 1457
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag von arnego2 » 15.04.2019, 14:28

ole1210 hat geschrieben:
Ein Bild und 100% gehen flöten.
Nein! Wie kommst du darauf?
Es gibt wenig aussagekräftige Bilder die 10 bis 30 kb haben.
Speziell der header hat meist 100+
Arnego2 <VideoContent>

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 11:40
Wohnort: Olpe

Beitrag von ole1210 » 15.04.2019, 15:49

Die Bildgröße hat nur bedingt etwas mit dem Ergebnis zu tun!

top
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 14.07.2005, 17:09

Beitrag von top » 15.04.2019, 15:55

arnego2 hat geschrieben:
ole1210 hat geschrieben:
Ein Bild und 100% gehen flöten.
Nein! Wie kommst du darauf?
Es gibt wenig aussagekräftige Bilder die 10 bis 30 kb haben.
Speziell der header hat meist 100+
Wenn der Rest der Seite schnell genug läuft, sind auch Titelbilder mit mehr als 100kB kein Hinderungsgrund für eine 100%-Wertung.

Gefühlt werden optimierte Seiten eher mit 100% bewertet (auch wenn noch ein paar wenige Bewertungskriterien beanstandet werden).
Andererseits werden Seiten, die vor einem Jahr noch mittelmäßig abschnitten, mittlerweile sehr viel schlechter bewertet.

Das Herunterladen von optimierten Bildern scheint es im aktuellen Google-Pagespeed-Test nicht mehr zu geben. Ich vermute mal, dass das mit deren neuen Empfehlung zusammenhängt auf neuere Bildformate (JPEG 2000, JPEG XR, WebP) zurückzugreifen. Diese werden allerdings von den großen Browserfamilien nur eingeschränkt unterstützt, so dass das sichere Einbinden für alle relevanten Browser noch recht umständlich ist. Damit warte ich, bis sich die Browserhersteller auf einen gemeinsamen Standard geeinigt haben - aber es geht ja auch JPG, GIF und PNG. :wink:

arnego2
PostRank 9
PostRank 9
Beiträge: 1457
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag von arnego2 » 15.04.2019, 17:43

top hat geschrieben: Wenn der Rest der Seite schnell genug läuft, sind auch Titelbilder mit mehr als 100kB kein Hinderungsgrund für eine 100%-Wertung.
Eine der Wenigen Seiten die Ich kenne hat nur ein Image.
Google in the meantime hat interessanterweise bei pagespeed und google.de oder google.com:
Lighthouse returned error: ERRORED_DOCUMENT_REQUEST. Lighthouse was unable to reliably load the page you requested. Make sure you are testing the correct URL and that the server is properly responding to all requests. (Status code: 503)
Arnego2 <VideoContent>

Hanzo2012
Community-Manager
Community-Manager
Beiträge: 1694
Registriert: 26.09.2011, 23:31

Beitrag von Hanzo2012 » 15.04.2019, 18:56

Ich benutze ModPagespeed - gibt's für Apache und nginx. Das optimiert die Bilder automatisch und liefert je nach Browser auch neuere Bildformate wie WebP aus. Es optimiert auch HTML, JavaScript, CSS und die Cache-Zeiten statischer Ressourcen oder inlined sie, falls es das für sinnvoll hält. Das Schöne dabei ist, dass das transparent geschieht.

top
PostRank 7
PostRank 7
Beiträge: 639
Registriert: 14.07.2005, 17:09

Beitrag von top » 16.04.2019, 11:14

Hanzo2012 hat geschrieben:Ich benutze ModPagespeed - gibt's für Apache und nginx. Das optimiert die Bilder automatisch und liefert je nach Browser auch neuere Bildformate wie WebP aus. Es optimiert auch HTML, JavaScript, CSS und die Cache-Zeiten statischer Ressourcen oder inlined sie, falls es das für sinnvoll hält. Das Schöne dabei ist, dass das transparent geschieht.
Hört sich interessant an. Wobei ich denke, dass ich mich selbst nicht so weit mit der Server-Administration auseinander setzen möchte (und bei vielen Kundenseiten das auch nicht entsprechende Zugriffsrechte habe) um das selbst einmal zu testen.

Ganz gruselig finde ich in dem Zusammenhang irgendwelche WP-Plugins welche die kompletten CSS- und/oder JS-Anweisungen mit in den Quelltext der HTML-Datei packen. Mag ja sein, dass das beim ersten Seitenaufruf winzige Geschwindigkeitsvorteile bringt. Beim öffnen weiterer Unterseiten wird der ganze Krempel aber immer wieder neu geladen da es nicht aus dem Browser-Cache als getrennte Datei verfügbar ist.

arnego2 hat geschrieben:
top hat geschrieben: Wenn der Rest der Seite schnell genug läuft, sind auch Titelbilder mit mehr als 100kB kein Hinderungsgrund für eine 100%-Wertung.
Eine der Wenigen Seiten die Ich kenne hat nur ein Image.
...
Bei den beiden Kundenseiten habe ich ein paar mehr Bilder verwendet:
https://developers.google.com/speed/pag ... elte.de%2F
https://developers.google.com/speed/pag ... grau.sh%2F

Was ich bei der Lighthouse-Analyse nicht verstehe ist folgender Punkt:
Darauf achten, dass der Text während der Webfont-Ladevorgänge sichtbar bleibt
Sie können Gebrauch von der CSS-Funktion "font-display" machen, um sicherzugehen, dass der Text für Nutzer sichtbar ist, während Webfonts geladen werden. Weitere Informationen.
Das taucht nur bei einer der beiden Seiten auf, obwohl ich bei beiden konsequent "font-display:swap" verwende. Mache ich da noch irgendetwas falsch oder ist der Test-Bot bei dem Punkt einfach nur zu dumm? :roll:

arnego2
PostRank 9
PostRank 9
Beiträge: 1457
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag von arnego2 » 16.04.2019, 17:02

Ich glaube nicht das irgendein Bot in der Lage ist für sich selbst zu denken. Abgesehen davon hat der Test Bot Programmer vielleicht vergessen etwas rauszukommentieren oder Viceversa.

Mein Ehrgeiz 100% zu erreichen hält sich in Grenzen. Über 90 reicht mir und den meisten meiner Kunden dicke. Hier bei uns liegt die Durchschnittliche Geschwindigkeit bei 1mb/s dazu noch VPN und wir kriechen. :bad-words:
Arnego2 <VideoContent>

supervisior
PostRank 8
PostRank 8
Beiträge: 967
Registriert: 26.06.2006, 09:11

Beitrag von supervisior » 17.04.2019, 08:41

top hat geschrieben:
Hanzo2012 hat geschrieben:Ich benutze ModPagespeed - gibt's für Apache und nginx. Das optimiert die Bilder automatisch und liefert je nach Browser auch neuere Bildformate wie WebP aus. Es optimiert auch HTML, JavaScript, CSS und die Cache-Zeiten statischer Ressourcen oder inlined sie, falls es das für sinnvoll hält. Das Schöne dabei ist, dass das transparent geschieht.
Hört sich interessant an. Wobei ich denke, dass ich mich selbst nicht so weit mit der Server-Administration auseinander setzen möchte (und bei vielen Kundenseiten das auch nicht entsprechende Zugriffsrechte habe) um das selbst einmal zu testen.
So viel gäbs da gar nicht zu administrieren. Viel problematischer daran ist eher der Ressourcenverbrauch insbesondere bei Bildern, sodass das bei Shared Hosting Angeboten ohnehin nicht verfügbar ist, geschweige denn angeboten wird. Bei kleinen Seiten, wie bei deinen gezeigten Beispielen würdest Du ohnehin keinen Geschwindigkeitsvorteil merken.
top hat geschrieben:
Ganz gruselig finde ich in dem Zusammenhang irgendwelche WP-Plugins welche die kompletten CSS- und/oder JS-Anweisungen mit in den Quelltext der HTML-Datei packen. Mag ja sein, dass das beim ersten Seitenaufruf winzige Geschwindigkeitsvorteile bringt. Beim öffnen weiterer Unterseiten wird der ganze Krempel aber immer wieder neu geladen da es nicht aus dem Browser-Cache als getrennte Datei verfügbar ist.
Irgendwelche Plugins zu verwenden, empfiehlt sich gleich aus mehreren Gründen nicht. Die WP Plugins generieren zumeist Versions Parameter und hängen diese an die Source URL dran, was dazu führt, dass diese dann doch jedesmal neu geladen werden, bzw. die Version zumindest überprüft wird, bzw. nicht im Browser Cache landen. Der Chrome Browser ist dafür besonders anfällig. Die Plugins, bzw. der Code dafür wird ja nachrangig ausgeführt. Bevort also die css oder js geladen werden kann, muss erstmal die Funktion zum Optimieren ausgeführt werden, was sich dann auf die Ausführungsgeschwindighkeit, bzw. die Übertragungszeit des gesamten Codes auswirkt.

Lässt man das mit den Plugins mal außen vor, ist das gar nicht so paradox CSS Angaben in den Header zu packen, wenngleich diese Angaben nicht im Browser Cache landen. Das ist weniger kritisch als die Verarbeitung, also das Parsen des Codes. Bei mobilen Geräten macht sich das besonders positiv bemerkbar.

top hat geschrieben: Bei den beiden Kundenseiten habe ich ein paar mehr Bilder verwendet:
https://developers.google.com/speed/pag ... elte.de%2F
https://developers.google.com/speed/pag ... grau.sh%2F
Na die große Herausforderung war das jetzt nicht bei diesen Seiten einen hohen Score zu erhalten. ;)
top hat geschrieben:
Was ich bei der Lighthouse-Analyse nicht verstehe ist folgender Punkt:
Darauf achten, dass der Text während der Webfont-Ladevorgänge sichtbar bleibt
Sie können Gebrauch von der CSS-Funktion "font-display" machen, um sicherzugehen, dass der Text für Nutzer sichtbar ist, während Webfonts geladen werden. Weitere Informationen.
Das taucht nur bei einer der beiden Seiten auf, obwohl ich bei beiden konsequent "font-display:swap" verwende. Mache ich da noch irgendetwas falsch oder ist der Test-Bot bei dem Punkt einfach nur zu dumm? :roll:
Das ist von Lighthouse ein "quängeln" auf sehr hohem Niveau und kommt subjektiv ohnehin nur zum Tragen, wenn jemand mit 2G unterwegs ist. Bei normalen Verbindungen wirkt sich das geführlt eher negativ auf das Aufbauverhalten aus, weil der Text zunächst ohne den font style (family) angezeigt wird und dann erst die verwendete Schriftart. Da macht sich eine Verzögerung durch extern geladene Schriftarten viel mehr bemerkbar.

staticweb
PostRank 9
PostRank 9
Beiträge: 1165
Registriert: 04.05.2016, 14:34

Beitrag von staticweb » 17.04.2019, 09:56

> Die WP Plugins generieren zumeist Versions Parameter und hängen diese an die Source URL dran, was dazu führt, dass diese dann doch jedesmal neu geladen werden, bzw. die Version zumindest überprüft wird, bzw. nicht im Browser Cache landen.

Wenn alles ordentlich programmiert ist kann man die Versionierung deaktivieren. Das hat aber den Nachteil, dass der Client-Cache nicht merkt, wenn sich eine Ressource ändert.

Meine Empfehlung wäre HTTP/2 zu verwenden und das CSS/JS in einen "statischen" und "dynamischen" Bereich aufzuteilen. Bei letzterem könnte die Versionierung beibehalten werden.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag