Es führt zwar etwas am Hauptthema vorbei, aber bietet mir eine Steilvorlage für mein Lieblingsthema "Optimieren".
Der Großteil der Welt kennt eigentlich nur Apache und ein kleiner Rest nginx. Ohne mich jetzt über diese beiden Server Lösungen auszulassen, gehts mir eigentlich mehr darum, dass vermutlich 98% all jener, die für Ihre Seite zum Thema Optimieren was gemacht haben, nur einen Bruchteil dessen optimiert haben, was überhaupt möglich ist. Allerdings in dem Glauben sind, dass man das Möglichste schon gemacht hätte.
Um hier tatsächlich was zu optimieren, das sich im Vergleich zu den herkömmlichen Optimierungsmethoden wie ein Turbo mit Lachgas Einspritzung verhält, muss man die Sache an der Wurzel anpacken, also am Webserver selbst. Damit sind aber keine Optimierungsmethoden an der Konfiguration des Servers gemeint. Damit lässt sich zwar auch etwas rausholen, aber die Möglichkeiten sind nicht nur begrenzt, sondern lohnen zumeist den Aufwand gar nicht. Außerdem brauchts dafür wirkliches Experten KnowHow, was die wenigsten haben.
Das grundsätzliche Problem ist wie schon erwähnt die Wurzel, bzw. das Übel der Wurzel und ist sog. systemisch und liegt in der Architektur der beiden bekannten Server Lösungen zugrunde und lässt sich auch nicht wegoptimieren. Da helfen auch noch so gute Optimierungsmaßnahmen für den Client, wenn der Server zu lahm ist und das ungeachtet der Hardware, bzw. der System Ressourcen, wie CPU, RAM, HDD usw..
Nur um einen kleinen Ausblick zu geben nachfolgend mal eine Gegenüberstellung der gemessenen Zeiten wie lange es dauert bis der Server den Zeitpunkt erreicht hat den generierten Code an den Client zu schicken, exklusive der statischen Sourcen. (zu finden in der access.log, wenn man %D konfiguriert hat)
Jeweils gleiche Seite, gleicher Browser bei geleertem Cache auf einem Managed Server
Apache:
*******
91373 µs -> 91,373 ms -> 0,091373 s
"Lichtgeschwindigkeitsserver":
************************
418 µs -> 0,418 ms -> 0,000418 s
Unterschied: ~20.000% oder Faktor ~220
Das ist jetzt nur ein Beispiel von vielen und um das der messbaren Realität im Browser etwas näher zu bringen, bedeutet der obige Vergleich in der Praxis eine Beschleunigung der Ladezeit um den Faktor 10. Wenn man also in der Developer Console des Browsers z.B. 240ms für das Laden des Hauptdokumentes messen würde, würden daraus dann 20ms. Der Unterschied wird dann aber noch deutlicher, weil zum Hauptdokument ja noch die statischen Sourcen hinzukommen, die um einen ähnlichen Faktor schneller übertragen werden als mit den herkömmlichen Server Lösungen.
Die bekannten Optimierungsmethoden sind zwar immer nötig und verstehen sich eigentlich als selbstverständlich, aber wenn man wirklichen Speed haben will, muss man das Übel an der Wurzel anpacken, aber ohne zum IT-Experten werden zu müssen und einen HighEnd Server verwenden zu müssen. VPS genügt.