Gelöst
FYI : Mehr Tempo für Chrome und Firefox
vor 8 Jahren
(FYI = For your information)
So wie die Überschrift beginnt auch der Artikel in Chip.
Das Tool selber nennt sich Bandwidth Hero und komprimiert Daten, um den Datenverbrauch zu reduzieren.
Steht da jedenfalls.
Zu finden hier:
302
21
Das könnte Ihnen auch weiterhelfen
Gelöst
4959
0
2
Gelöst
118
0
2
vor 4 Jahren
461
0
3
vor 3 Jahren
235
0
3
vor 5 Jahren
271
8
2
vor 8 Jahren
Das erscheint mir doch sehr seltsam.
Selbst eine 'On-the-fly'- Kompression braucht erst einmal unkomprimierten Input ( und der muss nun mal über die Leitung).
Ob der Browser dann mit den komprimierten Daten gefüttert wird, könnte zwar den Datenhunger des Browsers selbst beeinflussen, aber sicher nicht mehr die bereits übertragenen Daten.
(Anders die uralten Modems. Die komprimierten aber die Daten bereits beim Senden.)
Und das müssten nun die Internet-Server erledigen, wenn sie erkennen, dass auf der anderen Seite ein De-Kompressionsalgogrithmus in einer App wartet.
9
Antwort
von
vor 8 Jahren
Moin zusammen !
Also.
Was lässt sich denn überhaupt effektiv*) komprimieren ?
- lange Textelemente
- unkomprimierte Grafiken (BMP, 1-bit-TIFF)
Was lässt sich nicht bzw. nicht effektiv komprimieren?
- JPG - Dateien (einschließlich JPEG, JPEG200 usw.)
- kleine Grafiken (Symbole, Buttons, usw.)
- die meisten Videos
- Schriftarten / Fonts für Styles, Stylesheets
- PDF-Dateien
- sonstige Downloads (ISO's, Installationsdateien, CAB-Dateien
Wo wäre eine Komprimierung hilfreich?
- bei langen Textelementen
- bei mehreren großen unkomprimierten Grafiken
- langsamen DSL-Anschlüssen und DSL Light Anschlüssen
- wenn niedriger Datenverbrauch oberste Priorität hat
Wo hilft eine Komprimierung nicht / nicht sinnvoll ?
- bei langen PING-Zeiten
- bei schnellen Leitungen
- bei schwacher Hardware
- bei Seiten, die viel Drittanbieterinhalt und viel Java Script enthalten
- bei Videos (ich will ja nicht warten bis die komplette Datei heruntergeladen und entpackt wurde)
- bei Downloads von PDF's, Installationsdateien, Updates, ISO's
- bei kurzen Textelementen
- bei Geräten mit wenig Arbeitsspeicher
- bei sog. "fließenden" Seiten (bei denen Inhalt erst nachgeladen wird, wenn runtergescrollt wird)
- wenn die Zeit zum Komprimieren und Dekomprimieren länger ist als die Ersparnis bei der Datenübertragung ohne Komprimierung.
Früher war das doch schon im Netscape Navigator integriert. By default. Es ist also nix neues. Früher, bei 14.400er dreiunddreißigsechser und 56k-Modems, war das auch nützlich. Früher, als die meisten Seiten noch in HTML geschrieben waren und die Inhalte auch alle auf dem Quellserver lagen, da war das auch noch gebrauchstauglich.
Heutzutage, da teilweise nur noch der Body auf dem Quellserver liegt, und Inhalte von anderen Servern oder von Drittanbietern kommen und selbst Schriften von Drittanbietern geladen werden (siehe THC) und außerdem sehr viele Cookies und Follow-Me-Anfragen an Drittserver geschickt werden, verbrauchen diese verteilten Anfrage mehr Zeit, als das Laden der eigentlichen Inhalte zusammen. Alleine auf der THC-Startseite werden Inhalte von lithium.com, mateti.net, rawgit.com, facebook.net, facebook.com, t-online.de, tiqcdn.com, wbtrk.net, wcfbc.net, llnwd.net xplosion.de limelight.com usw. aufgerufen. Und das sind nur die Inhalte, die NoScript, AdBlockplus und Disconnect durchlassen.
Gerade bei Mobilgeräten sieht man häufig, dass das eigentliche Laden bereits abgeschlossen ist, die Inhalte aber erst noch aufwendig im Hintergrund aufbereitet werden müssen. Selbst an schnellen PC's werden die Seiten nach dem Laden manchmal noch nicht dargestellt, weil eine kleine Information oder ein Cookie oder wasauchimmer fehlt, das noch von einem fremden Server (meist einer der oben genannten) heruntergeladen werden muss. Dann hilft eine Komprimierung 0,000. Nix. Nüscht.
Mein Fazit:
Es ist aus meiner Sicht also eine Insellösung für Nutzer, bei denen Datenvolumen-Sparen oberste Priorität hat.
Über eine Webseiten-Komprimierung dürfte man im 21. Jahrhundert in einem Industrieland überhaupt nicht mehr nachdenken, wenn fast alle Anschlüsse kabelgebunden mind. die politisch gebremsten 50 MBit in Neuland annähernd erreichen.
Aus meiner Sicht würde es schon viel helfen, weniger Styles und weniger JavaScript zu nutzen und vor allem die Inhalte vom gleichen Server zu laden, statt alles von vielen Anbietern zusammenzutragen. Ist wie bei vielen technischen Anlagen: sobald die Designer zu viel mitreden dürfen werden die Produkte unhandlich, nicht mehr intiuitiv zu bedienen und weniger gebrauchstauglich. Aber sie sehen
schönschickstylish aus.*) effektiv für die o.g. Anwendung heißt, das ein lohnendes Komprimierungsverhältnis erreicht wird, also alles unter 80 oder 75% und dass die komprimierte Größe des Gesamtdatenblockes auch wesentlich kleiner ist als das Original. Denn im komprimierten Datenblock werden noch zusätzliche Informationen gespeichert über die Komprimierungsart, das Verfahren, die Version, ggf. Prüfbits. Das kann bei kleinen Textdateien ggf. sogar kontraproduktiv werden.
Außerdem reden wir hier noch nicht von Änderungen an Dateien, wie z.B. das Herunterrechnen einer Grafikauflösung, um die Datei (verlustbehaftet) zu verkleinern, ebenso geht es noch nicht um eine Übertragung einer verringerten (verlustbehafteten) Auflösung bei Videos.
Gruß
Antwort
von
vor 8 Jahren
lange Textelemente
lange Textelemente
Es gibt keine Seiten ohne lange Textelemente. Denn ohne Text ist eine Seite quasi leer.
Antwort
von
vor 8 Jahren
Dilbert-MD lange Textelemente lange Textelemente Dilbert-MD lange Textelemente Es gibt keine Seiten ohne lange Textelemente. Denn ohne Text ist eine Seite quasi leer.
lange Textelemente
lange Textelemente
Es gibt keine Seiten ohne lange Textelemente. Denn ohne Text ist eine Seite quasi leer.
Es gibt Seiten mit wenig Text und vielen Grafiken.
Es gibt Seiten bei denen einzelne (kleinere) Textblöcke von verschiedenen Servern geladen werden - insbesondere bei dynamischen Inhalten.
Es gibt Seiten bei denen die Texte aus Datenbanken stammen und einzeln über Abfragen zusammengesammelt werden und nacheinander auf die Seite kommen (z.B. Foreninhalte)
Gruß
Uneingeloggter Nutzer
Antwort
von
vor 8 Jahren
Ich rate beim Firefox erst einmal dazu, das Update auf die Version 57 abzuwarten, das voraussichtlich am 14.11. kommt. Das bringt eine deutlich spürbare Verbesserung der Perfomance (zumindest bei mir beim Testen der Nightly-Version).
https://www.mozilla.org/de/firefox/quantum/
7
Antwort
von
vor 8 Jahren
Wobei die Idee eines selbst-kontrollierten Proxyservers schon was hat.
Wenn der leicht aufzusetzen und leicht zu administrieren und zu pflegen wäre hinsichtlich der unzähligen Einzelabfragen der Internetseiten in Richtung von google, facebook, ... dann hätte das schon was.
Antwort
von
vor 8 Jahren
muc80337_2 [...] Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun). [...] Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun). muc80337_2 [...] Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun). Das ist doch einfach zu verstehen. Wenn jemand einen Proxy auf der Verbindung unter Kontrolle hat lässt sich recht einfach Werbung einschleusen.
[...] Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun).
Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun).
Das ist doch einfach zu verstehen. Wenn jemand einen Proxy auf der Verbindung unter Kontrolle hat lässt sich recht einfach Werbung einschleusen.
Das wäre eine Möglichkeit. Aber das würde ja möglicherweise auffallen wenn man probeweise eine Seite an einem Gerät mit und an einem anderen Gerät ohne öffnet.
Was nicht so leicht auffällt ist, dass man das eigene Surfverhalten komplett einem anderen gegenüber öffnet.
Natürlich genauso wie wenn man einen anderen DNS einträgt.
Halunken überall...
Antwort
von
vor 8 Jahren
(...) dass man das eigene Surfverhalten komplett einem anderen gegenüber öffnet (...) Halunken überall (...)
(...) dass man das eigene Surfverhalten komplett einem anderen gegenüber öffnet (...) Halunken überall (...)
Es ist nun mal nichts umsonst. Ein Server zahlt sich nicht von selbst.
Uneingeloggter Nutzer
Antwort
von
Akzeptierte Lösung
akzeptiert von
vor 8 Jahren
muc80337_2 [...] Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun). [...] Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun). muc80337_2 [...] Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun). Das ist doch einfach zu verstehen. Wenn jemand einen Proxy auf der Verbindung unter Kontrolle hat lässt sich recht einfach Werbung einschleusen.
[...] Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun).
Interesieren würde mich der Business Case des Tools - die umrechnenden Proxyserver kosten ja Geld (auch wenn die Möglichkeit besteht, dass man andere Proxyserver einrichtet - das werden vermutlich aber die wenigsten Nutzer tun).
Das ist doch einfach zu verstehen. Wenn jemand einen Proxy auf der Verbindung unter Kontrolle hat lässt sich recht einfach Werbung einschleusen.
Das wäre eine Möglichkeit. Aber das würde ja möglicherweise auffallen wenn man probeweise eine Seite an einem Gerät mit und an einem anderen Gerät ohne öffnet.
Was nicht so leicht auffällt ist, dass man das eigene Surfverhalten komplett einem anderen gegenüber öffnet.
Natürlich genauso wie wenn man einen anderen DNS einträgt.
Halunken überall...
0
Akzeptierte Lösung
akzeptiert von
vor 8 Jahren
@Käseblümchen: Korrekt, das mit dem Proxy hatte ich übersehen, aber doch Recht mit der Einschätzung, dass die Kompression nicht auf dem Client erfolgen kann, sondern nur beim Sender, in diesem Fall dem Proxy.
Und im Normalbetrieb alle Anfragen über dritte, mitlesende Server zu leiten ? Kopfschütteln.
0
Akzeptierte Lösung
akzeptiert von
vor 8 Jahren
Moin zusammen !
Also.
Was lässt sich denn überhaupt effektiv*) komprimieren ?
- lange Textelemente
- unkomprimierte Grafiken (BMP, 1-bit-TIFF)
Was lässt sich nicht bzw. nicht effektiv komprimieren?
- JPG - Dateien (einschließlich JPEG, JPEG200 usw.)
- kleine Grafiken (Symbole, Buttons, usw.)
- die meisten Videos
- Schriftarten / Fonts für Styles, Stylesheets
- PDF-Dateien
- sonstige Downloads (ISO's, Installationsdateien, CAB-Dateien
Wo wäre eine Komprimierung hilfreich?
- bei langen Textelementen
- bei mehreren großen unkomprimierten Grafiken
- langsamen DSL-Anschlüssen und DSL Light Anschlüssen
- wenn niedriger Datenverbrauch oberste Priorität hat
Wo hilft eine Komprimierung nicht / nicht sinnvoll ?
- bei langen PING-Zeiten
- bei schnellen Leitungen
- bei schwacher Hardware
- bei Seiten, die viel Drittanbieterinhalt und viel Java Script enthalten
- bei Videos (ich will ja nicht warten bis die komplette Datei heruntergeladen und entpackt wurde)
- bei Downloads von PDF's, Installationsdateien, Updates, ISO's
- bei kurzen Textelementen
- bei Geräten mit wenig Arbeitsspeicher
- bei sog. "fließenden" Seiten (bei denen Inhalt erst nachgeladen wird, wenn runtergescrollt wird)
- wenn die Zeit zum Komprimieren und Dekomprimieren länger ist als die Ersparnis bei der Datenübertragung ohne Komprimierung.
Früher war das doch schon im Netscape Navigator integriert. By default. Es ist also nix neues. Früher, bei 14.400er dreiunddreißigsechser und 56k-Modems, war das auch nützlich. Früher, als die meisten Seiten noch in HTML geschrieben waren und die Inhalte auch alle auf dem Quellserver lagen, da war das auch noch gebrauchstauglich.
Heutzutage, da teilweise nur noch der Body auf dem Quellserver liegt, und Inhalte von anderen Servern oder von Drittanbietern kommen und selbst Schriften von Drittanbietern geladen werden (siehe THC) und außerdem sehr viele Cookies und Follow-Me-Anfragen an Drittserver geschickt werden, verbrauchen diese verteilten Anfrage mehr Zeit, als das Laden der eigentlichen Inhalte zusammen. Alleine auf der THC-Startseite werden Inhalte von lithium.com, mateti.net, rawgit.com, facebook.net, facebook.com, t-online.de, tiqcdn.com, wbtrk.net, wcfbc.net, llnwd.net xplosion.de limelight.com usw. aufgerufen. Und das sind nur die Inhalte, die NoScript, AdBlockplus und Disconnect durchlassen.
Gerade bei Mobilgeräten sieht man häufig, dass das eigentliche Laden bereits abgeschlossen ist, die Inhalte aber erst noch aufwendig im Hintergrund aufbereitet werden müssen. Selbst an schnellen PC's werden die Seiten nach dem Laden manchmal noch nicht dargestellt, weil eine kleine Information oder ein Cookie oder wasauchimmer fehlt, das noch von einem fremden Server (meist einer der oben genannten) heruntergeladen werden muss. Dann hilft eine Komprimierung 0,000. Nix. Nüscht.
Mein Fazit:
Es ist aus meiner Sicht also eine Insellösung für Nutzer, bei denen Datenvolumen-Sparen oberste Priorität hat.
Über eine Webseiten-Komprimierung dürfte man im 21. Jahrhundert in einem Industrieland überhaupt nicht mehr nachdenken, wenn fast alle Anschlüsse kabelgebunden mind. die politisch gebremsten 50 MBit in Neuland annähernd erreichen.
Aus meiner Sicht würde es schon viel helfen, weniger Styles und weniger JavaScript zu nutzen und vor allem die Inhalte vom gleichen Server zu laden, statt alles von vielen Anbietern zusammenzutragen. Ist wie bei vielen technischen Anlagen: sobald die Designer zu viel mitreden dürfen werden die Produkte unhandlich, nicht mehr intiuitiv zu bedienen und weniger gebrauchstauglich. Aber sie sehen
schönschickstylish aus.*) effektiv für die o.g. Anwendung heißt, das ein lohnendes Komprimierungsverhältnis erreicht wird, also alles unter 80 oder 75% und dass die komprimierte Größe des Gesamtdatenblockes auch wesentlich kleiner ist als das Original. Denn im komprimierten Datenblock werden noch zusätzliche Informationen gespeichert über die Komprimierungsart, das Verfahren, die Version, ggf. Prüfbits. Das kann bei kleinen Textdateien ggf. sogar kontraproduktiv werden.
Außerdem reden wir hier noch nicht von Änderungen an Dateien, wie z.B. das Herunterrechnen einer Grafikauflösung, um die Datei (verlustbehaftet) zu verkleinern, ebenso geht es noch nicht um eine Übertragung einer verringerten (verlustbehafteten) Auflösung bei Videos.
Gruß
0
Uneingeloggter Nutzer
Frage
von