Gelöst

Dateiupload per DAV unter Linux extrem langsam und bricht ab

vor 2 Jahren

Hallo zusammen,

Ich habe unter Ubuntu die MagentaCloud als DAV-Filesystem eingerichtet und wollte einmal testweise eine automatische Sicherung per crontab einrichten. Ich habe dort derzeit 25 GB Speicher und eine 50/10 Internetverbindung der Telekom.

Dabei ist mir aufgefallen, dass der Upload selbst bei einer Datei wie 5 GB extrem langsam ist und entweder abbricht oder niemals fertig wird. Meine Fritzbox 7590 hat selbst über Nacht immer noch angezeigt, dass die vollen 10 MBit Bandbreite für den Upload blockiert sind. Hier werden offenbar extreme Datenmengen übertragen, die überhaupt nicht nachvollziehbar sind bei einer 5 GB Datei. Ich habe das dann zwangsweise abgebrochen und die Internetverbindung getrennt. Rein rechnerisch dürfte der Upload von 5 GB selbst mit Verlusten nicht länger als zwei Stunden dauern.

Hat jemand Erfahrungen damit? Mein Plan war einfach nur, bestimmte wichtige Dateien zu packen, selbst zu verschlüsseln (aes) und dann automatisiert per crontab in der Cloud abzulegen. Das funktioniert aber überhaupt nicht. Und wenn schon 5 GB unmöglich sind, brauche ich über größere Dateien gar nicht erst nachzudenken.

Bitte keine Grundsatzdebatten, warum Linux, warum Cloud, warum Telekom etc. - mir geht's nur um das Thema WebDAV und MagentaCloud unter Ubuntu!

457

11

  • Akzeptierte Lösung

    akzeptiert von

    vor 2 Jahren

    Und wenn schon 5 GB unmöglich sind, brauche ich über größere Dateien gar nicht erst nachzudenken.

    Und wenn schon 5 GB unmöglich sind, brauche ich über größere Dateien gar nicht erst nachzudenken.
    Und wenn schon 5 GB unmöglich sind, brauche ich über größere Dateien gar nicht erst nachzudenken.

    Der Fehler ist seit der Umstellung auf NextCloud bekannt und meines Wissens noch immer nicht behoben. Hier der angepinnte Thread dazu > Gelöst: AW: Sammelthread: Magenta Cloud 1GB Up-/Download P... | Telekom hilft Community

     

    Viele Grüße

    Thomas

    1

    Antwort

    von

    vor 2 Jahren

    Vielen Dank, endlich mal eine konstruktive Antwort. Ich hatte das nebenbei gesehen, aber gedacht, das Problem wäre mittlerweile behoben. Eventuell könnte man sich mit einem Split der Datei behelfen und z.B. in 900 MB-Teile aufsplitten und die dann wieder joinen, ist per Script ja kein Problem.

    Uneingeloggter Nutzer

    Antwort

    von

  • Akzeptierte Lösung

    akzeptiert von

    vor 2 Jahren

    Um das Thema nochmal abzuschließen:

    Nein, das Problem hat nichts mit meiner Konfiguration zu tun, mit meinem Wissen über Linux oder dass ich "unfähig" wäre, sondern es ist die bekannte 1 GB Einschränkung der Telekom beim Upload, von der ich nichts wissen konnte und die ohne einen Hinweis aus diesem Forum auch nicht zu ermitteln gewesen wäre. Ich habe meine Scripts jetzt so angepasst, dass per split alles in 900 MB Pakete aufgeteilt wird und bei Bedarf mit join wieder zusammengefügt wird. Funktioniert also nun genau so, wie ich es mir vorgestellt hatte (eigene aes Verschlüsselung des gepackten .tgz Archives auf meinem Server und dann Upload in die Cloud). Das läuft jetzt vollautomatisch jeden Tag, sodass ich den aktuellen Stand bestimmter Daten immer aktuell in der Cloud habe und niemand der Telekom mit den Daten etwas anfangen kann. Das natürlich als zusätzliche Sicherung zu den bereits bestehenden.


    0

    Uneingeloggter Nutzer

    Antwort

    von