@Ashutosh Für https-Website, fügen Sie einfach Parameter -no-check-zertifikat HTTRACK funktioniert wie ein Champ für das Kopieren des Inhalts einer gesamten Website. Dieses Tool kann sogar die Teile greifen, die benötigt werden, um eine Website mit aktivem Codeinhalt offline arbeiten zu lassen. Ich bin erstaunt über das Zeug, das es offline replizieren kann. ISPs verfügen in der Regel über Caching-Server, die Kopien von Websites wie ESPN und CNN aufbewahren. Dies erspart ihnen die Mühe, diese Seiten jedes Mal zu treffen, wenn jemand in ihrem Netzwerk dorthin geht. Dies kann zu erheblichen Einsparungen bei der Anzahl doppelter Anforderungen an externe Websites an den ISP führen. In der Regel verwenden die meisten Browser einen Browser-Cache, um die Dateien, die Sie von einer Website herunterladen, ein wenig zu behalten, sodass Sie nicht immer wieder statische Bilder und Inhalte herunterladen müssen. Dies kann die Dinge unter bestimmten Umständen ziemlich beschleunigen. Im Allgemeinen sind die meisten Browser-Caches auf eine feste Größe beschränkt, und wenn diese Grenze erreicht wird, werden die ältesten Dateien im Cache gelöscht. wget ist weiterhin gründlich entwickelt, und obwohl ich es nicht persönlich ausprobiert habe (ich kopiere hauptsächlich `Legacy`-Websites...), scheint es in der Lage zu sein, mit HTML5-Tags so weit zu gehen, wie man sich als eine aktuelle Version von, sagen wir, Chrome oder Firefox identifiziert; Wenn es sich standardmäßig identifiziert, kann der Webserver, den er ebenfalls verbindet, einfach denken, dass es sich um einen sehr alten Browser handelt, der versucht, auf die Website zuzugreifen und den html zurückübergaben HTML zu `vereinfachen`(d. h.

es auf HTML4 oder so herunterzustufen). Dies ist natürlich kein Problem mit wget per se, sondern die Art und Weise, wie Webserver (und Webdesigner!) immer cleverer im Umgang mit einer Vielzahl von Benutzern, Browsern und Plattformen werden. Um eine ganze Website von Linux herunterzuladen, wird oft empfohlen, wget zu verwenden, aber es muss mit den richtigen Parametern durchgeführt werden oder die heruntergeladene Website wird nicht ähnlich wie die ursprüngliche sein, mit wahrscheinlich relativ gebrochenen Links. Dieses Tutorial untersucht die richtige Kombination, um eine Website herunterzuladen: Vielen Dank für die Tipps. Nachdem ich die Website heruntergeladen habe, verlinkt sie jedes Mal, wenn ich die Datei öffne, auf ihre ursprüngliche Website zurück. Irgendwelche Idee, wie dies zu lösen? Danke! Ich versuche, die Website von winamp herunterzuladen, falls sie sie herunterfahren. Ich muss buchstäblich alles herunterladen. Für Linux und OS X: Ich schrieb Grab-Site für die Archivierung ganzer Websites zu WARC-Dateien. Diese WARC-Dateien können durchsucht oder extrahiert werden. Mit grab-site können Sie steuern, welche URLs mit regulären Ausdrücken übersprungen werden sollen, und diese können geändert werden, wenn die Durchforstung ausgeführt wird. Es kommt auch mit einem umfangreichen Satz von Standardeinstellungen für das Ignorieren von Junk-URLs. Auch, zeitgenössische Versionen von wget (was bedeutet Mitte 2019, wenn ich diesen Kommentar schreibe!) wird keine Probleme haben, `tief zu graben`, um JS- und CSS-Dateien usw.

zu extrahieren. Offensichtlich kann sie keine Wunder vollbringen und geht nicht mit allem um; Ich hatte einige Probleme mit Imagemaps, zum Beispiel (etwas, das heutzutage niemand benutzt), sowie HTML, das von Javascript unterwegs generiert wurde. Und natürlich gibt es eine Grenze, was es tatsächlich mit sehr komplexen und dynamischen Websites tun kann, die ihren Inhalt an den Browser des Benutzers anpassen, Seite für Seite – vor allem in den Fällen, in denen die verschiedenen Versionen der gleichen Seite alle die gleiche URL haben (eine schlechte Praxis IMHO). Dennoch bleibt es für viele Situationen nützlich, und die Ergebnisse sind besser als das, was man aus archive.org... Schließlich beachten Sie, dass das Kopieren der Inhalte einer Website das Urheberrecht verletzen kann, wenn es zutrifft.

本博客所有文章如无特别注明均为原创。
复制或转载请以超链接形式注明转自盛飞在线,原文地址《Webseite komplett downloaden linux
暧昧文章:
  • 还没有相关文章
最近评论
Copyright © 盛飞在线 Theme DNSHH by Hang & Ben & S-kias / Wordpress)))