Du må være registrert og logget inn for å kunne legge ut innlegg på freak.no
X
LOGG INN
... eller du kan registrere deg nå
Dette nettstedet er avhengig av annonseinntekter for å holde driften og videre utvikling igang. Vi liker ikke reklame heller, men alternativene er ikke mange. Vær snill å vurder å slå av annonseblokkering, eller å abonnere på en reklamefri utgave av nettstedet.
  6 1340
Hei!

Rotete tittel kanskje, men jeg finner ikke ut om jeg kan lagre en nettside og beholde lenkene med innhold i flere lag.

Altså om jeg kan lagre f.eks en artikkel på snl.no, og få med innholdet i en lenke fra artikkelen, dypere og dypere. Alt offline.

"save page as" og "easy print pdf" hjelper meg ikke, for selv om de bevarer lenkene, må jeg være online for å bruke dem.

Hjelp noen?
Jeg vet ikke om denne funker lenger men brukte den for lenge siden.

http://www.httrack.com
Hvis ikke Rosander sitt forslag fungerer så kan du prøve wget eller curl. Jeg mener de kan gjøre dette, men det er ikke gui da.
Dette fungerer best med noenlunde statisk innhold, eller nettsider som later som de har statisk innhold. Hvis du har en side av typen http://example.com/side.php?side=foo&page=3 så er det ikke så mange verktøy som klarer å skille mellom e.g. page=3 og page=4. Da må du nesten laste ned hver side med alle kombinasjoner av parametre, så skrive om linkene slik at du kan klikke deg rundt lokalt. Når du så skal bla gjennom dette, så vil selvfølgelig ingen dynamiske funksjoner på siden, f.eks. søk, fungere i det hele tatt. Da må du i så fall lagre alle søkene dine på forhånd.

snl.no har heldigvis omskrevet sine lenker til å virke statiske, så de vil det gå an å laste ned slik de er. Men søkefunksjonen vil ikke virke, og det er spørs hvor glade de blir når de innser at noen stjeler fra de. Antageligvis vil de ha noen sperrer som hindrer deg i å scrape veldig mange sider på kort tid. Hvis du bare skal scrape N lenke-klikk ut i fra en enkelt artikkel, så kan dette gjøres med wget. Du bør i så fall passe på å filtrere på domene, slik at du ikke plutselig følger lenker til andre nettsteder.

Et gyldig alternativ, som virker, er å laste ned offline-kopi av Wikipedia. Denne kan du ta med deg rundt og faktisk bruke offline.
Httrack funker fett. Du kan velge om du bare skal laste ned den urlen eller om den skal følge alle linker i dokumentet
Httrack ser ut til å være det jeg leter etter. Det er et nettsted jeg har passordtilgang til, men URL er lik om jeg er logget inn eller ei.

Httrack kommer seg ikke fordi innlogginen selv om jeg altså er logget inn, og kopierer bare forhåndsvisninger for hver side. Kan jeg komme forbi det på et vis? Uten å måtte legge inn alle URLene jeg trenger manuelt? Finnes en "skjult" url i inspect eller show source med høyreklikk på nettsiden?
I see you...
NAPse's Avatar
Hva mener du med at du er innlogga på nettsiden?
Er du innlogga i en vilkårlig nettleser? Det vil ikke hjelpe deg.

Nå har ikke jeg testa HTTrack selv, men jeg vil tippe at du må benytte en av disse to metodene.

1. Gi HTTrack login informasjon.
2. Sette opp HTTrack med en kjeks som du allerede er innlogga med.
Sist endret av NAPse; 21. oktober 2018 kl. 13:42.