Permalänk
Medlem

Hur kopierar man en website?

Hur gör man om man vill kopiera en hel website med alla underlänkar etc? Har provat HTTrack men den verkar bara kunna fånga upp översta lagret. Man kan ju spara varje delsida manuellt i webläsaren men det är ett väldigt jobb. Hade hoppats på ett verktyg som kravlade runt på sidan och gjorde detta jobb automatiskt. Jag är mest intresserad av att kunna spara text och bilder på de olika undersidorna. Kan det finnas typ kopieringsskydd på sidan som hindrar mig från att göra detta med automatik?

Permalänk
Medlem

Då mycket innehåll kan genereras dynamiskt, så tror jag inte det alltid är möjligt att samla in allt material utifrån.

Permalänk
Medlem
Visa signatur

Dator: MSI X570 Tomahawk, AMD 5600x, 64 GB RAM, 2xNVMe, 2xSATA SSD, 10 GBit NIC, Grafik Nvidia 3060 12 GB RAM
Skärm: Dell U3821DW 38" ultrawide Bärbar dator: MBA M1
Synology DS1821+ (10Gbit) - Dockers, VM, Surveillance Station 9 kameror
DS3612xs (10Gbit) - Backup sparas till denna från ovan
Skrev jag något vettig? "Tumme up":a så vet jag att det fanns nytta i min post.

Permalänk
Medlem

Linux har "wget": Tänk bara på att det oftast brukar finnas länkar till orelaterat material på sidorna. Mängden data den hämtar hem kan lätt svälla okontrollerat om man inte begränsar urvalet. Bifogar manualsidan:
https://linux.die.net/man/1/wget
https://www.gnu.org/software/wget/manual/wget.html

Permalänk
Medlem

En scraper är kanske det du letar efter.

Visa signatur

“The dollar is our currency, but it's your problem.” -John Connally, President Nixon's Treasury Secretary to a group of European finance minsters
"Keep the Russians out, the Americans in, and the Germans down" -NATO Secretary General, Lord Ismay