Muskampen 2025: Segraren korad!
Permalänk
Medlem

susning.nu offline?

Är det på något sätt möjligt att få susnung.nu offline? Det finns ju flera encyklopedier på cd-rom, men fördelen med susning.nu är ju just att den också innehåller varadagliga saker. Tror ni att man kan slå upp och få reda på vad "kewl" betyder i exempelvis Encyclopedia Britannica?

Huvudanledningen är ju att jag skulle villja ha den på handdatorn, då man inte alltid har tillgång till internet. Att ha med sig ett sådant uppslagsverk vore verkligen underbart.

Edit: Något missvisande topic, ser jag nu.

Visa signatur
Permalänk
Medlem

Hehe, ja, min första tanke var att du ville få ner servern som susning.nu ligger på.

Men att just få ner endast informationen kan nog bli lite lurigt. Däremot kan man ju tanka hem hela susning.nu med hjälp av en web site downloader, och sedan parsa ut datan man vill ha och mata in den i en databas. Men det låter som ett stoooort projekt. Och jag förmodar att du lägger informationen på en lokal server som du kommer åt med handdatorn? Annars fyller du nog handdatorn rätt snabbt.

En annan nackdel är ju att mycket information på susning.nu uppdateras och ny information tillkommer rätt ofta. Men det är ju en intressant idé!

Visa signatur

- "Sometimes you make the right decision,
sometimes you make the decision right."
/Dr. Phil

Permalänk
Medlem

Jag är inte så säker att en "website downloader" kan ladda ner hela susning.nu, då ju informationen säkert ligger i en databas. Det är knappast enskillda html-dokumrnt för varje "sökord". Men om det vore så väl, att allt låg i separata dokument som man kunde ladda ner, så vore det inte alls ett så stort projekt att parsa fram informationen.
Jag tänkte ha informationen direkt på handdatorn, annars skulle ju poängen försvinna. Men så stort kan det inte vara, då det ju handlar om korta beskrivningar, utan bilder och annan media. 200 mb på sin höjd.

Visst uppdateras informationen, precis som alla andra encyklopedier. Man får helt enkelt uppdatera sin offline-kopia då och då.

Visa signatur
Permalänk
Medlem

En web site downloader kan nog tanka hem allt som finns på susning.nu, så länge det finns en länkar till sidorna. Så det är inga som helst problem. Däremot kan det ta rätt lång tid att få hem allt. En web site downloader fungerar precis som en webbläsare, att den tar den genererade HTML-koden och sparar på din hårddisk. WinHTTrack är ett välkänt offline program som fungerar bra.

Storleken vågar jag inte ens gissa på, det finns nog mer info där än man tror.

Visa signatur

- "Sometimes you make the right decision,
sometimes you make the decision right."
/Dr. Phil

Permalänk
Medlem

Tryck enter i den tomma sökrutan så får du länkar (indirekta) till alla tillgängliga termer.

Permalänk
Medlem

Sidorna med informationen genereras när du ska se dem. Det är altså knappast en massa sidor som ligger på någon hårddisk.

Och även om det nu skulle vara så, att det fanns en separat sida för varje sökord, så måste man fortfarande utgå från en index-sida (som har länkar till alla ord som beskrivs på susnning.nu), och en sådan har jag inte sett.

Edit: Det verkar ju vara som Lavve säger, det verkar vara separata sidor för varje sökord. Lite småskabbigt, men bra för mitt endamål.

Måste försöka mig på det här.

Visa signatur
Permalänk
Permalänk
Medlem

Det är väl bara att knyta websajtnedladdaren till susnings index-sida (den som ph0ng pratar om).

Det spelar ingen roll om susnings webserver genererar html sidor från en databas eller från en fil.

Jag tror dock inte att det är en bra lösning, det känns långsamt. Näst är nog att fråga dem efter det och kanske eventuellt betala en liten summa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av s.c.s.i.
Sidorna med informationen genereras när du ska se dem. Det är altså knappast en massa sidor som ligger på någon hårddisk.

Och även om det nu skulle vara så, att det fanns en separat sida för varje sökord, så måste man fortfarande utgå från en index-sida (som har länkar till alla ord som beskrivs på susnning.nu), och en sådan har jag inte sett.

Jag har inte påstått att det finns "en massa sidor som ligger på någon hårddisk". Men det säger väl sig självt att klienten får en separat och unik webbsida för varje sökterm?

EDIT (reflektion över s.c.s.i.s edit): vad får dig nu att tro att det finns en sida för varje sökterm? menar du en statisk sida för varje?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ph0ng
Men det säger väl sig självt att klienten får en separat och unik webbsida för varje sökterm?

Javisst, men det hänger ju på nerladdningsprogrammet om den klarar av det eller inte, eftersom filerna inte existerar fysiskt. Jag trodde/tror att sådana nerladdare bara kan ladda ner existerande material.

Edit: ph0ng, never mind that.

Visa signatur
Permalänk
Medlem

Programmet följer väl alla länkar, och anropar därför varje sökterm. Det fungerar väl precis som en vanlig webbläsare?

Permalänk
Medlem

Genererandet av sidorna sker väl iaf helt och hållet server-side, så det spelar ingen som helst roll om du läser dem i en webbläsare eller med en nerladdare, det blir samma filer ändå, dvs genererad HTML kod.

Permalänk
Medlem

Som Locke säger, ska nog börja med att maila dem och fråga om det är möjligt att få tag på informationen på ett smidigare sätt.

Att tanka hela webplatsen med en nerladdare känns verkligen segt, men å andra sidan, det är väl bara att låta det gå över en natt. Men det låter inte så snällt mot deras server. =/

Visa signatur
Permalänk
Medlem

Så länge det är ren text är det nog ingen fara.

Permalänk
Medlem

http://susning.nu/Susning.nu/statistik

Där har du artikelantal och artikellängder. Det borde gå att grovt beräkna mängden data utifrån det.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av s.c.s.i.
Javisst, men det hänger ju på nerladdningsprogrammet om den klarar av det eller inte, eftersom filerna inte existerar fysiskt. Jag trodde/tror att sådana nerladdare bara kan ladda ner existerande material...

Du talar i gåtor men vi tycker om dig ändå.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Locke
Du talar i gåtor men vi tycker om dig ändå.

Det är skönt att jag har lyckats maskera min okunskap till gåtor.

Edit: Jag har skickat ett mail till dem, och frågade om det var ok att ta en del av texterna, och hur jag skulle gå till väga. Vi får se vad de svarar.

Visa signatur
Permalänk
Medlem

nu har jag börjat ladda hem deras sajt.
Använder teleport pro. Får väl se hur lång tid det tar.
Har fått hem ca 1000 filer och det tar hittills ca 50MB, ungefär 30000sidor kvar (ökar dock hela tiden när den hittar nya), så det kommer nog ta väldigt lång tid och ta väldigt mycket plats.
30*50MB=1500MB och det är om den inte hittar fler och det lär den göra.

edit:
Nu verkar programmet vara lite smått överbelastat och lite småsegt. Men det verkar som den fortsätter, låter den gå ett tag till.
runt 2000filer klara och lite styvt 120MB

Visa signatur

Sverige är ett så litet land att det bara får plats en åsikt i taget där.

Permalänk
Medlem

Hur gör den med den reklam som finns på Susning.nu? Kommer inte nerladdningen att åka in på reklamsidan, och vidare?

Och majoriteten av "sökord" har även länkar till andra sökord. Dessa kommer då inte med dubbelt på något sätt? Både via 'registret' och från länkningen? Klart, filen ska ju ligga på samma ställe, men den kommer väl ändå att laddas ner flera gånger, men skriva över den existerande filen?

Och hur gör den med loggor och andra bilder från sidan? Det finns en logga på varje sida. Kommer den loggan att laddas ner för varje sökord?

1500mb är altså den ungefärliga storleken på alla html-dokument som skrivs. Men när man plockar ut enbart informationen man vill ha ur dem, bör det ju bli betydligt mindre.

Visa signatur
Permalänk
Medlem

Angående reklamen skulle jag gissa att programmet inte bryr sig om att följa länkar som leder till andra siter. Den kanske bara går på relativa länkar.

Angående om sidor laddas ner på nytt är möjligt, om sökvägen online till innehållet är olika. Vilket borde vara möjligt med extra information i GET-requests om språk o.dl.
Om programmet är välgjort så försöker det väl förhindra detta.

Permalänk
Medlem

Jag har angett att den inte skall ladda bilder. Sen har jag även sagt att det bara är sidor från www.susning.nu som skall laddas ner så länkar till externa bryr den sig inte om.

Sen tror jag antalet sidor ligger runt 80000 och då blir det ännu mer.
Sen nu verkar den konstig också då storleken ökar mer än antalet sidor,
2134sidor 185MB.
80000 sidor skulle ge runt 7GB... får se hur den artar sig efter ett tag.

Hoppas den inte ökar för mycket, har bara 11GB kvar på den partitionen.

Visa signatur

Sverige är ett så litet land att det bara får plats en åsikt i taget där.

Permalänk
Medlem

Har du analyserat datan du fått ner än så länge, eller är det programmets statistik du utgått från endast?

Permalänk
Medlem

Det är katalogstrukturen direkt i den mappen som det sparas i jag utgår ifrån, samt från vad programmet säger (då den ibland svarar, arbetar väldigt hårt).
Det skulle nog gå fortare om man har en snabbare dator då det verkar vara ganska processorkrävande program, ligger konstant på maxload.

Har kollat så att det stämmer det jag fått ner och det fungerar att surfa offline men vi sökning skickas man till deras server.
Men det är inte så svårt att fixa nån stor indexsida med alla 80000 länkar så man kan söka offline.

Visa signatur

Sverige är ett så litet land att det bara får plats en åsikt i taget där.

Permalänk
Medlem

För mig spelar det ingen roll hur sidorna är indexerade, egentligen, eftersom jag kommer att gå genom alla, parsa fram den önskade informationen, och lögga in det i en databas.

Visa signatur
Permalänk
Medlem

Men länkarna till andra förklaringar inom dokumenten måste ju också peka till susning.nu. Blir en krävande process att ändra i alla dokument...

Edit: okej s.c.s.i., då är min diskussion helt ute i skogen

Permalänk
Medlem

Programmet ändrar länkarna så det är inget problem.
Däremot har jag märkt att den laddar hem alla sökningar också, så det kommer ta väldigt lång tid och ta mycket plats. Då vissa sökningar ger sidor som är över 1MB stora.
Kanske finns nån inställning i programmet så man kan exludera dessa, men sånt vet inte jag då jag inte använd teleport pro så mycket.
Nån annan kan ju prova med programmet och försöka göra lite småinställningar innan ni börjar sökningen så ni slipper detta problem.

Visa signatur

Sverige är ett så litet land att det bara får plats en åsikt i taget där.

Permalänk
Medlem

Tänk på att varje artikel har länkar till tidigare versioner av samma artikel, och till en sida för att redigera artikeln. Det kan nog vara tillrådigt att se till att nerladdaren exkluderar dessa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av s.c.s.i.
För mig spelar det ingen roll hur sidorna är indexerade, egentligen, eftersom jag kommer att gå genom alla, parsa fram den önskade informationen, och lögga in det i en databas.

Men då vill du väl själv skriva ett program som går igenom och laddar ner informationen? Du behöver ju inte ha laddat ner allt först för det.

Visa signatur

I just love the fact that there is a global integer variable named 'i'. Just think, you will never need to declare your loop variable again!
To avoid collisions where a loop that uses 'i' calls another function that loops with 'i', be sure to stack 'i' and restore it when your function exits.

Permalänk
Medlem

programmet har tuggat klart, dock fick den inte hem allt då jag angav att den inte skulle ta med vissa sidor och då hittade den inte alla som skulle med. Har dock satt på den igen så den får leta lite till. Dock verkar programmet inte klara av mer än runt 60000 filer.
Det jag fått hem hittills är ca 14000 filer på 388MB.
Men denna omgång angav jag söksidan (tom sökning) direkt så den borde gå fortare att söka igenom allt. Nu har den enligt programmet hittat över 40000 filer, kommer ta väldigt lång tid.

Visa signatur

Sverige är ett så litet land att det bara får plats en åsikt i taget där.