Fråga för acancerade ställd av en som knappt vet vad html är.

Permalänk
Medlem

Fråga för acancerade ställd av en som knappt vet vad html är.

Om man ska bygga en sida varifrån man kan söka på alla saker som ligger på runt 50 andra sidor. Hur gör man då?

Kan ta pricerunner som ett exempel eftersom det är det närmaste jag hittat till vad jag vill åstadkomma. Dock inte lika avancerat, jag behöver bara 1 kategori och i den kategorin ska allt det man söker på listas med information, kommentarer m.m (från de ca: 50 andra sidorna).

Hur gör jag? Så jag får en aning om vart jag ska börja. Även fast jag inte kan något alls så tänker jag inte ge mig förrän mitt projekt är klart.

All info uppskattas.

Tack på förhand.

Edit: Lyckas inte hitta någon info alls om detta, kanske inget man bör göra kl 4 på morgonen men ändå... Glömde nämna innan att jag även vill att sökresultaten håller sig uppdaterade om det nu spelar nån roll. Precis som pricerunner för att ta ett exempel, söker jag på "xbox" t.ex på pricerunner så får jag upp alla "xboxar" sidans sökfunktion hittade med tanke på vilka sidor den söker på. Exakt såhär vill jag ha det, eller så nära det bara går. Att bygga en vanlig sida kan jag, det är mer hur man implementerar dessa j*vligt avancerade funktioner (för mig iallafall) som jag inte har en aning om hur man gör.

Edit 2: Har tänkt lite till nu och försöker förstå teorin bakom hur t.ex pricerunner är uppbyggt. Ni som vet kan gärna förklara... Har dock tänkt lite själv. Skulle det inte kunna fungera att ha ett program som automatiskt indexerar de sidor jag säger åt det att göra med jämna mellanrum och sedan byggs en sökfunktion upp kring detta? Alternativt att jag på något sätt sparar ner valda sidor på min hårdisk med jämna mellanrum (automatiskt?) och indexerar dom därifån så att allt jag vill få sökbart också blir sökbart? Finns det överhuvudtaget några program som gör det jag vill? Skulle ju vara en omöjlighet att göra det manuellt, sida för sida, länk för länk...

Permalänk
Medlem

Ett alternativ är ju att en gång om dagen låta ett program du skriver låtsas vara en webbläsare som ställer en fråga till pricerunner och de andra, sen parsar all html och knycker deras information och lägger det i din egen databas, som sen kompletteras med ett sökinterface.

Ett annat är att sluta nåt slags avtal med sidorna du vill sno information av och fråga deras databaser direkt.

Alternativ ett är nog olagligt på mer än ett sätt, alternativ två kräver antaligen en del kapital.

HTML är ditt minsta problem i det här fallet.

Visa signatur

Brass knuckles and a 2x4

Permalänk
Medlem

Pricerunner gör som jonasc sa: de har script som laddar ner html-sidor från webbutiker, som de sedan tar fram prisinfo ur och lägger in i den egna databasen.

Pricerunner håller sig inom lagens ramar eftersom de bara tar hem priser, ingen har ju copyright på en prisuppgift. Att ta hem kommentarer osv från andra sajter skulle dock vara olagligt.

Job description Agent programmer:
Pricerunner uses an automated agent to collect over a million prices from more than a thousand stores every night. In order to speed up the rate at which new retailers are added to the site, Pricerunner is now looking to recruit more agent programmers who can define the structure of web shops so that the agent can successfully track their prices. This is done in our internal system that uses XML, XSLT and Regular expressions to define what a price and product name look like. You will mostly create new price collections for stores that want to be listed on Pricerunner, but also be responsible for continually checking that the existing price collections work as they should.

Visa signatur

Alla män är dödliga. Sokrates var dödlig. Alltså är alla män Sokrates.

Permalänk
Medlem

Det är inte alls svårt att göra det du är ute efter, det kan dock vara ganska tidskrävande och kommer kräva en hel del "pill".

Enklast gör du en "agent" som vid en viss tidpunkt hämtar upp sidan med prisinformationen på och tar ut informationen med hjälp av Regular Expressions. Sen sparar du ned uppgifterna i någon typ av databas (XML eller MySQL t.ex.). Sen ställer du frågor mot din egna databas på din sida.

Det svåra här ligger i hur man hämtar ut informationen från 50 olika sidor, du kommer i princip vara tvungen att göra en "parser" för varje sida då de flesta kodar annorlunda.

Om du är seriös och verkligen vill göra en bra produkt av detta tror jag du gör bäst i att ta hjälp av en erfaren programmerare. Visst går det att göra själv men för att det ska bli en bra produkt krävs det att man har lite erfarenhet om hur man optimerar systemet och gör det snabbt.

Om du ska göra det själv så säg till vilket språk du tänker göra det i så kanske vi kan hjälpa till med lite mer konkreta exempel. Eller så fixar du fram kosing så gör jag det åt dig.

Lycka till!

Visa signatur

Visionär bakom Sveriges största publika spelsatsning. Säger jag mer så blir jag förmodligen bannad igen.

Ställ krav! Involvera er! Tänk utanför sandlådan.

Permalänk
Medlem

Ok tackar för era svar. Har hittat några program som jag tror kan vara till hjälp, är det denna typ av program jag behöver (skriva ett eget som fixar det är över min förmåga)?

http://www.download.com/RoboNavigation-Office/3000-2383_4-848...

http://www.download.com/Autoweb/3000-2215_4-9641114.html?tag=...

http://www.download.com/Extreme-DMOZ-Extractor/3000-7241_4-10...

http://www.download.com/XSite/3000-2381_4-10419007.html?tag=l... (gratis)

http://www.download.com/JujuGet/3000-2379_4-10247880.html?tag... (detta låter verkligen som exakt som vad jag behöver)

http://www.sundewsoft.com (detta låter ännu bättre, dyrt som fan men har ett användarvänligt gränssnitt så man behöver inte kunna koda eller skriva script eller något för att använda, kommer det göra vad jag vill, bör jag köpa det?)