De sidor som har ett snällt API du kan använda är enkla att inkorporera: då kan du enkelt t ex be om data för en viss titel och få priserna i entydiga datastrukturer.
Om de inte har detta så får du köra web scraping med något verktyg. Jag hade personligen valt att göra det i Python med modulen Beautiful Soup som gör saker så gudomligt enkelt jämfört med alternativen, men var medveten om att det är en del pill trots allt, samt att om/när sidorna ändrar sin layout så behöver lösningen troligen revideras.
Pythonprogrammet hade då t ex kunnat köras periodiskt (en gång om dagen, kanske) och fylla en databas med uppgifter, och webgränssnittet sedan läsa ur just denna databas.
Tiden för att få ihop en funktionell lösning borde främst gå åt till att lyckas med web scraping (gärna någorlunda modulärt så att du kan lägga till/ta bort externa sidor att söka på) och att sätta upp databasen på ett smart sätt. I databasen behöver du lagra titlar, sök-ID för varje separat extern sida (de har troligen olika varunummer på olika sidor, och enbart fritextsökning är nog kört på förhand (flera versioner/format av samma film, uppföljare, etc.)) samt de priser du hittar (med datumangivelse; skriv inte över gamla priser, utan lagra det som en ny rad för att kunna hålla historik). Sökningen för varje extern sida skulle kunna implementeras med t ex separata skript i en viss katalog som tar sök-ID som input och ger pris och andra önskade variabler som output (de enklaste sidorna kräver som sagt kanske bara ett API-anrop; bökigare sidor kräver mer komplicerad scraping). Du skulle kunna ha en global konfigurationsfil där "aktiva externa sidor" angavs som sedan antog att det fanns en fil med motsvarande namn i skriptkatalogen, samt en en kolumn med motsvarande namn i databasen.
Det känns som en lärorik uppgift som går att skala upp en bra bit i svårighet och tid genom att utöka funktionalitet. Del 1 i lösningen borde vara att öht lyckas få ut information från externa sidor; del 2 att bygga upp databasen och dynamiskt kunna söka efter titlar beroende på dess innehåll och kunna populera den genom de metoder du utvecklade i del 1; del 3 att göra ett webgränssnitt.
Har du ingen erfarenhet av databaser eller webprogrammering i allmänhet så skulle jag dock friskt räkna med att det skulle ta bra tid att komma fram till en full lösning (månader med sporadiskt kodande och, troligen framför allt, läsande). Men som sagt: säkerligen mycket lärorikt, och skalbart till månen (användarkonton med speciella filmbevakningar, möjlighet för just användare att lägga till titlar, RSS-sammanställning, IMDB-koppling, etc.).