Google härstammar från ett projekt utfört på Stanford University av Larry Page och Sergey Brin. Efter ungefär två års forskade hade de båda kommit fram till en algoritm som skulle komma att förändra hur sökmotorer arbetade på Internet. Genom att inte endast analysera texten på en specifik hemsida utan också hur många andra internetsidor som länkade till sidan i fråga kunde träffarna rangordnas och den mest relevanta hamna överst. Algoritmen patenterades av Stanford University och kallas för PageRank.

Ovanstående teknik fungerar bra när det är frågan om text, men för att söka efter bilder fungerar det sämre. I dagsläget arbetar Googles bildsökningsalgoritm mer eller mindre enbart efter vilka nyckelord bilderna har och vad för text som finns i närheten av bilden på sidan. Någon hänsyn tas över huvud taget inte till hur bilden ser ut, vilket nu Google vill ändra på via VisualRank.

Exakt hur VisualRank skall fungera är ännu oklart, delvis på grund av att några patent ännu inte blivit utdelade. Men enligt den knapphända informationen som finns tillgänglig skall så skall man nu även börja ta hänsyn till bildens faktiska utseende. För det första så skall bilder som liknar varandra grupperas och på så sätt inte bli utspridda över hela bildsökningen. Exempelvis borde den ovanstående sökningen på ”sweclockers” rimligtvis gruppera alla bilder på chassin var för sig och så vidare.

Hur Google har tänkt att bedöma vilken bild som är den rätta och placera den gruppen av bilder först framgår däremot inte. Men enligt källan skall bland annat Google Products delvis användas. Det vill säga att om användaren söker på ordet ”ipod” skall en bild på en sådan hämtas från Google Products och sedan jämföras med de sökträffar ordet genererar i bildsökningen.

För att förfina träffresultatet vid en sökning kommer de också att använda samma teknik som hos PageRank, där antalet länkar till bilden eller sidan höjer dess ranking och vice versa.

Källa: TG Daily