S.E.O. art. 1 – Hoe werken zoekmachines?

Stelt u zich voor: u bent voor het eerst in een wereldstad, zeg Londen, en u heeft een plattegrond bij de hand. Een stadswandeling lijkt u wel wat, maar er is zoveel te zien en u heeft eigenlijk geen idee waar te beginnen en wat precies de moeite waard is om te zien. Gelukkig heeft u een reisgids meegenomen waarin al een uitgestippelde route staat..

Wat heeft dit voorbeeld met de werking van zoekmachines te maken?
Een reisgids werkt op een vergelijkbare manier als een zoekmachine. In een reisgids is immers per onderwerp een selectie gemaakt van de bezienswaardigheden, restaurants, uitgaansplekken en hotels die er volgens hen toe doen. Ook een zoekmachine heeft aan een bepaald zoekwoord een enorme hoeveelheid bestanden en webpagina’s hangen die gerangschikt zijn door hun ranking. Een populair en kwalitatief uitstekend restaurant zal in een reisgids als één van de eerste aanraders genoemd worden. Zo werkt het ook met een populaire website waar veel bezoekers precies kunnen vinden wat ze nodig hebben: die website krijgt van zoekmachines een hoge ranking. Er is één groot verschil: restaurants en bezienswaardigheden worden bezocht door de recensenten van een reisgids, terwijl het wereldwijde web wordt doorzocht door crawlers/spiders van de verschillende zoekmachines.

Wat zijn ‘crawlers/spiders’?
Andere termen die vaak gebruikt worden in verband met zoekmachines zijn ‘crawlers’ of ‘spiders’. Deze abstracte figuren verwijzen naar bots (een afkorting van robots) die op methodische en geautomatiseerde wijze het web doorbladeren. Crawlers vinden pagina’s via links. Iedere keer wanneer een crawler op een link stuit, ontcijfert hij de code en selecteert hij bepaalde informatie. Deze geselecteerde delen worden vervolgens opgeslagen in hard drives: opslagruimtes voor digitale informatie. Het is deze enorme hoeveelheid aan bestanden die de basis vormt voor de antwoorden op zoekvragen.

Hoe komt de lijst met zoekresultaten tot stand?
U typt een zoekvraag in en er verschijnt een lijst met zoekresultaten. Hoe is die lijst tot stand gekomen? Wat een zoekmachine ten eerste doet, is uit de gigantische verzameling documenten alleen die webpagina’s eruit halen die relevant zijn voor uw zoekvraag. De relevantie van een webpagina wordt anno 2012 door meer dan 200 factoren bepaald, dus alleen de juiste woorden gebruiken is niet meer genoeg. De tweede stap bestaat uit het ‘ranken’ van de zoekresultaten op basis van hun bruikbaarheid. Voor de bruikbaarheid van een webpagina wordt tegenwoordig gekeken naar de populariteit ervan. Hoe populairder een pagina is, hoe meer waardevolle content die immers zal bevatten. Deze aanname klinkt simpel, maar de manier waarop populariteit en relevantie getest worden, is minder eenvoudig. Een zoekmachine gebruikt hiervoor namelijk algoritmes. De standaarddefinitie van een algoritme is een set regels die in een bepaalde volgorde opgesteld zijn om een probleem op te lossen. Een zoekmachine houdt zich dus aan een set regels bij het beoordelen en ranken van webpagina’s. Deze set regels bestaat uit honderden elementen die in SEO-jargon ook wel ‘ranking factoren’ genoemd worden. Een pagina die een hoge ranking heeft en dus populair is, voldoet dus aan een hoop van deze ranking factoren.

Appreciate
Categorieën: Logodesign Webdesign 3D Design S.E.O. All

Geef een reactie