woensdag 22 augustus 2012

De tijd van SEO is voorbij

SEO, Search Engine Optimization, in het Nederlands zoekmachine-optimalisatie.
Het is overbodig geworden.
Het stamt uit de tijd dat programmeertalen/softwareprogramma's nog niet gestandariseerd waren. Het stamt uit de tijd dat mensen nog niet zo goed wisten wat en hoe ze iets op het web moesten zetten. Het stamt uit de tijd dat zoekmachines nog niet zo intelligent waren als nu.

In den beginne
Vroeger kwam het voor dat er codes in websites zaten waardoor de content niet leesbaar was voor zoekmachines (bij gebruik van een frame bijvoorbeeld). Alleen de bezoekers zagen de content. Je kon de zoekmachine helpen door trefwoorden als "metatag keyword" op te geven. Dat werd massaal misbruikt, reden waarom zoekmachines de gemanipuleerde zoekwoorden al snel links lieten liggen. Handige jongens (zoals ik) plaatsten de trefwoorden vervolgens in de kleur van de achtergrond op hun site. Maar ook dat werd afgestraft; het was niet zichtbaar voor de bezoeker en werd daardoor eveneens gemanipuleerd. Uiteindelijk bleef alleen het zichtbaar plaatsen van trefwoorden over. Reden waarom tijdenlang het assortiment in mijn webwinkel volledig opgesomd werd in de footer.
Tegenwoordig zijn de meeste websites goed leesbaar voor zoekmachines. Het (dubbel) plaatsen van trefwoorden/content speciaal voor zoekmachines is overbodig geworden.

Den mensch
Tegenwoordig weten de meeste mensen dat je heldere content moet schrijven. Dat je uniek en origineel moet zijn want dan heb je minder concurrentie op de vindbaarheid. Dat je foto's geen nummer maar een trefwoord en/of omschrijving geeft. Dat urls leesbaar moeten zijn. Dat je obstakels als 3 minuten durende intro's beter weg kunt laten.
De meeste webbouwsystemen schrijven tegenwoordig "schone" code.

De zoekmachine
Zoekmachines zijn intelligenter geworden. Ze filteren spelfouten eruit, bieden synoniemen aan, straffen trucs als betaalde linkbuilding en contentfarms af. In de toekomst zullen ze alleen nog maar intelligenter worden. Gemanipuleer om beter te scoren hebben ze steeds beter door. Ze volgen de bezoeker.
Doe geen dingen speciaal voor zoekmachines (zoals een tagcloud volplempen met alle mogelijke synoniemen, zinnetjes en spelfouten van de woorden waarop je gevonden wilt worden). Gebruik geen hulpmiddelen (zoals een canonical) die onzichtbaar zijn voor de bezoeker. Vroeg of laat wordt het afgestraft.
Richt je simpelweg op de bezoeker. De zoekmachine volgt vanzelf.

SEO-problemen
Toch zijn de SEO-cowboys-experts nog niet werkeloos. Omdat niet alle pagina's zo goed worden geïndexeerd als je zou willen. SEO-experts kunnen dit verbeteren. Gewoon omdat het kan. Omdat daar mogelijkheden en hulpmiddelen voor zijn. En als ze er testen op los laten blijkt het ook nog te werken.
Mijn bescheiden mening is dat dit niet meer de juiste werkwijze is. Je moet de indexatie van deze pagina's niet verbeteren, maar je moet je afvragen WAAROM de pagina's niet goed worden geïndexeerd.

Drie voorbeelden
  1. De tweede verwijzing (link) op een pagina krijgt geen waarderingspunten. Dat is vervelend, want je wilt meerdere linken voor de doelpagina gebruiken om die doelpagina op die teksten beter te laten scoren. Dat valt op te lossen. Maar dit is niet in het belang van de bezoeker. Het is zelfs uitermate irritant als je 2x naar dezelfde pagina gestuurd wordt, en al helemaal als dit met verschillende ankerteksten gebeurt.
  2. Het canonical attribuut wordt veel gebruikt door SEO-experts. Het ding is bedoeld als hulpmiddel bij niet te vermijden duplicaat content binnen een site. Voorkomen is beter dan genezen. Vermijden van duplicaat content is beter dan een hulpmiddel gebruiken om problemen veroorzaakt door duplicate content op te lossen. Geef daarom geen pad aan in de url als de pagina via meerdere paden te bereiken is bijvoorbeeld. Het canonical attribuut wordt tevens ingezet op pagina's die niet onder duplicate content vallen. Dat is manipuleren. Je zegt, onzichtbaar voor de bezoeker, tegen de zoekmachine dat het een identieke pagina betreft. Terwijl dat niet zo is.
  3. Dieperliggende content van zogenoemde "paginatie" wordt minder goed geïndexeerd. Het is content die verdeeld is over meerdere pagina's. Dergelijke pagina's lijken op elkaar omdat ze titel, omschrijving en soms ook de url gemeenschappelijk hebben. Een poos geleden heb ik dat voor Artoek opgelost door geen paginatie meer te laten ontstaan. De bezoeker moet nu iets meer scrollen i.p.v. door te klikken naar een volgende pagina. Deze oplossing zou niet geschikt zijn voor grote sites werd mij verteld. Klopt, eindeloos scrollen is niet gebruiksvriendelijk. Maar de content verdelen over 20 pagina's ook niet. Een klant gaat echt geen 20 pagina's doorbladeren als hij op zoek is naar een product. En de zoekmachine dus ook niet, en dat is de reden waarom dieperliggende content minder goed wordt geïndexeerd. Je kunt beter de content opsplitsen, zodat de klant sneller vindt wat hij zoekt. 

Door de bomen het bos blijven zien
Ergens begrijp ik het wel. Ik heb makkelijk praten. Ik ben een bezoeker, een gebruiker van internet. Ik ben geen webbouwer, geen SEO-specialist. Ik word niet gehinderd door enige programmeerkennis. Ik weet weinig van html en javascript. Ik zie alle eindeloze mogelijkheden en oplossingen gewoonweg niet. Ik zou niet weten hoe ik mijn veronderstellingen zou moeten testen.
Het enige wat ik kan is beredeneren en gissen waarom zoekmachines iets niet goed indexeren.
Vergelijk het met de medische wereld. Ik heb chronisch last van stevige bloedarmoede door ijzergebrek. Ik heb o.a. 6 ingrepen gehad bij de kaakchirurg, een specialist op zijn vakgebied. Die ingrepen hielpen weliswaar, maar als ik destijds al ijzertabletten had geslikt waren de klachten hoogstwaarschijnlijk niet eens ontstaan. Waarmee ik wil aangeven dat het kijken naar het totaalplaatje lastig is voor een specialist. Die kijkt eerst naar zijn vakgebied.

Conclusie
Je optimaliseert niet meer voor zoekmachines, je optimaliseert voor de bezoeker. En de zoekmachine volgt vanzelf. De tijd van SEO is voorbij.