John Mueller van Google antwoordde of het verwijderen van pagina’s van een site helpt bij het oplossen van het probleem van pagina’s die Google ontdekt maar niet crawlt. John gaf algemene ideeën om dit probleem op te lossen.
Ontdekt: momenteel niet geïndexeerd
Search Console is een service van Google die zoekgerelateerde problemen en feedback communiceert.
Indexatiestatus is een belangrijk onderdeel van de zoekconsole omdat het de uitgever vertelt hoeveel van een site is geïndexeerd en in aanmerking komt voor ranking.
De indexeringsstatus van webpagina’s is te vinden in het pagina-indexeringsrapport in de Search Console.
Een melding dat Google een pagina heeft ontdekt maar niet heeft geïndexeerd, is vaak een teken dat er een probleem moet worden aangepakt.
Er zijn verschillende redenen waarom Google een pagina kan ontdekken maar weigert deze te indexeren, hoewel de officiële Google-documentatie er slechts één vermeldt.
“Ontdekt, momenteel niet geïndexeerd
Google heeft de pagina gevonden, maar deze is nog niet gecrawld.
Normaal gesproken wilde Google de URL crawlen, maar dit zou de site overbelasten; daarom heeft Google de crawl opnieuw gepland.
Daarom is de laatste crawldatum leeg in het rapport.”
John Mueller van Google biedt meer redenen waarom een pagina zou worden ontdekt maar niet geïndexeerd.
Niet-geïndexeerde pagina’s de-indexeren om sitebrede indexering te verbeteren?
Het idee bestaat dat het verwijderen van bepaalde pagina’s Google zal helpen de rest van de site te crawlen door minder pagina’s te laten crawlen.
Er is een perceptie dat Google een beperkte crawlcapaciteit (crawlbudget) heeft toegewezen aan elke site.
Googlers hebben herhaaldelijk gezegd dat er niet zoiets bestaat als een crawlbudget zoals waargenomen door SEO’s.
Google heeft een aantal overwegingen voor het aantal pagina’s dat moet worden gecrawld, waaronder het vermogen van de server van de website om een uitgebreide crawl te verwerken.
Een onderliggende reden waarom Google kieskeurig is over hoeveel het crawlt, is dat Google niet genoeg capaciteit heeft om elke webpagina op internet op te slaan.
Dit is de reden waarom Google de neiging heeft om pagina’s te indexeren die enige waarde hebben (als de server dat aankan) en andere pagina’s niet te indexeren.
Lees voor meer informatie over crawlbudget: Google deelt informatie over crawlbudget
Dit is de vraag die werd gesteld:
“Zou het de-indexeren en aggregeren van 8 miljoen gebruikte producten in 2 miljoen unieke indexeerbare productpagina’s de doorzoekbaarheid en indexeerbaarheid helpen verbeteren (ontdekt, momenteel niet-geïndexeerd probleem)?”
John Mueller van Google erkende eerst dat het niet mogelijk was om het specifieke probleem van de persoon aan te pakken en deed vervolgens algemene aanbevelingen.
Hij antwoorde:
“Het is onmogelijk te zeggen.
Ik raad aan om de grote sitegids voor budgettracering in onze documentatie te bekijken.
Voor grote sites wordt meer crawlen soms beperkt door hoe uw website meer crawlen aankan.
In de meeste gevallen gaat het echter meer om de algehele kwaliteit van de website.
Verbetert u de algehele kwaliteit van uw website aanzienlijk van 8 miljoen pagina’s naar 2 miljoen pagina’s?
Tenzij je gefocust bent op het verbeteren van de daadwerkelijke kwaliteit, is het gemakkelijk om veel tijd te besteden aan het verminderen van het aantal indexeerbare pagina’s, maar niet aan het daadwerkelijk verbeteren van de website, en dat zou de zoekfunctie niet verbeteren.”
Mueller biedt twee redenen voor het niet-geïndexeerde ontdekkingsprobleem
John Mueller van Google gaf twee redenen waarom Google een pagina zou kunnen ontdekken maar weigeren deze te indexeren.
Servercapaciteit Algehele websitekwaliteit
1. Servercapaciteit
Mueller zei dat het vermogen van Google om webpagina’s te crawlen en te indexeren mogelijk wordt beperkt door hoe goed uw website meer crawlen aankan.
Hoe groter een website is, hoe meer robots er nodig zijn om een website te crawlen. Het probleem is dat Google niet de enige bot is die een grote site crawlt.
Er zijn andere legitieme bots, bijvoorbeeld van Microsoft en Apple, die ook de site proberen te crawlen. Daarnaast zijn er veel andere bots, sommige legitiem en sommige gerelateerd aan hacken en dataschrapen.
Dit betekent dat er voor een grote site, vooral in de avonduren, duizenden bots kunnen zijn die websiteserverbronnen gebruiken om een grote website te crawlen.
Daarom is een van de eerste vragen die ik een uitgever met indexeringsproblemen stel, de status van hun server.
Doorgaans heeft een website met miljoenen pagina’s, of zelfs honderdduizenden pagina’s, een speciale server of cloudhost nodig (omdat cloudservers schaalbare bronnen bieden, zoals bandbreedte, GPU’s en RAM).
Soms heeft een hostingomgeving meer geheugen nodig dat is toegewezen aan een proces, zoals de PHP-geheugenlimiet, om de server te helpen omgaan met veel verkeer en om 500 foutmeldingen te voorkomen.
Het oplossen van problemen met servers omvat het analyseren van een serverfoutlogboek.
2. Algemene kwaliteit van de website
Dit is een interessante reden om niet genoeg pagina’s te indexeren. De algehele sitekwaliteit is als een score of bepaling die Google aan een website toekent.
Delen van een website kunnen de algehele kwaliteit van de site beïnvloeden
John Mueller heeft gezegd dat één onderdeel van een website van invloed kan zijn op de algehele bepaling van de kwaliteit van de site.
Muller zei:
“…voor sommige dingen kijken we naar de algehele kwaliteit van de site.
En als we kijken naar de kwaliteit van de site in het algemeen, als u aanzienlijke delen van mindere kwaliteit heeft, maakt het ons niet uit waarom ze van mindere kwaliteit zijn.
… als we zien dat er belangrijke onderdelen van mindere kwaliteit zijn, zouden we kunnen denken dat deze website over het algemeen niet zo goed is als we dachten.”
Definitie van sitekwaliteit
John Mueller van Google gaf een definitie van sitekwaliteit in een andere Office Hours-video:
“Als het gaat om de kwaliteit van de inhoud, bedoelen we niet alleen de tekst van je artikelen.
Het is echt de kwaliteit van uw website in het algemeen.
En dat omvat alles van ontwerp tot ontwerp.
Bijvoorbeeld hoe je dingen op je pagina’s presenteert, hoe je afbeeldingen integreert, hoe je snel werkt, al deze factoren spelen een rol.”
Hoe lang het duurt om de algehele kwaliteit van de site te bepalen
Een ander feit over hoe Google de sitekwaliteit bepaalt, is hoe lang het duurt voordat Google de sitekwaliteit bepaalt, wat maanden kan duren.
Muller zei:
“Het duurt lang voordat we begrijpen hoe een website in de rest van het internet past.
… En dit is iets dat gemakkelijk, ik weet het niet, een paar maanden, een half jaar, soms zelfs meer dan een half jaar kan duren…”
Een site optimaliseren voor crawlen en indexeren
Het optimaliseren van een hele site of een gedeelte van een site is een soort algemene, hoogwaardige manier om naar het probleem te kijken. Het komt vaak neer op het optimaliseren van individuele pagina’s op schaal.
Met name voor e-commercesites met miljarden producten kan optimalisatie vele vormen aannemen.
Dingen om te overwegen:
Hoofdmenu
Zorg ervoor dat het hoofdmenu is geoptimaliseerd om gebruikers naar de belangrijke delen van de site te leiden waarin de meeste gebruikers geïnteresseerd zijn. Het hoofdmenu kan ook linken naar de meest populaire pagina’s.
Link naar populaire secties en pagina’s
De meest populaire pagina’s en secties kunnen ook worden gelinkt vanuit een aanbevolen sectie op de startpagina.
Dit helpt gebruikers om naar de pagina’s en secties te gaan die voor hen het belangrijkst zijn, maar vertelt Google ook dat dit belangrijke pagina’s zijn die moeten worden geïndexeerd.
Verbeter dunne inhoudspagina’s
Dunne inhoud zijn in feite pagina’s met weinig bruikbare inhoud of pagina’s die meestal duplicaten zijn van andere pagina’s (sjablooninhoud).
Het is niet genoeg om de pagina’s met woorden te vullen. Woorden en zinnen moeten betekenis en relevantie hebben voor bezoekers van de site.
Voor producten kunnen dit afmetingen zijn, gewicht, beschikbare kleuren, suggesties voor andere producten om ermee te combineren, merken waarmee producten het beste werken, links naar handleidingen, veelgestelde vragen, beoordelingen en andere informatie die gebruikers waardevol zullen vinden .
Niet-geïndexeerde crawloplossing voor meer online verkoop
In een fysieke winkel lijkt het voldoende om de producten in de schappen te leggen.
Maar de realiteit is dat er vaak slimme marketeers nodig zijn om die producten uit de schappen te krijgen.
Een webpagina kan de rol spelen van een deskundige marketeer die aan Google kan communiceren waarom de pagina moet worden geïndexeerd en klanten kan helpen bij het kiezen van die producten.
Zie Google SEO-spreekuur om 13:41 minuut:

Hey, ik ben Brent, en ik speel al een lange tijd mee in de SEO scene. Ik ben vooral heel actief in de Amerikaanse markt, en hou dan ook wel van een uitdaging. Ik ben sinds kort aan het uitbreiden binnenin de Benelux, en besluit hier dan ook te oversharen!
Wil je meer leren, klik dan op lees meer!