In SEO-land gaat het momenteel maar over één ding: de onlangs aangekondigde Google BERT update. Net als de andere Google algoritme updates, is er een behoorlijke verwarring onder SEO’s over de impact van wat Google de grootste verandering in zijn algoritme noemt in de laatste vijf jaar.
De officiële aankondiging van Google zegt dat het BERT (Bidirectional Encoder Representations van Transformers) algoritme een neurale netwerk-gebaseerde techniek is voor het begrijpen van natuurlijke taal. Klinkt verwarrend, toch? Maar het concept is vrij eenvoudig.
Dit is hoe het werkt
BERT is een open-source voorgetraind Natural Language Processing (NLP) Model ontwikkeld door Google dat in staat is om de intentie en context van de zoekopdracht te interpreteren op basis van de relatie van de gehele zoekzin. Het BERT-model probeert de context van een woord te begrijpen op basis van alle andere omliggende woorden, waardoor de zoekresultaten van conversatie-query’s nauwkeuriger worden.