El algoritmo de Google está en constante desarrollo, algo que queda perfectamente reflejado en su largo historial de actualizaciones. La última de ellas, conocida como Bidirectional Encoder Representations from Transformers (BERT), supone la mayor evolución en la forma de comprender las búsquedas de Google Search desde la puesta en marcha de RankBrain.

Google BERT es el nuevo modelo de procesamiento natural del lenguaje con el que el motor de búsqueda pretende comprender el lenguaje humano, tanto escrito como oral. El objetivo de la empresa de Mountain View es poder dar respuesta a las queries más complejas, aquellas cuya intención de búsqueda reside en el entendimiento de la oración al completo y no solo de la palabra clave.

¿Cómo funciona Google BERT?

Google, tradicionalmente, ha basado el algoritmo de su search en el análisis aislado de las keywords utilizadas. O, dicho de otro modo, cuando alguien realizaba una consulta, Google rastreaba en sus bases de datos hasta encontrar al contenido que más se ajustara a las palabras claves. 

Con BERT, esto cambia.El significado individual de cada palabra pasa a un segundo plano, y es el sentido de la frase en su conjunto lo que el algoritmo prioriza. Por lo tanto, Google seguirá analizando las palabras, pero lo hará de manera conjunta, teniendo en cuenta el contexto en el que se imbrican. 

En el siguiente ejemplo, que el propio Google ofrece en su blog oficial, se observa el funcionamiento de BERT: 

Google BERT beneficia a las consultas más ambiguas

Pero, ¿cómo es capaz Google BERT de entender el significado real de una oración? Para responder a esta pregunta, analizamos a fondo el significado de dos de los conceptos que componen el acrónimo BERT: 

1. (B)idireccional

BERT analiza el texto en ambas direcciones: tiene en cuenta las palabras situadas  a la izquierda y a la derecha de cada keyword. De esta manera, relacionando todas las palabras entre sí, es capaz de procesar un contexto mucho más profundo. Es una cuestión de interpretación semántica global. 

Para explicarlo más en profundidad, tomamos un ejemplo representativo de Analythics Vidhya. Como se observa en la siguiente frase, el significado de la palabra “bank” cambia según el contexto de la oración. Y, aunque “bank” es la keyword, BERT tendrá en cuenta las palabras colindantes para dar una respuesta más ajustada a la intención de búsqueda.

Gooble BERT analiza el contexto de la oración para llegar a su significado

2. (T)ransformadores

Los transformadores son una de red neuronal propia de los modelos de procesado del lenguaje natural (NLP, del inglés Natural Language Processing). Google ya lleva tiempo usando este tipo de inteligencia artificial con RankBrain, pero ahora ha evolucionado. A diferencia de los NLP de 2015, que tenían una función textual, los de BERT funcionan como un sistema de asignación de significado que ayuda al algoritmo a entender ciertas palabras, tales como nexos, pronombres o preposiciones.

En el lenguaje humano los conectores son indispensables para dar sentido al mensaje. Antes, Google los evitaba y se centraba en keywords individualizadas. Con BERT, ahora el significado de cada palabra introducida en el buscador depende de los conectores que la acompañen.

Matías Pérez Candal, Director de Estrategia en Labelium

Las búsquedas más ambiguas y long-tail se verán muy beneficiadas, ya que los conectores son capaces de dar sentido a unas palabras que, de manera individual, el algoritmo no llegaba a comprender bien. Por tanto, los resultados serán más pertinentes y ajustados a lo que el usuario está tratando de averiguar.

Cómo enfocar la optimización SEO con Google BERT

Realmente, Google BERT afecta al entendimiento de las búsquedas de los usuarios. Teniendo en cuenta la razón de ser de esta actualización (dar respuesta a las búsquedas de forma más humana),  es posible utilizar el principio del que parte para atraer tráfico de mayor calidad.

Como comenta Neil Patel en su blog: lo importante es que el usuario, no el buscador, perciba un contenido valioso. Para ello, es recomendable tener en mente las siguientes pautas:

  • El contenido debe ser más conversacional. Los textos tienen que estar orientados hacia las personas y no hacia el buscador, por lo que es muy conveniente escribir con un estilo natural.
  • Hay que estructurar la web de forma que se priorice la intención de búsqueda. Las keywords siguen teniendo importancia, pero ya no son el fin último del texto. Ahora deben tener una razón de ser y no solo se premiará la cantidad de veces que se repiten en el texto.
  • Es imprescindible dar una respuesta real y útil a las consultas. Si Google BERT es capaz de entender el significado de la búsqueda y la intención que la ha originado, es lógico pensar que el contenido llegará a un público más segmentado, pero de mayor afinidad. 

¿Cambiará BERT la forma en que entendemos el SEO en 2020? Queda mucho por explorar, aunque el rumbo que está tomando la industria augura una inevitable transformación hacia una visión más user-centric en las estrategias de optimización SEO.

Contacta con nosotros

Suscríbete a nuestra Newsletter

Please wait...

¡Gracias por suscribirte!