Google no quiere que pagues por auditorías SEO
Y varios temas adicionales que se mencionaron en el reciente evento de creadores de Google
Hace un par de semanas, Google tuvo un evento de “creadores” donde invitó a 20 Bloggers de distintos nichos para hablar sobre… pues sobre algo, que realmente nadie tenía idea bien que sería.
Lo importante aquí es que los Bloggers fueron elegidos por la voz de Google, Danny Sullivan, y provinieron de una lista de cientos de sitios que fueron enviados como feedback de ejemplos de sitios que perdieron la mayoría de tráfico después del famoso HCU del 2023, y que hasta hoy, 1 año después, no se han recuperado en su mayoría.
Estos supuestamente son sitios que tienen contenido muy bueno, de autoridad y experiencia durante años en su nicho, con contenido de alta calidad (lo que eso signifique para Google hoy en día) y que además no merecían perder su tráfico, pero aun así el algoritmo los ha penalizado cada vez más, incluso algunos cayendo más de 90% con los consecuentes updates de este año en enero, marzo, agosto, etc.
Escribo este post para darle un poco más de visibilidad en el mundo hispano, escuchar comentarios o simplemente dar mi opinión sobre algo que veo que se está hablando relativamente mucho en las redes y sitios en inglés, pero de lo cual en Español prácticamente no se ha dicho nada.
Hubo un par de cuentas (héroes sin capa) en Twitter que hicieron un resumen o han mencionado cosas al respecto, pero realmente casi no ha tenido visibilidad a diferencia de los círculos en Inglés.
Está claro que Google desde un principio no estaba haciendo un evento el cual iba a anunciar por todos lados, y al mismo tiempo era como un experimento, pero, por otro lado, quien sabe si salió como ellos esperaban y si lo vuelvan a hacer con la respuesta que han tenido, en su mayoría negativa.
Un par de cuentas de Twitter mencionaron el caso y me preguntaban si daba para escribir una newsletter, y me parece algo interesante a tratar, así que aquí mi punto de vista después de haberlo pensado unos días.
Antes de empezar, si no has leído nada de este tema, te recomiendo que después de leer esta newsletter busques “Google Creator Event 2024” en Google y veas las experiencias o comentarios que hay del tema de otras fuentes. Yo he leído varias desde el día que fue el evento hasta ahora, y solo puedo opinar al respecto de lo que leí.
Vas a tener que usar un traductor o leerlo en Inglés, eso sí. Y te recomiendo que leas no lo que encuentres no solo de redes sociales, sino también de algunos blogs, Pódcast, YouTube y hasta Reddit. Así verás varios puntos de vista de los 20 participantes que asistieron al evento.
Estos fueron algunos temas que más mencionaron entre las personas que fueron y las interacciones que tuvieron con la gente de Google que los atendió ese día:
“Tu web no es mala. Es nuestra culpa.”
Esto me queda claro, y al menos Danny lo tiene claro también. Google no es perfecto, y el algoritmo puede tener errores y es manipulable. Por lo tanto, una web muy buena en un tema puede tener poco o nada de tráfico, y una web mala puede tener mucho tráfico.
Esto fue lo primero que le repitieron en múltiples ocasiones a los creadores que asistieron al evento.
El lema de “escribe buen contenido y el tráfico llegará solo” es relativamente utópico para Google. A veces se logra, y muchas veces no.
Para mí y los que llevan años en esta industria nos queda claro, pero para la gente que va comenzando, es un buen recordatorio y mejor si viene de parte de Google directamente.
“No esperen cambios en el siguiente update, y probablemente en el que sigue tampoco.”
Aquí lo importante era dejar claro que aunque se recibiera feedback durante el evento, el algoritmo de Google es complejo y los cambios y mejoras pasan por varias capas para ser aprobadas, si es que al final se publican.
Google quedó muy claro que lo que se hablara en ese evento no se vería en producción pronto. En el siguiente update, que acaba de ocurrir hace 2 días (Core Update de noviembre) era imposible, y lo más seguro es que si hay otro update fuerte en Q1 2015 tampoco se vea ahí.
“Si estás en un caso así, toca esperar o yo haría otra actividad por mientras.”
Esta frase fue como ponerle el último clavo en el ataúd a algunos creadores que asistieron al evento. Algunos llevan 12 o 13 meses con el tráfico por los suelos, y saber que no verás resultados en varios meses más, puede ser devastador.
La mayoría de negocios no aguantan tanto tiempo sin ser rentables. Pero al menos decidieron no dar falsas expectativas.
“¿Que es Google Analytics?”
Esta fue una pregunta de los ingenieros de Google al momento de conversar con los creadores. Diría que no tengo palabras, pero en una empresa tan grande, al parecer los equipos están tan divididos y enfocados en una cosa que puede que no tengan idea de que otras cosas hace la empresa.
Personalmente, yo tuve la experiencia de trabajar en una empresa bastante grande antes de dedicarme emprender por internet, y la verdad que como a mí me encantaba todo al respecto de la empresa, me sabía muchas cosas de la mayoría de los productos y otras áreas, pero sí entiendo que la mayoría de trabajadores no está en esa posición.
Me sorprende un poco sabiendo que iban a organizar un evento con gente que usa no solo GSC como herramienta para su trabajo, sino también varios otros productos de Google. Pero bueno…
“¿Cómo funciona YouTube?”
Sin palabras. Si no lo sabe el ingeniero de Google, nosotros solo podemos tratar de explicar lo que vemos con base en la experiencia.
Las oficinas y el campus de Google estaban vacías
Esto no fue un comentario durante el evento, pero sí algo que mencionaron varios de los asistentes porque incluso parecía un poco raro. El campus enorme, las cafeterías, los pasillos y oficinas, pero todo vacío como si todos trabajaran desde casa.
Me parece curioso mencionarlo, aunque no tiene que ver con el SEO directamente.
“¿Cómo descubrirías si este sitio es de calidad o no?”
Una de las actividades que hicieron durante este evento fue el separar a los creadores en distintas categorías de sus nichos y explicarle a los ingenieros de Google cuales eran los problemas que veían en las SERPs.
Se hablaron de varias cosas, y entre ellas se mencionaron que había muchos sitios SPAM o de baja calidad. Cuando Google preguntó como se podría reconocer mejor estos sitios, hubo distintas ideas como el usar imágenes reales de un producto (para revisiones), videos, redes sociales como señales, etc. Porque claro, eso es más difícil de copiar que solo texto hecho con IA o un scraper.
Sin embargo, creo que lo importante aquí es saber que ni Google (me refiero al algoritmo) sabe identificar esas cosas o si un texto es de calidad o no, por lo cual tiene que usar un montón de factores adicionales para decidir qué mostrar en los primeros resultados. Hay gente que muere jurando que Google sí sabe identificar el contenido de calidad, pero incluso Google fue honesto durante el evento y dijo que era difícil identificarlo y querían ideas para ver que podían hacer, porque aunque si es lo que quieren, no siempre se logra.
Todo el evento fue grabado apuntando con cámaras a los creadores y con ingenieros y otras personas de Google observándolos detrás de vidrios o a través de una videollamada
Esto solo lo pongo porque igual me pareció un dato curioso. Igual y es como prefieren trabajar los ingenieros de Google, los cuales distan mucho de la manera de trabajar de una persona que organiza eventos o da conferencias, pero varios creadores se sintieron como objetos de prueba o análisis en vez de sentir que iban con la finalidad de ser escuchados.
Los creadores hicieron lo posible por tratar de obtener respuestas y defender a los escritores o webmasters independientes
Algo que se mencionó mucho es que los creadores dieron sus puntos de vista y trataron de hablar por mucha gente sobre lo que está pasando en las SERPs, aunque no pareció haber mucho feedback o incluso aceptación de que algunas cosas fueran ciertas.
Parecía que a Google le interesaba un poco más explicar unas cosas y obtener respuestas de los creadores que escuchar los problemas y preguntas que tenían los creadores.
Aquí quiero aclarar que ese fue el sentimiento de varios asistentes y es lo que publicaron, pero también encontré 2 o 3 relatos mucho más positivos. Siempre es común ver más información de la gente que se queja de que de la que está tranquila, así que puede ser un sesgo a la hora de entender el sentimiento que hubo durante el evento.
Sin embargo, no eran más que 20 personas, así que si 5-10 tuvieron una experiencia no muy agradable con lo que vivieron, ya me dice algo.
“La IA no está impactando los resultados en las SERPs”
O al menos al parecer los ingenieros no estaban enterados, ya que muchos creadores dijeron que les decían que esto no ocurría o que no sabían de qué hablaban y que todo estaba normal.
Cualquiera que esté al tanto de la industria sabe que la IA vino a darle en la torre a muchas cosas, y a cambiar otras. Ya tenemos 2 años con ChatGPT y accesos a la API de varios competidores.
La cantidad de contenido que se crea ahora con IA, así como las AI Overviews, Copilot, etc. han cambiado el panorama. Y Google lo niega o simplemente lo han ignorado. Depende de que lado se vea.
“No hay penalización a nivel web. Solo a nivel página”
Otra cosa que muchos creadores pidieron era quitar la clasificación a nivel sitio que afectó a muchas webs desde el HCU, las cuales parecen ser mucho más difíciles de recuperar que con otros updates.
Para esto, la mayoría entiende que hay un cierto clasificador que le dice al algoritmo que esa web ya no debería posicionar casi por ninguna keyword, ya que una cosa es perder el tráfico en 5 URLs y otra es perder tus rankings en casi todas las URLs que posicionabas.
Sin embargo, Google repitió una y mil veces que no existe tal cosa y que toda evaluación es solo a nivel de página.
¿Que opinan ustedes?
¿Si es a nivel de página, porque cambiando el dominio o haciendo una redirección a otra web puedes posicionar todo de nuevo, por lo menos hasta que el algoritmo te alcance y entienda que fue una migración?
“La cantidad de anuncios que tiene tu web no afecta si no afecta la lectura del usuario.”
Otra cosa que se mencionó fué el usar anuncios para monetizar el tráfico, y también el uso de redes premium relacionadas con AdSense, las cuales muchas veces muestran una cantidad excesiva de anuncios. Los creadores querían saber si esto era malo, porque claramente se notaba que muchas webs con este tipo de monetización fueron afectados, más que por ejemplo, una web eCommerce o una SaaS que monetiza con sus propios servicios.
Obviamente, también dejaron claro que los sitios grandes de autoridad igual están llenos de anuncios y paywalls, y a ellos no les afectaba casi el HCU y otros updates.
La respuesta de Google fue sencilla. Y dijeron que no importaba eso, siempre y cuando el contenido fuera legible para el usuario. Ellos no se fijan en la cantidad de anuncios.
Y claro, hace sentido si ves todos los medios grandes que están atascados de anuncios que hasta traban tu navegador. Pero entonces, ¿cual es la diferencia entre un medio grande y un pequeño sitio de nicho independiente?
“El EEAT no es para los creadores o el algoritmo. Es para los quality raters.”
Esta mención me pareció super interesante. Muchos SEOs por años han hablado del EAT y ahora EEAT como su fuera parte del algoritmo que revisa tu sitio para ver si cumples con todo y posicionarte más alto.
Google mencionó durante el evento que el EEAT es mas para que los quality raters hagan sus evaluaciones en base a esas cosas, pero que no está integrado en un algoritmo o no es algo que debiera ser “parte de una web”.
Vamos que, si te toca una revisión manual posiblemente importe y mucho, y no está mal tenerlo, pero no es como que mágicamente el algoritmo revise la experiencia en tu contenido o que si pones una foto de perfil co enlace a LinkedIn al final de cada artículo…
“La autoridad beneficia a las marcas grandes. ¿Qué hacer?”
Este fue uno de los temas que más preguntaron cada que podían los creadores, básicamente diciendo que los sitios con más autoridad (enlaces potentes) siempre tenían ventaja, aún si no tenían la experiencia, expertise ni lo demás en un tema.
A esto, Google hizo caso omiso según varios creadores.
Si llevas tiempo en esto, ya sabes porqué y no debería sorprenderte. Aunque a decir verdad últimamente si un portal grande se hace viral por abuso de autoridad, si les han caído ajustes manuales durante este año.
Lo cual también nos hace ver que cuando Google quiere arreglar o ajustar algo rápidamente, si lo puede hacer sin esperar meses por un par de updates. Pero claro, todo manual hasta ahora, y la idea es que el algoritmo lo haga solo.
“Google no quiere que la gente pague por auditorías SEO.”
Esta es buena.
Muchos creadores dijero que durante todo el año recurrieron a varios SEOs y expertos para que auditaran sus sitios y les ayudaran a salir del hoyo en el que Google los había metido.
Algunos gastaron no cientos, si no decenas de miles de dólares con distintas agencias o SEOs reconocidos para poder recuperar ese tráfico, y la mayoría no obtuvo resultados.
Algunos de esos SEOs incluso son los que muchas veces vemos en Twitter o LinkedIn y dando charlas en eventos grandes de la industria.
La gente de Google quedó impresionada de lo mucho que se gastaba en ese tipo de servicios, y dijeron que ellos no querían que los creadores o webmasters tuvieran que pagar por auditorías para recuperarse. que ellos debían hacer mejor las cosas y poner los sistemas claros de manera pública para lograrlo.
Esto hizo que algunos SEOs se sintieran traicionados o enojados, pero creo que el enunciado se puede dar a malinterpretar desde varios ángulos.
En parte, uno como SEO sabe que hay ciertas directtrices a seguir y ciertos pasos que puedes seguir para ayudar a que una web se recupere.
También como consultor o agencia, sabemos que no siempre se puede recuperar una web, y que una web que ha sido “penalizada” por el algoritmo, aun cuando Google diga que no existen penalizaciones o clasificadores a nivel sitio, es mas difícil de trabajar que una web nueva o una web que nunca ha pasado por esto.
Y también está el tema de mucha gente que ha dicho que casi no existían casos de estudio de webs recuperadas desde el HCU. Si para otras webs que han bajado por otros updates, pero no tanto por el HCU en particular.
Cualquier agencia que se enfrente a un uevo tipo de update, aún cuando su trabajo es mejorar la visibilidad, no tiene garantía de lograrlo y mucho menos si es algo totalmente nuevo. Pero no por eso van a trabajar gratis.
Claro está que Google no quiere que los creadores contraten SEOs, ni que se manipule su algoritmo, ni que se compren enlaces, ni que el contenido malo posicione o que el bueno se pierda. Hacer SEO, por muy básico, es casi algo black hat para Google, porque lo idea es que nadie pensara en eso y solo te enfocaras en el contenido y el algoritmo debería saber cual es mejor.
Pero una cosa es lo que Google quiere, y otra la realidad.
Tal vez es una mala analogía, pero es como si el gobierno no quisiera que existieran consultores que te ayuden a realizar trámites legales porque en su mente la web y los procesos del gobierno son perfectos y cada quien puede hacer lo suyo por su cuenta y todo sale bien siempre.
Pues no. Por eso hay gestores y expertos en cada tema.
Y por eso prefiero hacer lo que se ve en la realidad, y no lo que se dice.
“La velocidad de publicación no importa siempre y cuando no sea excesiva o por volumen.”
Por último, algunos creadores preguntaron si era malo publicar mucho contenido de un jalón porque pudiera parecer SPAM. Google dijo que no era problema si por ejemplo jutababas todo el contenido de una semana y publicabas 30 artículos de una vez en vez de 3 por día.
Por otro lado, dejaron en claro que si publica baches de 400 URLs a la vez, y lo haces de manera repetida, esto levanta banderas rojas en su sistema porque claramente podría ser contenido en masa hecho por IA o similar.
Esto es algo que yo mencioné en el SEOPlus del año pasado, porque Google igual y la tiene complicada para identificar si un contenido es bueno o no, o si está hecho por IA o no.
Pero lo que no le cuesta trabajo es saber cuantas URLs publica un dominio de jalón, y ningun sitio o medio puede publicar 3,000 URLs en un fin de semana o en 4 horas. Simplemente no hace sentido, y menos si es un dominio nuevo (con excepciones del SEO programático).
Por eso ves a mucha gente que publica miles de arículos y en unos días te tira una captura de pantalla de que ya empieza a tener impresiones o tal vez clics en poco tiempo, pero no ves más capturas del sitio creciendo después de varias semanas o meses. Ahi está el famoso chute que regresa a la tierra y después, si cumples con ciertas cosas y le gusta a Google, ahora si empieza a crecer.
Eso si es fácil de identificar para Google. Aunque como ya sabemos el algoritmoo está lejos de ser perfecto, así que igual y algunos cuelan, y lamentablemente otros que no necesariamente tiene contenido en masa o de mala calidad también sufren penalizaciones.
¿Que opinas tú?
Estas son algunas de las cosas que me acuerdo que leí durante los últimos días respecto al evento. Te recuerdo que la mayoría son simplemente las frases que dijeron directamente, y lo que pongo abajo de cada uno de ellas al final es mi opinión personal.
¿Crees que Google implemente este feedback para realizar algunos cambios en Q1 o Q2 del siguiente año? ¿Será que veremos menos sitios de alta autoridad y poca experiencia en un tema posicionando por debajo de reddit durante todo el 2025? ¿O tendremos más de lo mismo con toda la disrupcción de la IA?
¡Nos leemos en la próxima newsletter!