🔥 Solo 5 minutos para cambiar la vista.

Análisis de archivos de registro: traza Googlebot para encontrar oportunidades de SEO ocultas.

¿Hasta mucho tiempo, quieres leer?

El verdadero problema en la vida: "El SEO está casi muerto ... pero ¿por qué Google no ama?"

Para el webmaster o el equipo de SEO avanzado, ¿alguna vez te has sentido así? Dedicó el tiempo y el presupuesto para hacer SEO, tanto en la página, fuera de la página, contenido completo. Pero al final ... las clasificaciones todavía estaban tranquilas. O peor que eso es que el nuevo contenido que acaba de ser lanzado no está siendo afectado por el índice como si gritara en una habitación que nadie escuchó. Comienza a hacer preguntas: "Googlebot viene a nuestro sitio web? ¿Y si viene ... a dónde fue? ¿Por qué no puede encontrar una página importante que pretendemos hacer?" La sensación de trabajo duro pero no ver claramente los resultados. Es a la vez frustrante y el más alentador.

Solicitud de ilustraciones: imágenes de webmaster sentados frente a la pantalla de la computadora llena de gráficos y datos de SEO, pero la cara se ve confundida y cansada.

¿Por qué ocurrió ese problema? "Presupuesto de rastreo" que es invisible

Este problema no es causado por usted, no es bueno o no. Intentar. Pero debido al hecho de que no podemos ver el "comportamiento" de Googlebot, todos sabemos que Google tiene algo llamado "presupuesto de rastreo" o la cuota para recopilar datos en cada sitio web. Que es limitado en cada día. El problema es que el sitio web grande tiene decenas de miles y cientos de miles. A menudo hay "agujeros negros" que fuman el presupuesto de rastreo.

  • Resultados de búsqueda internos
  • Frente a la navegación cara que crea millones de URL
  • Contenido duplicado
  • Caras viejas que no tienen a nadie pero no han redirigido

Cuando Googlebot pasa la mayor parte del tiempo con estas páginas, casi no hay cuota para recopilar información importante. Que acabamos de actualizar o volver a crear, haciendo que toda nuestra estrategia de SEO como "remo en la cuenca" porque Google nunca ha visto esas mejoras.

Solicitud para ilustraciones: imágenes infográficas simples. Googlebot se ejecuta en el "agujero negro" con el signo "páginas inútiles" en lugar de correr a "contenido importante".

Si se deja, ¿cómo afectará: un desastre tranquilo?

Permitiendo que el presupuesto de rastreo gotee indefinidamente, no como permitir que el agua salga del tanque del agujero. Las consecuencias fueron más graves de lo esperado. Y morderá tu SEO lentamente:

  • Retraso de indexación: la nueva página o la página actualizada se mantendrán en la base de datos de Google mucho más lenta. Causando desventajas a la competencia que se mueve más rápido
  • La clasificación cayó: cuando Google no vio la actualización, verá que su sitio web es "antiguo" y no fresco. La confiabilidad en los ojos de Google se reducirá directamente a las clasificaciones.
  • Oportunidades comerciales perdidas: no aparecen nuevas páginas de productos, promociones o artículos importantes en los resultados de búsqueda que significa perder tráfico y ventas que deberían recibirse.
  • El servidor funciona innecesariamente: siendo aplastado por cientos de miles de responsabilidades. Página cada día es un tremendo desperdicio de recursos del servidor. Lo que puede llevar a problemas de descarga lenta del sitio web y los problemas de la velocidad de la página a largo plazo.

Solicitud de ilustraciones: gráfico de rango de SEO que gradualmente se desplomó con un icono lento de Watter. Y el dinero que voló está faltando para transmitir la oportunidad

¿Hay alguna solución? Y dónde debe comenzar: "Análisis de archivos de registro" es la respuesta.

La única forma de detener este desastre es "encender la luz" para ver qué está haciendo Googlebot en nuestro sitio web. La herramienta más poderosa para hacer esto es el "análisis de archivos de registro" o el análisis del archivo de grabación del servidor.

El archivo de registro es un registro de todas las actividades que ocurren en el servidor. Incluyendo la entrada de "agente de usuario" llamado "Googlebot". Este análisis de archivos nos permitirá ver toda la verdad:

  • ¿Con qué frecuencia viene Googlebot a nuestro sitio web? (Frecuencia de rastreo)
  • ¿Qué tipo de tiempo toma más con el (Asignación de presupuesto de rastreo)
  • ¿Encuentra una página de error (404) o el problema del servidor (5xx)?
  • ¿Existe un deber importante que Googlebot nunca haya entrado? (Problemas de descubrimiento)
  • ¿Qué página son los deberes de "pop Pula" a los ojos de Googlebot?

Iniciar análisis de archivos de registro no es tan difícil como crees. El primer paso es solicitar un archivo de registro de su proveedor de servicios de alojamiento. Luego use una herramienta de análisis especial como Screaming Frog: SEO Log File Analyzer, que es popular entre Pro. O estudiar directrices adicionales de fuentes confiables como MOZ: análisis de archivos de registro para comprender profundamente los principios.

Solicitud de ilustraciones: las lupas están mirando el archivo de registro de texto largo y el icono de GoogleBot parece ver claramente el "rastro".

Ejemplos de lo real que solía ser exitoso: revivir el sitio web de comercio electrónico con información del archivo de registro.

Para ver más claramente pensar en el caso de un gran sitio web de comercio electrónico con cientos de miles de productos. Encontraron un problema de que la nueva colección no se clasifica en Google, a pesar de hacer todos los SEO de acuerdo con los textos. El equipo decidió hacer análisis de archivos de registro y lo que se encontró fue muy impactante.

Problemas descubiertos: El 70% del presupuesto de rastreo se usa con el rastreo del filtro de productos (como /vestidos? Color = azul y tamaño = M & Rice = 1000-2000), lo que crea una URL casi interminable. Y estas páginas ya están configuradas como 'noindex', como si Googlebot perdiera muchos beneficios

Método: El equipo ha editado el archivo `robots.txt` para ordenar" desalentar "al permitir que GoogleBot interfiera con la URL que tiene todos los parámetros y mejore la estructura de la arquitectura (arquitectura de información) del sitio web.

Resultados: solo 1 mes después de eso, el archivo de registro muestra que Googlebot comenzó a centrarse en las páginas principales y las páginas de nuevos productos. Como resultado, como resultado, la nueva colección de la colección comenzó a aparecer en la primera página de Google y las ventas orgánicas aumentó en un 40% en el próximo trimestre. Este es el poder de tomar decisiones usando "datos", no "sentimiento".

Solicitud de ilustraciones: La imagen gráfica de antes y después muestra la asignación del presupuesto de rastreo antes de editar (70% es desechos) y después de la enmienda (el 80% es páginas importantes) con una flecha que apunta al gráfico de ventas más alto.

Si quieres seguir, ¿qué hacer? (Se puede usar de inmediato): Plan de acción, Googlebot traza

¿Listo para ser un detective de SEO? Este es un paso que puedes seguir de inmediato.

  1. Solicite un archivo de registro del host: comuníquese con su proveedor de servicios de alojamiento para solicitar registros de acceso o registros de servidor, especifique el tiempo que desee. (Recomendado al menos 7-30 días)
  2. Elija e instale herramientas: descargue e instale el programa de analizador de archivos de registro de SEO de gritos de gritos u otras herramientas en las que sea bueno.
  3. Importación y configuración: abra el programa e importe el archivo de registro. El sistema puede confirmar el agente de usuario de GoogleBot para filtrar los datos con precisión.
  4. En el análisis de datos de profundidad:
    • URLS: ¿Vea qué URL es la rastreo más frecuente? ¿Es un deber importante?
    • Códigos de respuesta: ¿Hay una página 404 o 5xx que Googlebot encontró mucho? ¡Date prisa y arregla ahora!
    • Directorios: ¿Qué carpeta (como /blog /, /productos /) que Googlebot da importancia? ¿Es consistente con sus objetivos comerciales?
    • URL huérfanas: buscando URL que aparezca en el archivo de registro, pero no aparece en el sitio web normal (a través de gritos de rana o sitio: búsqueda) o no en el mapa del sitio. Estas páginas son "epidermis" que tiene enlaces. Pero es posible que haya olvidado
  5. Crear plan de acción: de todos los datos para planear editar, como el uso de `robots.txt` para bloquear la cara, no importante, hacer que 301 redireccione para la página 404 o el enlace interno para navegar en GoogleBot a su deber. Que es una parte importante de la estrategia para clasificarse en Google

Solicite ilustraciones: imágenes de lista de verificación con "plan de acción" con iconos en cada elemento, como iconos, archivos, herramientas, iconos gráficos e iconos de cohetes.

Preguntas que las personas tienden a preguntarse y las respuestas que se limpian

P1: ¿Con qué frecuencia hacemos análisis de archivos de registro?
R: Para los sitios web grandes que con frecuencia se cambian, se deben hacer mensualmente para hacer un seguimiento y encontrar nuevos problemas, pero para los sitios web generales, hacer cada trimestre (3 meses) es suficiente para que vea la imagen general y no caiga.

P2: Si usa alojamiento compartido, ¿no permite que lo haga el archivo de registro?
R: Esta es una limitación importante de algún alojamiento compartido. Si ese es el caso, puede ser hora de considerar actualizar el alojamiento como VPS o servidor dedicado que brinda acceso completo a los archivos. O si no está listo, el análisis de datos de la consola de búsqueda de Google (estadísticas de rastreo) es suficiente para proporcionar información. Pero no tan detallado como el archivo de registro

P3: ¿Cuál es la diferencia entre el archivo de registro con la consola de búsqueda de Google?
R: Google Search Console (GSC) proporciona información "resumida" que Google "quiere que veamos", lo cual es muy útil, pero el análisis del archivo de registro es el "sin procesar" que "realmente ocurre". Da un filtro completo y sin filtro. Permitiéndonos ver el problema que GSC puede no informar, como el comportamiento de rastreo de otros bots o la frecuencia de acceder al archivo CSS/JS, que afecta la pantalla web.

P4: ¿Para qué tipo de análisis de sitios web es adecuado?
R: Ideal para sitios web grandes y complejos, como comercio electrónico, sitios web de noticias o sitios web que tienen mucho contenido, incluido el sitio web de IR que es muy importante la precisión y la frescura de los datos. Pero incluso un pequeño sitio web que entiende el comportamiento de Googlebot es siempre una ventaja.

Solicitud de ilustraciones: icono de imagen con un signo de interrogación y hay una lámpara más brillante que transmite la solución

Resumen para ser fácil de entender + quiero intentar hacer

El análisis de archivos de registro es cambiar su estado de "personas SEO según la creencia" a "arquitectos SEO, los creadores de los datos reales". Es una parada aleatoria. Luego gire para mirar la verdad que está sucediendo directamente en su servidor. Comprenda que Googlebot ver y da importancia a lo que en nuestro sitio web. Es el corazón de la mejora del presupuesto de rastreo para ser el más efectivo y es una clave importante para desbloquear las clasificaciones que se han detenido durante mucho tiempo

No permita que todos sus esfuerzos se desperdicien con Googlebot para no ver los diamantes en sus manos. Es hora de encender la linterna en la sombra. Y controle la dirección de Googlebot Travel Sy Yourself intente aplicar las técnicas y procedimientos que di hoy. Y encontrará que otra oportunidad de SEO se esconde en la información que nunca le ha interesado.

Si cree que estos procesos son demasiado complicados o necesitan expertos para ayudar completamente el SEO. Nuestro equipo siempre está listo para dar consejos para encontrar la mejor solución para usted.

Solicitud de ilustraciones: una imagen de un detective que descubrió el cofre del tesoro oculto detrás del muro de registro del servidor, transmitiendo el descubrimiento de oportunidades ocultas.

compartir

Blog reciente

Estrategia de SEO para sitios web de negocios de alquiler (maquinaria, bienes raíces, equipo)

¡Agregue clientes para alquilar con SEO! En profundidad, la estrategia de SEO para las empresas de alquiler, especialmente desde el SEO local hasta la página del producto.

Cree un informe automatizado con N8N + Google Data Studio: guarde una hora/semana de marketing de 10 horas.

¡Deja de perder el tiempo haciendo un reportable! Enseñe cómo conectarse a N8N con Google Looker Studio (Data Studio) para crear un tablero y un marketing automático.

¿Qué es el "aroma de información"? ¿Y por qué es importante para su tasa de conversión?

¡Haga que el usuario "huele" la información deseada! Aprenda el principio de "aroma de información" para diseñar la navegación y UX que guíe a los usuarios a la meta y agregue la conversión.