Análisis de archivos de registro para la web. Corporate: busque SEO en la consola de búsqueda de Google.

El verdadero problema en la vida
¿Alguna vez te has sentido así? Tu equipo de SEO trabaja duro. Edite todos los puntos donde la consola de búsqueda de Google (GSC) recomienda ser todo verde, pero ... el rango de SEO de la página importante "es completamente silencioso", no moverse a ninguna parte o peor es un contenido nuevo que acaba de publicar, lleva mucho tiempo que Google recopile datos (índice), aunque presionando "indexación de solicitudes".
Puede estar sentado en los templos y piensa "¿Qué extrañamos?" "¿Por qué el gran sitio web de la compañía lucha contra un pequeño sitio web? De los competidores en algunas palabras clave?" La respuesta a esta frustración puede no estar en el informe que vemos todos los días. Pero oculto en los archivos de datos sin procesar que puede haber abierto. Ese es el "archivo de registro" del servidor.
Presentado para las ilustraciones: la imagen de un vendedor o el equipo de SEO se está reuniendo seriamente. La pantalla de la computadora muestra el gráfico SEO que está completamente tranquilo y tiene un icono de consola de búsqueda de Google en la pantalla para transmitir el esfuerzo para resolver el problema con las herramientas. Pero aún no he encontrado la solución
¿Por qué ocurrió ese problema?
Este problema surge porque la consola de búsqueda de Google es la "conclusión" que Google nos informa, pero no todo "comportamiento real" que ocurre. Para los sitios web de grandes organizaciones con decenas de miles de páginas web, Google tiene un recurso limitado para recopilar datos. También conocido como "Presupuesto de rastreo"
Imagine a Googlebot como un personal de entrega que tiene tiempo limitado y aceite cada día. Si su sitio web es como una gran ciudad con un pequeño callejón, un pequeño SOI (como URL, que es causado por un filtro extraño, parámetro, servicio duplicado). En lugar de entregar bienes a la casa del cliente (página importante), este problema es la clave para comprender la gestión del presupuesto de rastreo, que es lo que GSC no nos dice directamente.
Solicitud de ilustraciones: las imágenes infográficas comparan el presupuesto de rastreo como el "tanque de petróleo" del automóvil Googlebot, con múltiples tuberías que salen del tanque al icono que transmitió "tareas no importantes" como filtros, páginas de errores o tareas duplicadas que resultan en que el petróleo llegue a "páginas importantes" (páginas importantes)
Si se deja, ¿cómo afectará?
Permitir que Googlebot se pierda y utilice el presupuesto de rastreo que afecta a los negocios más que solo "las clasificaciones no aumentan". El impacto tangible real es:
- Las páginas importantes se reducen a la importancia: se puede visitar la página del nuevo producto, la página del servicio principal o el artículo del negocio. Porque lleva tiempo con la basura que hace que estas páginas no estén frescas a los ojos de Google
- Pérdida de oportunidades comerciales: cuando la página de destino o una nueva página de promoción, el índice es lento, eso significa que está perdiendo la oportunidad de vender y competir todos los días.
- El uso de un presupuesto para el contenido no vale la pena: su equipo puede dedicarse a crear contenido de alta calidad, pero si Googlebot rara vez se reúne o no. Ese contenido casi no crea resultados de SEO en absoluto.
- Enormes riesgos al mover la web: si nunca ha verificado el archivo de registro y ha movido la web. El problema oculto puede volverse severo y el tráfico es difícil de recuperar. Tener una lista de verificación para mover la web es muy importante, pero el análisis del archivo de registro hará que la lista de verificación sea más perfecta.
Solicitud de ilustraciones: Imagen que muestra una página de calendario con una nueva campaña de marketing, pero hay una araña en la página web, junto con el gráfico de tráfico, que es un centro de medios bien preparado que ha sido abandonado debido a problemas técnicos invisibles.
¿Hay alguna solución? ¿Y dónde debería comenzar?
La solución más directa es detener la "suposición". El comportamiento de Googlebot y recurrir para ver la "verdad" de los datos sin procesar, es decir, hacer un "análisis de archivos de registro".
El análisis de archivos de registro es el proceso de usar un registro de servidor para analizar para ver qué bot del motor de búsqueda (especialmente GoogleBot) para hacer en nuestro sitio web. Nos dice que seamos detallados al segundo nivel de qué página. ¿Con qué frecuencia, qué error se encuentra y qué parte del sitio web es especialmente?
Lo que obtiene del análisis de archivos de registro:
- Descubra la función de Googlebot a menudo, pero no hay valor. SEO: Por ejemplo, el deber es causado por la navegación facetada (filtrado) que crea millones de URL. Para ser administrado en robots.txt
- Buscando deberes importantes, pero Googlebot rara vez es: encontrar la razón por la cual no se alcanza Bot, tal vez porque el enlace interno es demasiado pequeño o la estructura web es demasiado complicada.
- Verifique los códigos de estado verdaderos: búsqueda de la página 404 (no encontrada) o 301 (redirección) que está mal. GSC no puede informar completo.
- Confirme soluciones técnicas: después de arreglar cualquier cosa que podamos ver desde el archivo de registro si GoogleBot es consciente de ese cambio todavía.
Puede comenzar a usar herramientas como el analizador de archivos de registro de rana Screaming o Lumar (anteriormente DeepCrawl) diseñado para este evento. Y también es una base importante para los SEO más profundos como el SEO de borde .
Solicitud de ilustraciones: el estilo de detective está utilizando anteojos de extensión para registrar un archivo que es un código de letra largo. Y en la lupa, aparece como un icono fácil de entender, como iconos de GoogleBot, iconos de 404 páginas, iconos, frecuencias. Para transmitir que las herramientas ayudan a proporcionar información compleja para comprender
Ejemplos de lo real que solía tener éxito
Una gran compañía de comercio electrónico hay más de 50,000 productos SKU. Encuentran problemas que nuevas colecciones que invierten fuertemente, no clasificadas en absoluto. El tráfico de la búsqueda orgánica durante años, a pesar de que el equipo se ha ajustado según todo GSC.
Para hacer: el equipo decidió registrar el análisis de archivos por primera vez y lo que se encontró fue muy impactante. Descubrieron que el 70% del presupuesto de rastreo se usaba con rastreo. El deber se debe a los usuarios de productos de "filtros" (como colores, tamaños, precios), que crean innumerables URL. Además, el de canibalización de palabras clave que se oculta entre la categoría y estos filtros
Resultado: después de que el equipo haya bloqueado la URL de estos filtros en el archivo robots.txt y administró la nueva estructura de enlace interno solo 3 meses después. El resultado fue:
- Googlebot ha vuelto a gatear, la página principal del producto y la página de categoría con más frecuencia. 300%
- La nueva colección está comenzando a clasificarse en la página 1-2 en unas pocas semanas.
- El tráfico orgánico general del sitio web aumentó en un 25% en un trimestre.
Este es el poder de la visión de lo que los competidores son invisibles. ¿Cuál es la única forma de provenir de la consola de búsqueda de Google?
Solicitud de ilustraciones: Borrar antes y después del gráfico, la izquierda (antes) es una imagen de presupuesto de rastreo al 70%, rojo y 30%. El derecho (después), el 80% de la proporción es verde, y el 20% es rojo (desperdiciado), junto con las líneas de venta que se ensamblan.
Si quieres seguir, ¿qué hacer? (Se puede usar de inmediato)
Puede iniciar el análisis de archivos de registro usted mismo, siga los siguientes pasos:
- Solicite un archivo de registro del equipo de TI o el proveedor de servicios de alojamiento: dígale a su equipo que desea los "registros de acceso al servidor" del sitio web, especifique el período deseado. (Recomendar retroceder al menos 30 días). Los archivos suelen ser. Registro o .gz
- Prepare el analizador de archivos de registro: para principiantes, Screaming Frog Log File Analyzer es una muy buena opción. Porque es fácil de usar y tiene una versión gratuita para probar
- Importar archivo de registro en el programa: siga los procedimientos del programa para importar el archivo de registro y debe rastrear su sitio web con una rana de gritos normal para comparar todos los datos de URL.
- Comience a analizar el tesoro:
- Mire la pestaña "URL": buscando URL en Googlebot a menudo (gran número de rastreos), pero es URL que no desea que se clasifique.
- Mire la pestaña "Códigos de respuesta": verifique si hay una página 404 (no se puede encontrar) o 5XX (bloqueo del servidor) que GoogleBot encontró mucho o no.
- En comparación con los datos de GSC: traiga la información de GoogleBot con frecuencia en comparación con el deber. Impresión/clic en GSC, en qué página se encuentra a menudo, pero nunca obtiene un tráfico, puede ser una señal del problema.
Estos análisis de datos lo ayudarán a ver la imagen general y pueden planificar la estructura web directamente. Si desea mejorar la estructura del sitio web corporativo para estar listo para enfrentar estos desafíos que tener datos del archivo de registro es la base más sólida.
Solicitud de ilustraciones: paso a paso 4 paso 1) 1) registro 2) icono. Gritando niebla 3) Aparece el icono de flecha 4) icono del tablero con gráfico y información en profundidad. Mostrar que el proceso no es tan complicado como se esperaba
Preguntas que las personas tienden a preguntarse y las respuestas que se limpian
Pregunta: ¿Cómo es la información en el archivo de registro a diferencia de la consola de búsqueda de Google (estadísticas de rastreo)?
Respuesta: GSC Crawl Stats es la información que Google "Resumen y muestreo" llega a ver, pero el archivo de registro es los "datos 100%sin procesar" que realmente ocurrieron en su servidor. Es mucho más detallado y más completo. Causando el problema que GSC puede pasar por alto
Pregunta: ¿Con qué frecuencia hacemos el análisis de archivos de registro?
Respuesta: Para los sitios web de grandes organizaciones, se recomienda hacer al menos una vez en una cuarta parte, pero si hay un gran cambio en la estructura web, mover la web o el monto del tráfico cae sin saber que la razón debe hacerse de inmediato.
P: Además de Googlebot, ¿también vemos otros bots?
Respuesta: ¡Mira todo! Verá tanto Bingbot, Ahrefsbot, Semrushbot y otros bot, lo que le permite comprender que alguien ha recopilado su sitio web. Pero para el objetivo de SEO, nos centramos principalmente en Googlebot.
Pregunta: ¿Es un análisis de archivo de registro? ¿Es un programador?
Respuesta: No es necesario. Gritando herramientas de foga o lumar, permitiendo a las personas hacer SEO sin la base del código para analizar. Pero debe tener una comprensión básica del SEO técnico para interpretar la información y continuar utilizando.
Solicitud de ilustraciones: íconos de imágenes, personas con un signo de interrogación flotando sobre la cabeza y hay una flecha que apunta a otro icono que es una lámpara brillante que transmite dudas a una comprensión clara
Resumen para ser fácil de entender + quiero intentar hacer
El SEO para sitios web grandes es como cuidar las máquinas complejas. La dependencia de solo la consola de búsqueda de Google puede hacer que pasemos por alto los problemas con el equipo pequeño, algunos están funcionando mal.
El análisis de archivos de registro es abrir la tapa del motor para ver el trabajo real uno por uno. Es un cambio de "suposición" a "conocimiento real" cómo Google puede ver e interactuar con su sitio web. La inversión es efectiva para comprender esta información. Es crear una ventaja competitiva sostenible que ayude a cada dinero que invierte con contenido y SEO es el más valioso.
No permita que su sitio web no funcione completamente. Comencemos la conversación con su equipo de TI desde hoy para solicitar registros de acceso y abra el nuevo mundo de SEO que sea profundo y se puede medir.
Si está listo para actualizar el sitio web de su organización al siguiente nivel, ya sea mejorar el sitio web (renovación del sitio web) o crear un nuevo sitio web de organización. Que tiene una estructura fuerte lista para el SEO a largo plazo. El equipo de Vision X Brain está listo para dar consejos.
Blog reciente

¡Eeat no es solo SEO! En profundidad, cómo construir y mostrar signos de experiencia, experiencia, autoridad y confiabilidad en el sitio web de IR para ganar inversores.

¡Cambie el sitio web aburrido en una sala de exposición digital! Técnicas de diseño de UX/UI y utilizan contenido interactivo para presentar un producto industrial interesante y estimular el contacto.

¿No hay presupuesto para luchar contra un gran sitio web? Use la estrategia de "Barnacle SEO" para crear una identidad sólida en una plataforma fuerte para atraer tráfico de calidad y crear credibilidad para su marca PYME.