Estoy empezando a trabajar en SEO y al auditar la web de un cliente de la empresa en la que trabajo me surge la duda de si el sitemap está del todo correcto o si hay cosas que mejorar.
En definitiva, el sitemap está creado y a lo mejor va bien pero veo que las páginas no indexan particularmente bien y mi duda es si puede ser que haya cosas que no estén bien en la configuración o en la forma en la que está creado el sitemap del sitio que pueda perjudicar al posicionamiento del sitio.
Realmente no sé bien cómo interpretar o leer el sitemap para determinar si todo está hecho de manera correcta o no.
Gracias a todos.
Leo ya una muy buena respuesta, pero me preocupa un poco la pregunta así que quiero dejar claro esto:
Los sitemaps eran especialmente útiles hace unos años, cuando los motores de búsqueda eran un poco menos evolucionados que lo que son ahora y necesitaban cierta ayuda para indexar.
Actualmente, son más bien un tipo de guía o referencia para que los robots pasen y sepan qué es lo que un webmaster “recomienda” que se tome en cuenta.
Hoy en día son útiles aún sobre todo si tienes páginas con una estructura complicada o una cantidad de páginas enorme. De lo contrario, es más una especie de precaución que algo realmente necesario.
Con esto quiero decir que tener el sitemap bien o no, no tiene por qué mejorar tu indexación necesariamente. Está bien auditarlo y estar seguro de no estar diciéndole a Google o Bing que pase por páginas que a lo mejor no tienes ni siquiera indexables, bloqueando el acceso de robots o que simplemente no aportarían nada a un usuario.
Pero he vito muchos casos, tanto de páginas que tienen correctamente el sitemap y su indexación es lamentable, y otros que sin tenerlo o teniéndolo incorrecto aún van bastante bien.
Todo lo que sea evitar errores es positivo y está bien que hagas la auditoría y modifiques lo que sea necesario, pero esto en particular no necesariamente tendría por qué suponer un gran impacto en la indexación.
P.D. Debes tener especial cuidado con los sitemaps autogenerados por plugins de WordPress u otros CMS, como Yoast o similares, ya que al final lo que hacen es un crawl de tu sitio para listar todo lo que vean pertinente, y tienes que ser tú quien revise si realmente deberían indexarse páginas de archivos, medios, tags, categorías, etc.
Hola Digital Marketer,
lo primero es validar el XML para evitar que haya errores, si se está generando automáticamente estará bien, y aunque tuviera errores Google lo seguiria interpretando bien, pero por si acaso merece la pena comprobarlo con algún servicio como http://www.xmlvalidation.com/
Lo siguiente es confirmar que está todo lo que tiene que estar, es decir, revisa que las urls que quieres indexar aparecen el el XML.
En esa misma revisión, vigila que no aparezcan urls que no quieres indexar, parece obvio pero a veces se nos cuelan urls como avisos legales, páginas de login, categorías con poco contenido (ojo con las tags de wordpress y archivos por fecha).
Quita todo lo que pueda ser contenido duplicado.
Por último, la frecuencia de actualización, aquí no nos vale “más es mejor”, si tienes urls que no cambian nunca ponle una frecuencia muy baja, si tienes urls que cambian a diario, pues a diario… Lo importante es que se ajuste lo máximo posible a la realidad. Insisto: no se debe poner una frecuencia a alta para indexar antes si esas urls no se actualizan tanto, Google te acabará penalizando.
Espero haberte dado alguna idea, si tu duda es más concreta no dudes en comenarlo para profundizar.