Cómo aprovechar su gestor de contenidos para tener una Web bien posicionada en buscadores (página 2)
Enviado por Fernando Maci�
CMS y posicionamiento en buscadores: ¿una simbiosis imposible?
Sin embargo, y a pesar de sus evidentes ventajas, el enfoque tradicional de este tipo de herramientas se ha centrado en facilitar al máximo la gestión de los contenidos simplificando los procesos de producción, aprobación y publicación de los mismos, más que en generar páginas web debidamente optimizadas para ser competitivas en los buscadores.
Los factores que hacen que un se analizaron en distintos artículos de esta sección, así como en la Guía Básica de Posicionamiento en Buscadores.
Entre los problemas que, desde el punto de vista de la optimización para el posicionamiento en buscadores, aparecen de forma recurrente en los portales soportados por sistemas gestores de contenido, destacan los siguientes:
- URLs dinámicas: los buscadores limitan en ocasiones el número de variables dinámicas presentes en las URLs que indexan. Las páginas generadas por muchos gestores de contenidos incluyen frecuentemente un elevado número de variables dinámicas en su dirección URL.
- Títulos únicos: el título de una página es uno de los factores más importantes a la hora de posicionar bien en buscadores un contenido. Sin embargo, muchos sistemas gestores de contenidos no permiten a los usuarios asignar un título único relevante a cada página.
- Falta de soporte para metaetiquetas: muchos CMS no disponen de campos específicos para que el usuario pueda especificar el contenidos de las metaetiquetas Keywords y Description. Aunque no son tan importantes como el título para lograr una buena posición en los buscadores, estas etiquetas siguen jugando un papel relevante a la hora de que el usuario prefiera hacer click sobre nuestro sitio en una página de resultados de búsqueda.
- Ausencia de palabras clave en las URL: las URLs dinámicas generadas por muchos sistemas de gestión de contenido suelen ser poco amigables tanto para el usuario como para los buscadores, y no incluyen términos de búsqueda que contribuyen a un mejor posicionamiento.
- Imposibilidad de una optimización posterior: el proceso de producción de contenidos que impone el uso de un sistema CMS dificulta enormemente la optimización a posteriori de los contenidos generados y, en el mejor de los casos, añade una carga de trabajo extra que podría evitarse si los aspectos SEO se hubieran tenido en cuenta en la implementación del gestor.
Resulta, pues, paradójico que precisamente sean aquellas empresas que más recursos invierten en el mantenimiento y generación de nuevos contenidos para sus portales las que, al mismo tiempo, menos se beneficien del volumen que dicho tráfico podría movilizar debido a una pobre implementación de sus sistemas de gestión de contenidos, desde el punto de vista del posicionamiento en buscadores.
Un fallo que, en muchos casos, no se debe a carencias de la herramienta en sí, sino a un desconocimiento por parte de los técnicos que la implementan de la importancia que tiene que los contenidos generados por ella puedan ser competitivos en los buscadores.
Hacer del gestor de contenido la mejor herramienta SEO
Pero, de la misma forma que un gestor de contenidos mal implementado puede mermar el rendimiento de la inversión en generación de contenidos de un portal, uno que haya tenido en cuenta los aspectos básicos de la optimización web para el posicionamiento en buscadores puede ser el aliado más eficaz para generar contenidos que conseguirán escalar los puestos de las búsquedas más competidas. Veamos cómo.
- Emplear código valido según W3C: los gestores de contenido parten de plantillas prediseñadas, que los usuarios no pueden alterar, para generar las nuevas páginas. Si validamos el código de estas plantillas en origen, nos aseguramos de que las páginas generadas a partir de ellas contendrán también código válido. El empleo de código válido asegura que la página se mostrará correctamente en los distintos navegadores y que los buscadores serán capaces de rastrearla sin problemas.
- Crear un mapa del sitio: casi todos los gestores de contenidos permiten crear y mantener actualizado un mapa del sitio. Los buscadores limitan el número de enlaces que pueden seguir a 100 por página y han de ser enlaces normales de texto HTML. Si ajustamos nuestro gestor de contenido para que genere y mantenga un mapa jerárquizado del sitio web con estas premisas, facilitamos a los buscadores que puedan rastrear todas y cada una de las páginas de nuestro sitio web.
- Generar páginas con URLs amigables: algunos gestores de contenido generan archivos estáticos cuyas URL no contienen variables dinámicas, mientras que otros emplean direcciones URL con múltiples parámetros dinámicos, como por ejemplo: http://www.midominio.org/portal/site/Equipo /menuitem.6dab26af2ec93c76a68e76b1805101ca/?vgnextoid=88c8c55c1edb7010VgnVCM100000081510acRCRD. Entre éstos últimos, algunos permiten crear URL alias más amigables (conteniendo palabras clave o eliminando los parámetros dinámicos) que después el sistema sustituye internamente por la URL dinámica que precisa. En igualdad de condiciones, elijamos un CMS que genere direcciones URL ricas en palabras clave o con un reducido número de parámetros dinámicos. Direcciones URL como la del ejemplo son muy poco usables así como poco amigables para los buscadores.
- Limitar el nivel de subdirectorios: los buscadores dan mayor importancia a una página cuanto más cerca está de la página home del portal. Es por esto que debemos limitar el número de subdirectorios que muestra la URL: muchos gestores de contenidos permiten organizar jerárquicamente el contenido independientemente de la localización física de los archivos en el servidor, presentando URLs mucho más sencillas que la estructura real del directorio correspondiente. Por ejemplo, la URL http://www.midominio.com/Viajes/Destinos/Ciudades/MasInfo/Datos Generales/Congresos/Congresos_negocios.htm hace que este contenido esté situado seis niveles de profundidad por debajo de la página home.
- Conectar el control de validación de enlaces del CMS: la mayoría de gestores controla la publicación de enlaces rotos que apuntan a contenidos controlados por el propio gestor, pero pocos validan que un enlace que apunta a una web externa no es un enlace roto. Si el control existe, asegurémonos de conectarlo para impedir que un usuario pueda introducir un enlace hacia una página web inexistente.
- Dejar el control del archivo robots.txt al webmaster: algunos gestores de contenidos permiten editar el contenido del archivo robots.txt por parte del autor de una página. En general, es mejor que sólo el webmaster controle el contenido de este archivo para impedir que, por desconocimiento, un usuario pueda bloquear el rastreo de los robots de una importante parte de la Web.
- Evitar URLs duplicadas: los buscadores son tremendamente selectivos a la hora de castigar el contenido duplicado de una Web, de modo que debemos asegurarnos de que cada página sólo existe bajo una única URL. En cualquier caso, si queremos que los usuarios puedan llegar a un mismo contenido desde URLs homólogas, es mejor programar redireccionamientos permanentes 301, que no son castigados por los buscadores.
- Evitar variables de sesión en la URL: si nuestro portal realiza transacciones electrónicas o algún otro proceso que requiera mantener el estado del cliente, es preferible emplear una cookie de sesión que una variable de sesión que aparece en la URL. La razón es que si los buscadores detectan esto, se abstendrán de rastrear la página para evitar indexar como páginas distintas la misma, pero con distinta variable de sesión. Por ejemplo: http://www.midominio.com/index.php?module=Health&action=DefaultIndex&PHPSESSID=98ab41f9acd8c74df4b6e063985bda8d. En esta URL podemos ver que existe un parámetro de identificación de la sesión (PHPSESSID) que, si es detectado por los buscadores, impedirá que la página sea rastreada, ya que sucesivas visitas del buscador archivarían como páginas distintas ésta misma, en la que únicamente cambiaría el valor del identificativo de sesión. En cualquier caso, se debe restringir el empleo de identificadores de sesión exclusivamente a las áreas del portal en los que sea absolutamente necesario.
- Reducir el código basura: simplificar el código HTML que emplean las plantillas y optar por usar Hojas de Estilo en Cascada (CSS) en lugar de tablas para maquetar el contenido. El empleo de Hojas de Estilo en Cascada facilita la actualización del diseño de una Web, reduce considerablemente el peso de los archivos (la maquetación viaja una sola vez del servidor al usuario, después está ya disponible en la memoria temporal o caché del navegador para las siguientes páginas visitadas) y da mayor preponderancia al contenido significante de la página respecto al peso total del código de la misma.
- Seleccionar la opción de texto para la navegación del sitio: evitando siempre que sea posible el uso de menús Javascript o Flash, ya que sus enlaces no pueden ser seguidos por los buscadores. En muchos casos, podremos lograr con el uso de CSS efectos parecidos a los de los menús Javascript o Flash. Si el gestor de contenidos permite crear un rastro de migas de pan (breadcrumb), activémoslo. Mejora la usabilidad del sitio, ayuda a situarse al usuario en el conjunto de la estructura de la web y es un inmejorable atajo para que los buscadores rastreen todo el contenido.
- No olvidar que existen los encabezamientos: el uso de estilos nos hace olvidar la existencia de etiquetas HTML de jerarquía (H1, H2, H3, etc.) cuyo aspecto visual final podemos modificar también con estilos, pero que ayudan a los buscadores a entender mejor la estructura lógica de la página y señalizan qué aspectos son más importantes. Es por ello importante animar a los editores de contenido a usar encabezamientos en lugar de simplemente definir el texto más grande o más pequeño con font size y, si es posible, limitar a un único encabezamiento de máximo nivel (H1) por página.
- Exigir la creación de un título único, y la adición de metaetiquetas relevantes: programar el CMS de tal forma que la cumplimentación de título y metaetiquetas sea un requisito para la publicación del contenido y, si es posible, activar un control para comprobar la unicidad del título.
- Requerir cumplimentar la etiqueta alt al añadir una imagen al contenido. Esta etiqueta permite a los buscadores indexar mejor las imágenes, colabora en la relevancia de los términos clave de la página y mejora la accesibilidad a los contenidos por parte de las personas con problemas de visión.
- Implementar controles para evitar la publicación de contenido duplicado.
- Animar a usar textos descriptivos en enlaces: en lugar de "Haga click aquí", emplear "Más información sobre nuestro servicio de asistencia al cliente 24H".
Lo mejor de ambos mundos
Es evidente, pues, que si al implementar un gestor de contenidos para generar y mantener el contenido de un gran portal se tienen en cuenta los aspectos relacionados con la optimización web y el posicionamiento en buscadores de dicho portal podemos animar o, de alguna forma, imponer una cierta disciplina a través del propio sistema CMS que implique a los editores de contenido a crear páginas fácilmente rastreables e indexables, que puedan competir adecuadamente en los buscadores.
Las grandes empresas cuentan con la materia prima favorita de los buscadores: contenido abundante, original, dinámico y de rápida actualización. Aprovechemos toda la capacidad de los gestores de contenidos para extraer el máximo rendimiento de la inversión que efectúan en su presencia en la Red.
Fernando Maciá
Director de Human Level Communications, consultora dedicada al desarrollo web, optimización web, posicionamiento en buscadores y marketing digital, con sedes en Alicante, España y Dallas, Texas, profesor de Marketing Digital en Fundesem Business School y coautor del libro Posicionamiento en Buscadores, editado por Anaya Multimedia.
Página anterior | Volver al principio del trabajo | Página siguiente |