tecnicas link building

3 Técnicas de Link Building para no “enfadar” a Google en 2014

tecnicas link buildingQue el link building sea un tema que constantemente genere debate por algo será.

Y es que a pesar de todas las actualizaciones que Google ha introducido en los últimos tiempos para perseguir aquellas estrategias llamadas “Black Hat”, el link building sigue siendo una necesidad para todo aquel que quiera posicionarse en los buscadores y conseguir visibilidad.

Google está apostando fuerte por los enlaces de calidad y castigando todas las técnicas que permiten conseguir enlaces a través del spam.

Lo que esto significa para ti es que a partir de ahora el link building va a ser una tarea más complicada y costosa que como lo era hace unos años.

No tengas miedo a Google

Muchos bloggers han visto en los últimos meses cómo empeoraba el posicionamiento de su sitio web y por lo tanto han experimentado un descenso en el tráfico procedente desde los buscadores.

Esto ha provocado que muchos de ellos tengan miedo de seguir trabajando en la creación de enlaces y hayan decidido abandonar por completo su estrategia de link building.

Ese es un error que tú no puedes permitirte en ningún caso, ya que a pesar de todo, los enlaces continúan siendo el factor más determinante a la hora de determinar el posicionamiento de una página.

Puede que la influencia de otros factores como las redes sociales haya crecido, pero nunca nada comparado con los enlaces, así que si quieres visibilidad para tu sitio web ya sabes, tienes que empezar a pensar en tu estrategia de link building.

3 Técnicas de link building seguras

A continuación te muestro tres técnicas que puedes implementar para generar enlaces de calidad que seguro van a ser bien vistos por parte de Google.

#1: Invierte en marketing de contenidos

He hablado en múltiples ocasiones de la importancia del marketing de contenidos para hacer crecer tu negocio en Internet.

Con el marketing de contenidos puedes posicionarte como experto en tu nicho de mercado, promocionar tu marca personal, conseguir nuevos suscriptores y clientes, y además generar enlaces de calidad y de forma natural.

Como te comenté en este post, ofrecer contenido de calidad es necesario para obtener el máximo provecho de tu estrategia de link building.

Es importante que te quede claro que sin contenido de calidad va a resultarte extremadamente difícil conseguir que otros sitios web te enlacen.

Por lo tanto, trabaja en crear contenido de alta calidad y publica de forma frecuente en tu blog.

#2: Construye relaciones con otros bloggers

Construir un círculo de amistades con otros bloggers es fundamental para poder prosperar en un entorno tan competitivo como es Internet.

Esfuérzate por llamar la atención de los líderes de tu nicho de mercado.

Posiblemente vas a tener que ofrecer mucho para que empiecen a tenerte en cuenta, pero créeme, una vez lo hagan lo vas a notar mucho.

Es importante que no te limites a relacionarte con unos pocos bloggers, sino que intentes ir añadiendo más gente a tu círculo de colaboradores.

De este modo, siempre que publiques un artículo en tu blog podrás recurrir a estas amistades para que lo compartan en sus perfiles sociales y porque no, que lo enlacen desde su blog.

Como te he dicho en el punto anterior, si tu contenido no merece la pena estás perdido. Nadie va a tomarse la molestia de compartir tus posts.

#3: Colabora con blogs relevantes

En los últimos tiempos el “guest blogging” se ha convertido en una de las técnicas más utilizadas para generar enlaces, ya que permitía conseguir enlaces desde blogs importantes y además generar tráfico.

El problema es que eran tanto su potencial que al final se ha terminado por abusar hasta convertirse en algunos casos en una técnica “spam” para conseguir enlaces a base de publicar contenido de muy baja calidad.

En este sentido Google está empezando a tomar medidas y a quitarle peso a los enlaces procedentes de este tipo de artículos.

Sin embargo, escribir para otros blogs sigue siendo una excelente forma de conseguir enlaces de calidad si sabes cómo hacerlo correctamente.

Mi recomendación es que no escribas un único post para una gran cantidad de blogs. En lugar de eso, intenta identificar unos pocos blogs realmente consolidados y con una audiencia interesada en lo que tú ofreces, y publica en esos blogs periódicamente.

De este modo no sólo conseguirás enlaces, sino que además te integrarás en la comunidad de lectores de ese blog y muchos de ellos se interesarán por lo que ofreces en tu blog.

Otro elemento importante que tienes que tener en cuenta, es que Google le está quitando peso a los enlaces que aparecen en la biografía del autor que se suele incluir al final de un post de invitado.

Procura insertar el enlace hacia tu blog en el contenido, y a ser posible lo más arriba posible del artículo.

Si has leído los artículos que publicaron Rubén Alonso y Dean Romero hace unos días en este blog, verás que en ambos casos el enlace hacia su blog lo incluyeron en el contenido. Aunque no se lo pregunte, estoy convencido que tratándose de dos expertos en el tema, sabían lo que hacían.

Conclusión

Los motores de búsqueda son la mejor forma de conseguir visibilidad para tu negocio en Internet, y el link building es la forma más eficaz de mejorar tu posicionamiento.

Por lo tanto, céntrate en aplicar técnicas seguras para construir tus enlaces y olvídate por completo de cualquier otro método que pueda dañar el posicionamiento de tu sitio web.

¿Has utilizado otras técnicas para generar enlaces? ¿Cuáles han sido tus resultados? Te veo en los comentarios.

Si te ha gustado este post, puedes suscribirte el blog para recibir notificaciones y contenido exclusivo.

Cómo un simple error puede dañar tu SEO – Robots.txt

Este post ha sido escrito por un blogger invitado. Si a ti también te gustaría colaborar con el blog, consulta aquí los requisitos para publicar tu artículo.

robot googleEn toda mi experiencia he visto como un simple error puede ser causa de un desastre para nuestro negocio online. Es más, es posible que ahora mismo tú estés cometiendo dicho error sin darte cuenta.

Este error te puede costar solo unos días de tráfico, o puede que algunas semanas. He visto noticias de propietarios de sitios web que han perdido meses de tráfico proveniente de los buscadores y perder mucho dinero por este motivo.

Ya llevo unos cuantos años en esto del SEO y he visto como grandes marcas y sobre todo medianas y pequeñas empresas con pocos medios, pasan por alto pequeños aspectos de sus sitios web que le están perjudicando sin saberlo.

Esto es normal pues desconocen el funcionamiento de sus negocios online, ya que han encargado el desarrollo de su sitio web a un diseñador o webmaster que cuando termina su trabajo se olvida por completo del proyecto y se marcha a otro.

Lo bueno es que es muy fácil de solucionar aunque no se tenga mucha experiencia en estos casos.

Cuando se produce el problema y cómo evitarlo

Un sitio web es más vulnerable a este pequeño asesino de tráfico cuando se acaba de terminar el diseño del mismo. Esto se debe a que el diseñador de sitios web por regla general comparte sus avances con el cliente, mostrando el progreso y trabajando en conjunto para una satisfacción entre las dos partes.

Es frecuente que el diseñador o webmaster cree un subdominio para trabajar el nuevo sitio web. Por ejemplo: desarrollo.sitioweb.com. Esto crea algunos problemas para el SEO del sitio, ya que desarrollo.sitioweb.com será indexado por los motores de búsqueda y esto va a crear contenido duplicado una vez que se pase al dominio principal, algo que es bastante perjudicial para el SEO.

Por este motivo un webmaster responsable lo que hace es bloquear el acceso de los motores de búsqueda para este subdominio, incluyendo un archivo robots.txt en la raíz del sitio. Esto solo lleva unos minutos y evita que los bots indexadores tengan acceso al sitio que está en construcción.

Este archivo de texto tiene un formato como este:

User-agent: *

Disallow: /

Hasta aquí todo correcto.

El web crawler de Google (también conocido como el robot de Google) se encarga de descubrir e indexar las nuevas páginas. La terminología utilizada en el archivo.txt para referirse a estos bots es User-agent. Antes de entrar en un sitio web, el robot tiene que pasar por el archivo robots.txt para identificar qué áreas puede y no puede indexar.

El archivo robots.txt se puede configurar con diferentes reglas según nos haga falta.

En la regla User-agent el símbolo * actúa como un comodín cuyo significado es que se aplica a todos los agentes de usuario (incluyendo el robot de Google).

En este caso, la barra inclinada Disallow: / indica que todo el contenido del sitio web no debe ser rastreado o indexado.

Ahora vemos como este pequeño error tiene grandes consecuencias

Lo más frecuente es que cuando se está realizando un proyecto web este se atrase por varias circunstancias y no se termine en el tiempo estipulado. Esto hace que empiecen las prisas para intentar que la web esté operativa lo antes posible.

El webmaster o diseñador copia todos los archivos que están en el subdominio de desarrollo hacia el sitio web principal pasando por consiguiente el archivo robots.txt entre ellos con el mismo formato, lo que causa el desastre:

User-agent: *

Disallow: /

Cuando el archivo se encuentra en el dominio principal va a actuar como lo hacía anteriormente, denegando el paso a los bots indexadores para que rastreen el sitio.

Mientras el archivo siga ahí es imposible recibir tráfico orgánico a través de los buscadores. Los bots sólo volverán a entrar en el sitio web cuando se elimine el archivo robots.txt o se mantenga el archivo pero eliminando la barra diagonal del mismo. Por ejemplo:

User-agent:

Disallow:

Como ves es muy fácil de solucionar pero también es causa de muchos malestares.

Por experiencia propia esto suele pasar entre un 10 a un 20% de las veces, pero por regla general se descubre pronto y se soluciona sin que cause demasiados daños.

Sin embargo, hay excepciones de propietarios de sitios web que han estado meses con el archivo denegando el acceso a su sitio, con las respectivas perdidas que esto puede ocasionar. Se puede decir que hay despistes que merecen palos 😀 .

Así que no pierdas el tiempo y échale un ojo a tu archivo robots.txt para ver en qué estado se encuentra.

Por ejemplo mi sitio web reinspirit.com tiene las siguientes reglas:

User-agent:*

Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/

Como podemos ver los bots tienen acceso al sitio web menos a las carpetas que no me interesa que estos entren a cotillear.

Para terminar siempre hay que tener en cuenta que si acabas de terminar un nuevo proyecto web donde ha trabajado un desarrollador o diseñador, debes mirar el archivo robots.txt una vez que el sitio web está terminado.

pedro-mendezPedro Méndez trabaja desde el 2008 realizando proyectos sobre desarrollo web y posicionamiento en buscadores (SEO). Su especialidad es la optimización de sitios web para ser encontrados con mayor facilidad por los principales buscadores.

Puedes encontrar más información en su blog.

Las 3 Mejores Herramientas de Medición y Análisis SEO

Este post ha sido escrito por un blogger invitado. Si a ti también te gustaría colaborar con el blog, consulta aquí los requisitos para publicar tu artículo.

La mejora del posicionamiento de tu web o blog pasa por conocer si tus estrategias SEO funcionan. De nada sirve por ejemplo promover tu web por las redes sociales si luego no “lees” los resultados obtenidos para analizar lo que estás haciendo mal y lo que puedes hacer mejor. Por eso es vital manejar herramientas de medición y análisis SEO que puedan ofrecerte los datos que necesitas para sacar tus propias conclusiones.

Aquí te muestro una lista de las 3 mejores herramientas SEO en cuanto a su facilidad de uso y a la precisión en los resultados que ofrecen. Todas cuentan con servicios de pago para obtener informes más completos y funcionalidades más complejas, pero verás que sus versiones gratuitas no tienen nada que envidiar a otras herramientas profesionales de pago.

Google Analytics

Es “LA herramienta” por definición. No es de extrañar que si buscas el mejor posicionamiento web en Google, sea Google Analytics una de las mejores herramientas para medir y analizar tu tráfico web entre otras muchas cosas.

google analytics

No exagero si te digo que con Google Analytics lo puedes medir casi todo: ventas y conversiones (visitas que acaban en venta), de qué redes sociales proceden las visitas, qué páginas ven, en qué zonas es más rentable la publicidad para que hagan click sobre ella, quién está visitando tu web en tiempo real, etc. Sólo tienes que crearte una cuenta gratuita y agregar a tu web un código HTML que ellos mismos te dan. Así de sencillo.

Searchmetrics

Fuera del “entorno” Google, searchmetrics es para mí la mejor herramienta que existe para analizar infinidad de aspectos de tu web: nichos de mercado, detalles de tu posicionamiento web, enlaces entrantes y salientes, palabras clave por países y mucho más.

search metrics

Aunque cuenta con servicio de pago, puedes acceder a muchos de los análisis registrándote gratis en la web de searchmetrics. La web “original” viene en alemán, pero verás que se puede cambiar a otros idiomas como al inglés. Una vez dentro basta con que escanees el dominio de tu web o blog y podrás navegar por los distintos informes de visibilidad SEO, enlaces entrantes, palabras clave, etc. Concretamente, para la búsqueda de nichos y palabras clave en las que enfocar tu web o negocio, verás que se trata de una herramienta imprescindible.

Moz

Otra gran opción a tener en cuenta para analizar el SEO de tu web. También tiene un servicio de pago, pero las herramientas gratuitas que ofrece la gente de Moz ya son muy buenas. Cabría destacar 2 de ellas:

1.      Open Site Explorer

Con opensiteexplorer puedes obtener un informe muy detallado del linkbuilding de tu web, la repercusión o “autoridad” de los dominios y páginas que te enlazan, etc.

open site explorer

2.      MozBar

Se trata de una extensión o aplicación que puedes instalar en tu propio navegador (Firefox o Chrome). MozBar te permite ver detalles SEO de la página que estés visitando en ese momento o en los resultados de búsqueda de Google. De esta forma puedes comparar muchos datos de tu web con los de otras web, como por ejemplo las de tus competidores, claro.

mozbar

En definitiva, con estas 3 herramientas ya no tienes excusa para no saber todo lo que está pasando en tu web: si funcionan tus campañas de marketing, si tus artículos reciben las visitas esperadas o si te enlazan webs de gran autoridad que puedan mejorar tu posicionamiento. Porque tan importante es ejecutar tu estrategia SEO como analizar sus puntos fuertes y débiles.

¿Qué otras herramientas utilizas para el SEO de tu blog? Deja un comentario y compártela con el resto de lectores.

ruben alonsoRuben Alonso es un joven informático por profesión y afición. Siempre ha sido un apasionado de Internet, pero no ha sido hasta este último año cuando se ha decidido a dar rienda suelta a sus ganas de convertirse en “bloguero” a traves de su blog Mi Posicionamiento Web, donde ofrece consejos sobre SEO y posicionamiento web.