viernes, 8 de mayo de 2009

Optimización de Motores de Búsqueda

Search Engine Optimization (optimización para motores de búsqueda) es el método o técnica, para optimizar un sitio web, para poder ser encontrado de una manera eficiente en los buscadores de internet, y catalogándose en categorías y posiciones altas en estos, mediante una correcta definición de palabras claves de búsqueda.

El posicionamiento en los buscadores, es un factor clave para una empresa, el 75% de los visitantes nuevos de un sitio web es mediante buscadores de internet, además aparecer primero en las búsquedas de internet es casi un cliente seguro en muchos casos.



1. Introduccion

Existen muchas técnicas SEO, pero siempre tenemos que tener cuidado con las penalizaciones que efectúan los buscadores al mal uso de estas técnicas (mas adelante hablare del tema).

A continuación, pretendo orientarlos a rasgos generales sobre el buen uso de estas técnicas de optimización.




2. ¿Cómo funciona?


Antes que todo, debemos comprender básicamente como los buscadores recolectan la información de los sitios web y como ordenan sus resultados.

Un robot de búsqueda (spider, crawler) es una rutina (programa) que recolecta información de nuestros sitios web (palabras claves, repeticiones de estas mismas, enlaces), debido al gran número de páginas en internet, los robots de búsqueda se basan en un concepto de "variabilidad" de las paginas, es decir detectan la "frescura" de la pagina (si ha modificado su contenido) y determinan cada cuanto se debe indexar.




3. ¿Cómo ingreso mi sitio a estos robots de búsqueda?




Para ser parte de estos listados de páginas indexadas en los robots de búsqueda, existen dos formas de hacerlo:

Formularios URL: La mayoría de los buscadores cuentan con formularios que nos permiten agregar nuestros sitios web para ser indexada en sus motores de búsqueda.

Enlaces Entrantes: Una manera las lenta, pero más eficaz (se aumenta el PageRank), es conseguir enlaces entrantes en otros sitios ya indexados en estos motores, de esta forma esperamos que el robots los rastree, llegue a nuestra URL y nos agregue a sus registros.

Es bueno recordar que para que los robots de búsqueda nos visiten más seguido, es recomendable, actualizar los contenidos de nuestra página a menudo.

¿Qué es el PageRank?

Es una marca patentada por Google, en la cual se valoriza cada sitio web mediante votos, un voto es un enlace desde otro sitio web hacia el nuestro, y determina la importancia o relevancia de un sitio web a la hora de ordenar los resultados en su búsqueda.

Una manera correcta de aumentar nuestro PageRank, es escribir publicaciones en foros o diversas paginas, con una firma enlazando a nuestro sitio web (artículos valorables, no SPAM)


4. Ayudando a los Robots


A fin de evitar que los robots de búsqueda revisen el sitio por completo (lo cual incrementaría demasiado el tiempo de rastreo), se puede generar un archivo sitemap (XML) para documentar el sitio, sus páginas, importancia y frecuencia de actualización,

Ejemplo del archivo sitemap.xml




Para construir tu propio sitemap, puedes revisar la documentación oficial
http://www.sitemaps.org/es/protocol.php

Cuando un robot visita una página, lo primero que hace, es solicitar el archivo robots.txt, el cual le dice al robot, si tiene permiso para indexar la pagina, y que contenido de esta puede visitar (muchas veces podemos desear que secciones de nuestra página no se indexen en los buscadores)

Algunos ejemplos del archivo robots.txt

# Establecemos total libertad para webcrawler
# Ya que dejamos Disallow vacio

User-agent: webcrawler
Disallow:

# En cambio lycra y BadBot
# tiene prohibido integramente el acceso

User-agent: lycra
User-agent: BadBot
Disallow: /

# El resto de bots (señalado mediante *)
# tiene prohibido el acceso a los directorios
# /tmp y /log; libertad para el resto.

User-agent: *
Disallow: /tmp
Disallow: /logs

Más información para crear tu propio archivo robots.txt la puedes encontrar aca
http://www.robotstxt.org/robotstxt.html


5. Valorando el contenido


El contenido del sitio web y su estructura es primordial para su valoración, ya sea para un robot, o para el usuario mismo, toma en cuenta que mientras más gente valore tu página (vinculándola) más incrementara tu posicionamiento en los buscadores, razón por la cual es necesario mantener nuestra página "fresca" actualizando contenidos (el archivo sitemap es quien le dice al robot la frecuencia de actualización).



Palabras Claves (Keywords)

Las palabras claves con aquellas con las cuales quieres aparecer en las páginas de búsqueda, es muy difícil lograr posicionarse con múltiples palabras claves, por lo que se recomienda usar 4 o 5 por pagina, para lograr una buena distribución de estas palabras claves se puede tener en cuenta lo siguiente :

- URL: Intenta situar palabras claves en nombres de archivos, dominios o subdominios, usando "-" para separarlas. Ej: www.misitio.com/arriendo-maquinas-ejercicios
- Titulo (Title): Quizá el lugar más importante, trata de no poner títulos muy largos (más de 10 palabras), enfócate en colocar solo las palabras claves y de no repetirlas.
- Primer Párrafo: Es recomendable usar en nuestro primero párrafo más de 20 palabras, pero usar nuestras palabras claves en estas 20 primeras, si el párrafo contiene menos de 20 palabras será ignorado, y si contiene más, solo se utilizaran las primeras 20.
- Heading: Los títulos interiores y encabezados tienen mucha importancia sobre las palabras claves, es recomendable incluirlas bajo estas cabeceras

.
- ALT: Los atributos Alt y Title tienen mucho peso sobre los buscadores, sobre todo si esta enlazada a otro sitio web.
- Densidad: Si una palabra aparece 5 veces en un sitio web, esta tiene una densidad de un 5%, se recomienda usar una densidad de 5% al 7%.



6. Evitar penalizaciones


Mucha gente con el fin de aumentar su posicionamiento y efectividad en los buscadores, cae en prácticas no correctas del uso de SEO, lo cual lleva a penalizaciones de estos (bloquear de las búsquedas o bajar el PageRank por ejemplo)

Algunos ejemplos:

- Cloacking: Mostrar un contenido diferente al robot y al usuario, manipulando lo que realmente se indexa.

- Paginas Doorway: Paginas diseñadas exclusivamente para los buscadores, reutilizando las palabras claves en las etiquetas tittle, alt, h1, h2.

- Texto Oculto: Aumentar la densidad de las palabras claves, o de los vínculos, escribiéndolas ocultas, es decir texto con el mismo color de fondo.

- SPAM en Weblogs: Publicando comentarios en foros o blogs, utilizando las palabras claves y vínculos al sitio web.

- Compra/Venta de enlaces: Si se tiene un PageRank Alto, se puede lograr vender enlaces en tu sitio web, o viceversa, pero esto va en contra de los sistemas de búsqueda.


7. Otras consideraciones


También es necesario destacar algunos puntos importantes en estas técnicas de posicionamiento, por ejemplo, manejar el sitio en XHTML y CSS incrementa mucho la rapidez de indexación, ya que el código del sitio queda mucho más limpio y de mas fácil acceso para los robots de búsqueda, otro punto es olvidarse del uso de Frames, ya que la información contenida en un Frame no es considerada como un vinculo web, y no será indexada, debemos entender que los robots solo buscan el texto plano con información ordenada, por esto tampoco es favorable tener paginas solo desarrolladas en FLASH, ya que no contienen información de texto asociada al contenido de la pagina.



Fuente:http://www.mailxmail.com/curso/informatica/posicionamientoweb/capitulo1.htm
Quiero toda la nota!!!