Página 1 de 212»
Moderador del foro: ZorG 
Foro uCoz » Ayuda a los webmasters » Promoción del sitio » Promoción y optimización de la web
Promoción y optimización de la web
GUARAGUAO
Mensajes: 2362
Reputación: 81
Mensaje Nº 1 | 6:20 PM
Así que al fin y al cabo empiezo a escribir el tema acerca de cómo se promociona el sitio web.

  • Fundamentos de la promoción
    Primero de todo trata de ofrecer a los usuarios de tu página web sólo una información bien útil. ¡Esa es la garantía de éxito! Cuan más valiosa es la información, será más fácil promover (o promocionar, aquí eliges tú ya) tu sitio web.
    Ausencia de errores ortográficos. Aplica los programas ortográficos correspondientes. Mínimo 300 palabras en una página. Si el texto contiene una información útil, entonces es rico en palabras claves.

  • Ranking interior y exterior
    Todos los factores que influyen a la posición del sitio web en el sistema de búsqueda, pueden estar divididos en los interiores y exteriores. Los interiores son los que están controlados por el propietario de la web (texto, diseño etc.).

  • Optimización
    ¿Qué quiere decir la optimización del sitio web? La optimización es el aumento de la eficiencia con la cual el sitio web va cumpliendo sus tareas. Las funciones típicas son las representativas (PR), de venta (B2C) y de generación de vendedores potenciales (lead generation, B2B). Respectivamente, en el primer caso la medida de la eficiencia del sitio web es su imagen y “visibilidad” del recurso, en los demás – volumen de ventas o número de los vendedores potenciales.

  • PR del sitio
    PageRank – es un método de Google para medir la “importancia” de una página web. Cuando todos los demás factores, tales como los tags Title y palabras claves, están considerados, Google aplica PageRank para corregir los resultados a que los sitios web más “importantes” asciendan en la página de resultados del buscador de un usuario.

  • Catálogos blancos
    Catálogos blancos son los que colocan el enlace directo hacia tu página web sin que exigieran de ti a que coloques un vínculo de retroceso. Registro en estos catálogos es un medio muy eficaz para mejorar la posición de tu página web en los sistemas de búsqueda por las consultas de búsqueda necesarias.

  • Programas de afiliados
    La participación en los programas de afiliados es uno de los mejores métodos para cobrar a los web-masters. Francamente, este programa está basada sobre la exposición de los banneres, anuncios de publicidad etc. en los sitios web de los participantes. A propósito, la publicidad se paga. Se paga bien (a veces).
    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
  • GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 2 | 12:42 PM
    FUERZA DE LAS PALABRAS CLAVES

    Para elegir correctamente las palabras claves, se puede hacer lo siguiente:

    1. Utiliza estas palabras en los títulos de tus páginas;
    2. Introduce las palabras claves más convenientes en el sistema de búsqueda y en las primeras webs mira el código HTML, qué está escrito allá;
    3. También puedes mirar qué palabras son más populares cuando se buscan en los sistemas;
    4. Así mismo hay que mirar las locuciones que se utilizan en los sistemas de búsqueda (por ejemplo: introduce “mp3” y se expone la lista con las locuciones con esta palabra. Las locuciones populares pueden ser: “bajar mp3” etc.);
    5. Si tu sitio web tiene un nombre único y se encuentra en el texto de las páginas, no es necesario ponerlo en los títulos de todas las páginas, es suficiente que esté en la página de inicio que será la primera en las búsquedas.

    TABÚ DE LOS SISTEMAS DE BÚSQUEDA

    1. No repites las palabras claves iguales en keywords más de 3 veces. También eso toca a las palabras con la ráiz común (parónimos). A los sistemas de búsqueda no les gusta;
    2. No escribas más de 25 palabras en keywords;
    3. No utilices el atributo de keywords más de una vez;
    4. En caso de que tienes una página “almacén de links” que contiene un montón de enlaces, prohíbe esta página para la indexación pues los sistemas de búsqueda te pueden banear por eso;
    5. No pongas en las páginas las palabras claves que tengan el mismo color que el fondo. En este caso los ven sólo los sistemas de búsqueda, lo que también puede provocar su baneo.


    Generalmente, si vas creando un sitio web interesante y honesto, si no vas a utilizar las porquerías para su promoción – no tendrás problemas con la indexación. Aquí no hace falta prodigarse pues sólo puedes estropear.

    ¡Éxitos a todos!


    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 3 | 1:49 PM
    Así que quieres optimizar tu web con tus propias furzas. Te debo advertir que es una cosa bastante complicada y tendrás que armarte de paciencia y tiempo libre para conseguir los fines planteados, la franca. Siguiendo nuestras indicaciones y consejos podrás optimizar tu portal web y colocarlo en el TOP de los motores de búsqueda bastante rápido.

    Optimización del sitio web significan las acciones con los elementos y estructura de la web y elementos que la rodean, que llevan a la mejora de las posiciones en la exposición de los resultados de la búsqueda por las solicitudes del usuario. Hablando más sencillo, optimización es un conjunto óptimo de tales parámetros como Volumen del texto en la página, Número de palabras claves en la página, Estructura y navegación de la web, Significado de los tags “TITLE” y “ALT”, meta-tags ”Description” y “Keywords”.

    Existe una opinión: más páginas en la web quiere decir “mejor”. Y que aumentando el número de las páginas, mejoramos su posición en el motor de búsqueda. Pero en el Internet existe un montón de los sitios web de “mil páginas” que según las solicitudes no representan interés alguno en los usuarios de la Red aunque existen un plazo bastante largo. Claro está que una adición paulatina de nuevos materiales y páginas es necesaria y esto es considerado por los motores de búsqueda como un lógico desarrollo del recurso que da ciertas ventajas durante el ranking. Por eso te aconsejo que te acostumbres colocar cuanto más información útil y cualitativa en la web – noticias, comunicados de prensa, artículos, consejos útiles etc. De todo modo eso será provechoso y dará sus frutos.

    Volumen del texto en la página: los motores de búsqueda aprecian los sitios web llenados con un contenido informativo. En cualquier caso hay que tratar de ir aumentando el contenido textual de la web. Si no para los motores de búsqueda, entonces para los visitantes de tu web – sin duda alguna.
    Contenido óptimo de una página: 400 – 2500 palabras, o sea, 5 – 25 KB del texto. Es una cuestión a discutir, pero una página con sólo varias oraciones tiene ínfimas posibilidades de caer en el TOP de los motores de búsqueda. Además, cuando hay mucho texto en la página, esto aumenta la “visibilidad” de la página en los motores de búsqueda a cuenta de las frases de búsqueda raras o casuales, lo que en ciertas condiciones puede atraer los usuarios adicionales a tu web.

  • Número de repeticiones de las palabras (frases) claves en una página ha de estar en los límites de 2 a 5-7 veces. El límite superior depende del número total de las palabras en una página – con más texto, más repeticiones de las palabras (frases) claves pueden haber. Más detalladamente hace falta examinar la situación con las frases de búsqueda, o sea, oraciones. Se obtienen mejores resultados cuando una frase se encuentra en el texto varias veces en calidad de la frase de búsqueda (es decir, todas las palabras en conjunto y orden), además las palabras de la frase se encuentran en el texto varias veces por separado.
  • Densidad de la palabra clave en la página se determina por la frecuencia de esta palabra en el texto de la página. Se mide en por ciento (%). Por ejemplo: si una palabra clave se repite 5 veces en la página que contiene 100 palabras, entonces la densidad de esta palabra es 5%. La densidad menos de 5% provoca que el motor de búsqueda no prestará la debida atención a esa palabra. Una densidad demasiado alta puede activar un filtro de spam (o sea, el ranking de la página será artificialmente reducido en los resultados de la búsqueda a causa de la abundancia de una palabra o frase clave). Se considera que la densidad óptima de la palabra clave es 5-7%. En lo que toca a las frases claves, hay que calcular la suma de todas las palabras claves y asegurarse de que está en los límites razonables. Según la práctica podemos decir que si la densidad de la palabra clave excede 7-8%, aunque eso no deteriora la búsqueda, pero tampoco tiene sentido alguno.
  • Una regla de colocar palabras claves en la página (breve y claro) – cuanto más cerca al inicio está la palabra o frase clave, tanto mejor: tiene más peso para el motor de búsqueda.
  • Palabras y frases claves en el texto de enlaces interiores también atribuyen un significado y valor (no grande) a las páginas interiores de tu web.

    Comúnmente el sitio web tiene el menú de navegación. Las webs estáticas visitadas por el motor de búsqueda, tienen una cierta ventaja ante los sitios web con núcleo dinámico, pues se indexan más fácil y rápido. Si tu web es dinámica, crea un SiteMap que contenga todos los enlaces del menú hechos a mano mediante HTML. Esto va a aumentar la usabilidad de la web y mejorar la cohesión de enlaces para los motores de búsqueda.

    Cabecera de la página

  • El tag “TITLE” es uno de los más importantes. Los motores de búsqueda le dan mucha importancia. La utilización de las palabras y frases claves en el tag TITLE es muy deseable y aconsejable. Además, el texto del tag TITLE se contendrá en el nombre de tu sitio web cuando lo van a exponer como resultado de la búsqueda y estrictamente por el texto del tag TITLE va a hacer clic el usuario al pasar a tu web. Es una especie de tarjeta de visita. Pero recuerda que el largo del tag está limitado por 45-70 caracteres, por eso trata a reducir la frase hasta su tamaño razonable, pero comprensible.
  • Cualquier imagen, dibujo o flash en la página tiene un atributo especial: “ALT” (texto alternativo). Este texto se verá por un visitante si tiene desactivada la exposición de imágenes en las configuraciones de su navegador. Los motores de búsqueda leen el campo ALT durante la visita de la página, pero qué significado tiene el texto del tag ALT lo conocen sólo los creadores de los motores de búsqueda. Con esto y con todo no se recomienda abusar de las repeticiones de las palabras claves en el tag ALT.
  • Meta-tag “Description” está destinado especialmente para la descripción de una página. Este tag no influye para el ranking pero con todo eso es importante. Muchos motores de búsqueda (Google, para mencionar algunos) exponen el texto de este tag en los resultados de la búsqueda si éste está presente en la página y su contenido corresponde al contenido de la página y solicitud de búsqueda. Seamos francos, los altos lugares en los resultados de la búsqueda a veces no garantizan el número alto de visitantes. Si la descripción de tus competidores en los resultados es más atractivo e interesante, los visitantes del sistema o catálogo eligen su web y no tuya. Por eso una composición correcta y bien escrita del meta-tag Description tiene un significado grande. La descripción ha de ser breve, informativa y atractiva. Así mismo es necesaria la presencia de las palabras claves en este tag.
  • Meta-tag Keywords está destinado para indicar palabras claves de esta página. Pero ahora, por lo que sabemos, el tag casi no se utiliza por los motores de búsqueda. Sin embargo vale la pena rellenar (completar) el tag. Sólo aquellas palabras claves que están presentes en la página de verdad, han de añadirse en el tag Keywords.

    Métodos inadmisibles de optimizar el sitio web:

  • Por desgracia, los motores de búsqueda no suelen publicar una lista xacta de métodos de la optimización de los sitios web que consideran como spam; se determina sólo su esencia:
    1. disfraz de las páginas, o sea, al motor de búsqueda se entrega un material y al usuario – otro;
    2. texto que tiene el mismo color que el fondo de la página o una reducción deliberada del tamaño de las letras hasta que sea invisible por el usuario (se utiliza para abundar la página con las palabras claves que sean invisibles por los usuarios pero sí visibles por los motores de búsqueda);
    3. redirección automática de la página encontrada a otra. Además, las redirecciones complican el análisis del sitio web por los robots;
    4. intercambio de los enlaces para dar más importancia y seriedad a las páginas de la web. No obstante, no todos los motores de búsqueda lo perciben como spam. Aunque no se recomienda abusar de esto;
    5. utilización de los enlaces-imágenes gráficos invisibles por los usuarios (1x1 pxl) es considerado por los motores de búsqueda como una tentativa de engaño.

    La utilización de tales métodos de optimización “fraudulentos” puede provocar el baneo de la web, o sea, a su exclusión forzada del índice (base de datos) del motor de búsqueda.

  • Bueno, he aquí los momentos más importantes en la optimización del sitio web:
    1. evita los subcatálogos. Si tu web tiene pocas páginas (digamos, hasta 20), ubícalas en el directorio raíz. Para los motores de búsqueda tales páginas representan máxima importancia;
    2. hay optimizar cada página para una frase clave concreta. A veces es posible elegir 2 o 3 frases semejantes, pero si tratas de optimizar la página con 5 o más frases – resultado será nulo;
    3. presta máxima atención a la página de inicio: es ella que tiene máximas posibilidades de ocupar los altos lugares en los motores de búsqueda;
    4. no utilices imágenes en vez del texto. Aquí recordemos que la parte superior de la web es la parte más preciosa y está destinada para los motores de búsqueda. Si estás convencido de que arriba debe haber logotipo de tu compañía (firma, empresa, sociedad etc.), trata de combinar la imagen gráfica con un texto simple;
    5. navegación no debe pasar a través de los scripts;
    6. si la navegación está realizado en forma de gráfica, por lo menos no olvides inscribir los parámetros correctos del tag ALT en los códigos de las imágenes de los botones;
    7. en los scripts dinámicos a veces se utiliza el identificador de sesiones. Con su ayuda es muy cómodo recoger los datos estadísticos acerca de la conducta de los visitantes del sitio web, pues cada usuario al entrar en el sitio obtiene un parámetro único &session_id= que se añade a la dirección de cada página visitada de la web.
    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
  • GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 4 | 1:44 PM
    Posicionamiento y publicidad web para principiantes

    Posicionamiento es el lugar mental que ocupa una marca o empresa en la mente del consumidor o cliente. En nuestro caso no solo es esto, es el lugar “físico” que ocupa nuestro sitio.

    Imaginemos nuestra página web como un negocio, lo creamos y lo colocamos dentro de las quinientas cuadras de negocios del rubro, tenemos mexicanos por un lago y rusos por el otro. ¿Qué nos hace distintos?, ¿Cómo logramos visitas?

    Lo más lógico es que el cliente no caminara más de una cuadra hasta entrar y comprar lo que busca, eso nos obliga a estar primeros… en los primeros diez negocios.

    Lo segundo, un cliente con tantas posibilidades solo entrará si el cartel de la puerta dice claramente lo que estas vendiendo y por último al ingresar la vidriera debe ser impactante pero la atención rapidísima. Si ingreso y los productos tardan más de quince segundos en “aparecer” me voy.

    Tenemos todo esto y aún más: esta comprobado que muy poca gente ingresa a un sitio directamente con su dominio, en la mayoría de los casos realiza una búsqueda antes, por ejemplo en vez de poner www.hotmail.com, ingresa a Google y coloca Hotmail y hace clic en el primer enlace (que es justamente www.hotmail.com) , ¿y si su sitio no es el primer enlace?

    Así (casi) nace el posicionamiento web, básicamente lograr que su sitio este en los primeros lugares de un buscador, cuando el usuario (su cliente) realice una búsqueda especifica. Aclaramos lo de “búsqueda especifica” por que es importante entender que el posicionamiento esta relacionado íntimamente con palabras o frases. Claro esta, el cliente busca: “viaje cancun” y comienza la lucha. Agencias de viajes, sitios turísticos, enciclopedias, un sin fin de sitios que están relacionados con “viaje cancun”.

    Existen varias técnicas y métodos que se deben tener en cuenta para lograr que un sitio “compita”, así como muchas cosas que nose deben hacer, por que, aparte de ser competencia desleal y darle muy mala publicidad a su sitio, están penalizadas por Google (su sitio nunca más estará indexado a este buscador, es decir no aparecerá en ningún tipo de búsqueda).

    Este documento no intenta ser una guía para un webmaster, simplemente quiero sumergirlos (unos 5cm) en el mar del SEO y el posicionamiento web.

    Lo primero es lo primero (para sentirnos importante) hay que saber que significa:

    SEO: Search Engine Optimization, optimización para motores de búsqueda. Este concepto involucra tanto las técnicas de posicionamiento aplicadas directamente en los buscadores o motores de búsqueda, como el análisis y diseño web. No se confundan con Web CEO, que es un soft de “ayuda” para el posicionamiento.
    SERP: Search Engine Results Page, Página de Resultados del Buscador.
    SEM: Existe una gran diferencia entre SEO y SEM( search Engine Marketing’ Márketing en Buscadores’). SEO solo nos orienta el posicionamiento SEM es todo el trabajo de marketing y publicidad que le damos a nuestra web, entre algunos ejemplos tenemos los Sistemas para anunciarse como AdWords (de Google), Overture (de Yahoo!) y espotting.
    Ahora.

    Los puntos principales a tener en cuenta a la hora de buscar competir, tanto para el desarrollador web como al encargado de la información web (lo que llamamos director web) son:

    1ro. Diseñar el contenido del sitio acorde a lo que queremos vender, por ejemplo si hacemos un sitio de turismo, es importante hablar sobre quienes somos o los años que llevamos trabajando para usted, pero aun más importante es mostrar que vendemos, como lo vendemos y que nos diferencia de la competencia. En los sitios que trabaje siempre puse en esta tarea a gente especializada, o conocedora de marketing y publicidad.
    2do. No solo es importante lo que se ve, sino lo que no, es decir el código, las herramientas que debemos usar para hacer un sitio rápido, interactivo, rápido, innovador, rápido y que le “guste a Google y su equipo de robots felices” (Googlebot, Freshbot, etc).
    3ro. Estar en google. Hay muchas teorías que dicen que a Google no le gusta que des de alta tu sitio, el solo lo buscará. Bueno, realmente no se que nivel de verdad posee eso, pero si estoy segura que hay dos opciones: o das de alta el sitio directamente (http://www.google.com/addurl/?hl=es&continue=/addurl), o mucho mejor haces que páginas importantes te enlacen (pongan un link a tu sitio).
    4ro. Pagerank. Un tema controversial, algunos dicen que importa otros que no. El pagerank es un número que representa la importancia que posee tu sitio en Internet. - ¿Y como sabe eso Google?, mi sitio es fundamental para la vida en esta tierra!!… bueno, Google piensa así: cuanto mas sitios apuntan (tiene enlaces o link) a una web, más importante es.

    Y aquí nacieron los conocidos: FFA, ‘link farms’ (granjas de enlaces) sitios creados para vender enlaces, totalmente amonestados por Google. Es importante tener en cuenta que más de 100 enlaces en un pág. esta muy mal visto.

    Aquí les dejo algunos conceptos, para no cometer un grave error

    Cloaking o encubrimiento, se crea un sitio que muestra un contenido al usuario y otro totalmente distinto a los buscadores. Un caso particular es son los doorway que poseen un diseño para los robots y cuando ingresa un visitante por javascript u otro método similar abre otra paguina con información realmente “legible” para un ser humano.

    Texto y enlaces ocultos: lo hacen del mismo color del fondo, en capas invisibles, etc. Aquí les paso dos enlaces que rescate de un documento relacioando al tema.
    http://www.paginadigital.com.ar/servicios/servicios.asp

    Colocan un id invisible llamado fantasma, y “comentarios” que es texto oculto normalmente usado para comentar el código a fin de llevar un correcto diseño y desarrollo entre diferentes personas. Esto lo hace en su sitio como en todos los desarrollados, esto no solo puede generar que google no indexe mas el sitio de sus clientes, sino dañan la imagen del mismo.
    http://www.mediawebsa.com

    Coloca enlaces ocultos a su pagina en todas las de sus clientes.

    - Páginas duplicadas: Son dos o más sitios llenos de texto, enlaces y cargados de palabras claves, pero al ingresar nos llevan a una tercera pagina que contiene lo que quieren vender.

    También existen los Spam en weblogs, libros de firmas,etc. Esta de más decir que el abuso de palabras claves y vender enlaces esta penalizado. Existen muchas penalizaciones, y tenes que estas al tanto de todas por eso te recomendamos siempre leer sobre ellas en el sitio oficial de Google, como en muchos dedicados al tema.

    Hay muchos sitios de directorios que dan de alta tu sitio gratis o por intercambio, aquí tenemos que apuntar y claro a tratar de aparecer en Yahoo! y DMOZ que son el puente a otros sitios importantes.

    Backlinks: es la cantidad de paginas que indexa un sitio. Para saber que sitios te indexa en Google: link: http://www.tusitio.com y Yahoo: http://siteexplorer.search.yahoo.com

    Finalmente, Google muy rara vez te indexara nuevamente si te penalizo de todos modos deja un formulario para que te comuniques con ellos: http://www.google.com/support/bin/request.py

    Creo que hasta ahora les dí un básico y pequeño recorrido, quería proporcionarles una idea de este tema, Internet esta lleno de información y sobre esto hay mucho y muy bueno.

    Para terminar: el trabajo de posicionamiento no es simplemente hacer que tus amigos entren sin parar a un sitio para darle hits, o darlo de alta en todos lados, es un proceso largo, muy bien analizado y pensado. Con base en un estudio de marketing, acompañado por mecanismos de publicidad no necesariamente atados al posicionamiento. Esto y mucho más muestran que este trabajo debe ser hecho por expertos, gente que trabaja en este tema y se capacita todo el tiempo. Si te interesa, estudia, lee mucho y trabaja sobre un sitio demo antes de tomar la marca de una empresa en tus manos.


    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    sorin
    Mensajes: 442
    Reputación: 6
    Mensaje Nº 5 | 9:30 AM
    Aqui os dejo mi opinion sobre lo que acaba de escribir nuestro amigo.

    El PR es un tema muy discutido por los webmaster ultimamente a pesar de que los inginerios de google no recomienda que hacemos spam de nuestrsa entrada PAGINA DE INCIO, sea que no nos ayuda mucho en dar de alta nuestro sitio en 1000 directorios o obtener link hacendo spam.
    Para mi el contenido es el rey y el HTML su trono biggrin Si mejor dedico mi tiempo en generar contenido que dar de alta en los directorios.

    Y para hablar de este tema de SEO ahi muchaaas cosas que decir, por cierto acabo de leer un libro que se llama Posicionamiento en los buscadores cuando tendre un rato os hare un rezume y dejare algunos enlace de algunos blog sobre SEO que sigo.

    Saludos amigos.


    GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 6 | 2:28 PM
    Gestor de contenidos y Posicionamiento en los buscadores (CMS y SEO)

    Cómo aprovechar su gestor de contenidos (CMS) para tener una web bien posicionada en buscadores.

    Los gestores de contenido y el SEO
    La generación, publicación y archivo de un enorme número de páginas en los grandes portales y sitios Web plantea múltiples retos que los sistemas de gestión de contenidos web (o CMS, de Content Management System) han tratado de resolver en los últimos años:

    • Facilitar la generación y edición de contenidos para la Web por parte de personal sin formación específica en programación.
    • Asegurar una apariencia homogénea de todos los contenidos y su presentación de acuerdo con un diseño corporativo y con una línea editorial predefinida.
    • Mantener una coherencia en la estructura de los sitios Web, permitiendo la incorporación de nuevos contenidos en las secciones adecuadas tras la aprobación y el control previo de las personas indicadas.
    • Mantener una navegación consistente que permita a los usuarios llegar a cada uno de los contenidos que están publicados en cada momento.
    • Evitar la existencia de contenido duplicado (distintas direcciones URL que muestran un mismo contenido), contenido huérfano (archivos que quedan en el servidor de forma innecesaria ya que son páginas a las que ya no apunta ningún enlace o archivos de imagen o multimedia que se mostraban en páginas suprimidas) o bien enlaces rotos, que apuntan a páginas que no existen en el servidor.

    Los gestores de contenidos o CMS son herramientas de software que permiten descentralizar las labores de mantenimiento del contenido de un portal, de forma que personal no técnico de los distintos departamentos de una empresa puede añadir, editar y gestionar su propio contenido en una Web corporativa.

    CMS y posicionamiento en buscadores: ¿una simbiosis imposible?
    Sin embargo, y a pesar de sus evidentes ventajas, el enfoque tradicional de este tipo de herramientas se ha centrado en facilitar al máximo la gestión de los contenidos simplificando los procesos de producción, aprobación y publicación de los mismos, más que en generar páginas web debidamente optimizadas para ser competitivas en los buscadores.

    Entre los problemas que, desde el punto de vista de la optimización para el posicionamiento en buscadores, aparecen de forma recurrente en los portales soportados por sistemas gestores de contenido, destacan los siguientes:

    URLs dinámicas: los buscadores limitan en ocasiones el número de variables dinámicas presentes en las URLs que indexan. Las páginas generadas por muchos gestores de contenidos incluyen frecuentemente un elevado número de variables dinámicas en su dirección URL.
    Títulos únicos: el título de una página es uno de los factores más importantes a la hora de posicionar bien en buscadores un contenido. Sin embargo, muchos sistemas gestores de contenidos no permiten a los usuarios asignar un título único relevante a cada página.
    Falta de soporte para metaetiquetas: muchos CMS no disponen de campos específicos para que el usuario pueda especificar el contenidos de las metaetiquetas Keywords y Description. Aunque no son tan importantes como el título para lograr una buena posición en los buscadores, estas etiquetas siguen jugando un papel relevante a la hora de que el usuario prefiera hacer click sobre nuestro sitio en una página de resultados de búsqueda.
    Ausencia de palabras clave en las URL: las URLs dinámicas generadas por muchos sistemas de gestión de contenido suelen ser poco amigables tanto para el usuario como para los buscadores, y no incluyen términos de búsqueda que contribuyen a un mejor posicionamiento.
    Imposibilidad de una optimización posterior: el proceso de producción de contenidos que impone el uso de un sistema CMS dificulta enormemente la optimización a posteriori de los contenidos generados y, en el mejor de los casos, añade una carga de trabajo extra que podría evitarse si los aspectos SEO se hubieran tenido en cuenta en la implementación del gestor.

    Resulta, pues, paradójico que precisamente sean aquellas empresas que más recursos invierten en el mantenimiento y generación de nuevos contenidos para sus portales las que, al mismo tiempo, menos se beneficien del volumen que dicho tráfico podría movilizar debido a una pobre implementación de sus sistemas de gestión de contenidos, desde el punto de vista del posicionamiento en buscadores. Un fallo que, en muchos casos, no se debe a carencias de la herramienta en sí, sino a un desconocimiento por parte de los técnicos que la implementan de la importancia que tiene que los contenidos generados por ella puedan ser competitivos en los buscadores.

    Hacer del gestor de contenido la mejor herramienta SEO
    Pero, de la misma forma que un gestor de contenidos mal implementado puede mermar el rendimiento de la inversión en generación de contenidos de un portal, uno que haya tenido en cuenta los aspectos básicos de la optimización web para el posicionamiento en buscadores puede ser el aliado más eficaz para generar contenidos que conseguirán escalar los puestos de las búsquedas más competidas. Veamos cómo:

    Emplear código valido según W3C: los gestores de contenido parten de plantillas prediseñadas, que los usuarios no pueden alterar, para generar las nuevas páginas. Si validamos el código de estas plantillas en origen, nos aseguramos de que las páginas generadas a partir de ellas contendrán también código válido. El empleo de código válido asegura que la página se mostrará correctamente en los distintos navegadores y que los buscadores serán capaces de rastrearla sin problemas.
    Crear un mapa del sitio: casi todos los gestores de contenidos permiten crear y mantener actualizado un mapa del sitio. Los buscadores limitan el número de enlaces que pueden seguir a 100 por página y han de ser enlaces normales de texto HTML. Si ajustamos nuestro gestor de contenido para que genere y mantenga un mapa jerarquizado del sitio web con estas premisas, facilitamos a los buscadores que puedan rastrear todas y cada una de las páginas de nuestro sitio web.
    Generar páginas con URLs amigables: algunos gestores de contenido generan archivos estáticos cuyas URL no contienen variables dinámicas, mientras que otros emplean direcciones URL con múltiples parámetros dinámicos, como por ejemplo: http://www.midominio.org/portal/site/pag54540211221. . Entre éstos últimos, algunos permiten crear URL alias más amigables (conteniendo palabras clave o eliminando los parámetros dinámicos) que después el sistema sustituye internamente por la URL dinámica que precisa. En igualdad de condiciones, elijamos un CMS que genere direcciones URL ricas en palabras clave o con un reducido número de parámetros dinámicos. Direcciones URL como la del ejemplo son muy poco usables así como poco amigables para los buscadores.
    Limitar el nivel de subdirectorios: los buscadores dan mayor importancia a una página cuanto más cerca está de la página home del portal. Es por esto que debemos limitar el número de subdirectorios que muestra la URL: muchos gestores de contenidos permiten organizar jerárquicamente el contenido independientemente de la localización física de los archivos en el servidor, presentando URLs mucho más sencillas que la estructura real del directorio correspondiente. Por ejemplo, la URL http://www.midominio.com/Viajes/Destinos/Ciudades/MasInfo/Datos Generales/Congresos/Congresos_negocios.htm hace que este contenido esté situado seis niveles de profundidad por debajo de la página home.
    Conectar el control de validación de enlaces del CMS: la mayoría de gestores controla la publicación de enlaces rotos que apuntan a contenidos controlados por el propio gestor, pero pocos validan que un enlace que apunta a una web externa no es un enlace roto. Si el control existe, asegurémonos de conectarlo para impedir que un usuario pueda introducir un enlace hacia una página web inexistente.
    Dejar el control del archivo robots.txt al webmaster: algunos gestores de contenidos permiten editar el contenido del archivo robots.txt por parte del autor de una página. En general, es mejor que sólo el webmaster controle el contenido de este archivo para impedir que, por desconocimiento, un usuario pueda bloquear el rastreo de los robots de una importante parte de la Web.
    • Evitar URLs duplicadas: los buscadores son tremendamente selectivos a la hora de castigar el contenido duplicado de una Web, de modo que debemos asegurarnos de que cada página sólo existe bajo una única URL. En cualquier caso, si queremos que los usuarios puedan llegar a un mismo contenido desde URLs homólogas, es mejor programar redireccionamientos permanentes 301, que no son castigados por los buscadores.
    Evitar variables de sesión en la URL: si nuestro portal realiza transacciones electrónicas o algún otro proceso que requiera mantener el estado del cliente, es preferible emplear una cookie de sesión que una variable de sesión que aparece en la URL. La razón es que si los buscadores detectan esto, se abstendrán de rastrear la página para evitar indexar como páginas distintas la misma, pero con distinta variable de sesión. Por ejemplo: http://www.midominio.com/index.php?module=Health&action= DefaultIndex&PHPSESSID=98ab41f9acd8c74df4b6e063985bda8d. En esta URL podemos ver que existe un parámetro de identificación de la sesión (PHPSESSID) que, si es detectado por los buscadores, impedirá que la página sea rastreada, ya que sucesivas visitas del buscador archivarían como páginas distintas ésta misma, en la que únicamente cambiaría el valor del identificativo de sesión. En cualquier caso, se debe restringir el empleo de identificadores de sesión exclusivamente a las áreas del portal en los que sea absolutamente necesario.
    Reducir el código basura: simplificar el código HTML que emplean las plantillas y optar por usar Hojas de Estilo en Cascada (CSS) en lugar de tablas para maquetar el contenido. El empleo de Hojas de Estilo en Cascada facilita la actualización del diseño de una Web, reduce considerablemente el peso de los archivos (la maquetación viaja una sola vez del servidor al usuario, después está ya disponible en la memoria temporal o caché del navegador para las siguientes páginas visitadas) y da mayor preponderancia al contenido significante de la página respecto al peso total del código de la misma.
    Seleccionar la opción de texto para la navegación del sitio: evitando siempre que sea posible el uso de menús Javascript o Flash, ya que sus enlaces no pueden ser seguidos por los buscadores. En muchos casos, podremos lograr con el uso de CSS efectos parecidos a los de los menús Javascript o Flash. Si el gestor de contenidos permite crear un rastro de migas de pan (breadcrumb), activémoslo. Mejora la usabilidad del sitio, ayuda a situarse al usuario en el conjunto de la estructura de la web y es un inmejorable atajo para que los buscadores rastreen todo el contenido.
    No olvidar que existen los encabezamientos: el uso de estilos nos hace olvidar la existencia de etiquetas HTML de jerarquía (H1, H2, H3, etc.) cuyo aspecto visual final podemos modificar también con estilos, pero que ayudan a los buscadores a entender mejor la estructura lógica de la página y señalizan qué aspectos son más importantes. Es por ello importante animar a los editores de contenido a usar encabezamientos en lugar de simplemente definir el texto más grande o más pequeño con font size y, si es posible, limitar a un único encabezamiento de máximo nivel (H1) por página.
    Exigir la creación de un título único, y la adición de metaetiquetas relevantes: programar el CMS de tal forma que la cumplimentación de título y metaetiquetas sea un requisito para la publicación del contenido y, si es posible, activar un control para comprobar la unicidad del título.
    Requerir cumplimentar la etiqueta alt al añadir una imagen al contenido. Esta etiqueta permite a los buscadores indexar mejor las imágenes, colabora en la relevancia de los términos clave de la página y mejora la accesibilidad a los contenidos por parte de las personas con problemas de visión.
    Implementar controles para evitar la publicación de contenido duplicado.
    Animar a usar textos descriptivos en enlaces: en lugar de “Haga click aquí”, emplear “Más información sobre nuestro servicio de asistencia al cliente 24H”.

    Lo mejor de ambos mundos
    Es evidente, pues, que si al implementar un gestor de contenidos para generar y mantener el contenido de un gran portal se tienen en cuenta los aspectos relacionados con la optimización web y el posicionamiento en buscadores de dicho portal podemos animar o, de alguna forma, imponer una cierta disciplina a través del propio sistema CMS que implique a los editores de contenido a crear páginas fácilmente rastreables e indexables, que puedan competir adecuadamente en los buscadores.

    Las grandes empresas cuentan con la materia prima favorita de los buscadores: contenido abundante, original, dinámico y de rápida actualización. Aprovechemos toda la capacidad de los gestores de contenidos para extraer el máximo rendimiento de la inversión que efectúan en su presencia en la Red.
    prof yes


    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 7 | 5:07 PM
    Las 8 principales razones por las que la gente abandona una página Web

    Si nos permiten hacer uso de la expresión coloquial, "No te dejo por feo, sino mas bien por pobre", pareciera ser la frase más apropiada para comprender la razón principal por la que las personas que navegan en Internet abandonan o no visitan las páginas Web.

    Abandonar un sitio por razones de un mal diseño gráfico no está dentro de las principales razones de por qué la gente decide cambiar de un sitio a otro, según encuestas realizadas en los Estados Unidos en los últimos años. Esto es importante saberlo porque estamos dedicando mucha atención a los aspectos de diseño gráfico del sitio y descuidando factores mucho más importantes como el propio contenido, facilidades de navegación y los tiempos de acceso de las páginas Web.

    La razón que está detrás de esta natural tendencia a centrar nuestra atención en aspectos de diseño gráfico, es que estamos todavía muy acostumbrados a la tradicional publicidad en periódicos, revistas y folletos promocionales. Sin embargo, estas técnicas de diseño no son directamente heredables al Web, donde el contenido y la funcionalidad deben estar por encima del diseño gráfico.

    Con esto no queremos decir que su Sitio Web no pueda ser estético, sino mas bien que debe Usted preocuparse en primera instancia por satisfacer las necesidades de contenido y funcionalidad, y si los recursos humanos y financieros lo permiten, dedicarse entonces a optimizar el diseño gráfico.
    Hace un par de años, se dio a conocer los resultados de un estudio sobre los motivos que conducen a los usuarios de Internet a abandonar un sitio. He aquí un resumen de este reporte:

    Sin duda interesantes conclusiones las que arroja este estudio. Un punto muy importante es que muchos de estos errores se pueden prevenir a tiempo, pero desafortunadamente la mayoría de los empresarios y directivos toman sus decisiones sin antes consultar a los especialistas.

    Páginas pesadas
    Un despliegue lento de las páginas puede ser ocasionado por problemas de sobrecarga de trabajo del servidor en el que se hospeda el sitio, pero también puede deberse a páginas que son extremadamente "pesadas" (páginas Web que contienen imágenes, animación gráfica o elementos multimedia de gran dimensión).

    Por ser de gran impacto visual, muchos desarrolladores en el mundo están cayendo en un uso indiscriminado de la animación gráfica con la venia de empresarios y ejecutivos responsables de los proyectos, a quienes no parece incomodarles la lentitud de acceso a sus sitios.

    Páginas de escaso contenido
    No encontrar la información requerida es la segunda razón más frecuente por la que se abandona un sitio. Los usuarios necesitan de información para tomar decisiones y abandonarán de inmediato el sitio si éste parece no ofrecer lo que ellos buscan. No olvidemos entonces la ley cero del marketing en Internet: "Content is King".

    No existe información de la empresa
    Cuando los visitantes encuentran una buena fuente de información, como podría ser la documentación técnica publicada en el sitio de su negocio, por lógica ellos desearán determinar si pueden confiar en Usted, cuáles son sus credenciales, quiénes son sus clientes, a quiénes han ayudado y cuánto tiempo han estado en el negocio. No proveer esta información es sinónimo de desconfianza para los visitantes.

    Facilidades de búsqueda limitadas
    Otro de los motivos por el que en ocasiones se alejan los usuarios, es la falta de una apropiada facilidad de búsqueda. Así como Usted conoce a la perfección el contenido y tiene una clara imagen del mapa de su sitio, es muy importante que la gente pueda localizar rápidamente la información que necesita. Aun en sitios pequeños, que no exceden de las 30 páginas Web, a veces es difícil localizar la información por la pobre organización de sus páginas y la ausencia de un sistema de búsqueda apropiado.

    Otros factores en contra
    En otras ocasiones el diseño de las páginas se asemeja al juego "¿Y dónde está el vínculo?", en el que resulta todo un reto identificar en qué parte de la página Web se encuentran los vínculos a las secciones restantes.
    Aunque Usted no lo crea, la gente recurre con frecuencia a los mapas de Sitios, los cuales son muy necesarios cuando el sitio comienza a ser robusto (por ahí de las 50 páginas Web en adelante). Muchas gentes abandonan los sitios que no disponen de una función de localización o de un mapa bien estructurado de acuerdo al volumen de contenido publicado.

    Por último, queda demostrado que la gente no gusta de la publicidad en línea cuando ésta rebasa los límites razonables. La apertura indiscriminada de ventanas para promoción de bienes y servicios puede ser una razón más para dar un clic y alejarse inmediatamente del sitio.

    En resumen, el estudio apunta una vez más a la necesidad por la sencillez, claridad y acceso rápido, como factores clave para un diseño Web exitoso.


    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 8 | 4:15 PM
    Principios para la Optimización en Buscadores

    En nuestro día a día de vez en cuando nos contactan nuestros clientes para preguntarnos acerca del posicionamiento y la optimización en los buscadores. La mayoría de las veces, nuestro cliente ya ha sido abordado por un Consultor de SEO (Search Engine Optimisation / Optimización en Buscadores) quien trata de venderle, por mucho dinero, la optimización en los buscadores. La firma de SEO promete “garantía de estar en las primera posiciones” y la “adición a 500.000 buscadores y directorios”.

    Muchos dueños de sitios son contactados regularmente por este tipo de compañías estafadoras, y es entendible que muchos piquen el anzuelo y comiencen a pagar por “las primeras posiciones y la adición a todo [buscador]”. Después de todo, ¿quién no quiere que su sitio esté bien posicionado en los buscadores?

    En un intento de ayudar a algunos y evitar que paguen por una optimización innecesaria en los buscadores, me gustaría compartir lo que he hecho para lograr muy buenas posiciones en los buscadores, tanto para este sitio como para los otros.

    Primero, déjenme decir que no todos los consultores de SEO son estafadores – hay muchas firmas respetables en el negocio. Sin embargo, cualquiera que prometa “garantía de estar en las primera posiciones”, “adición a 500.000 buscadores y directorios”, “resultados instantáneos” o “primeras posiciones permanentes” es probablemente un estafador. No hay manera de que alguien garantice que tu sitio obtenga la posición número uno a menos de que esa persona controle los resultados del buscador, o que la primera posición sea por una palabra o frase que sólo exista en tu sitio, por supuesto.

    Lo que me llama la atención, cada vez que pienso en lo que he hecho para obtener buenas posiciones en los motores de búsqueda, es lo mucho que el SEO tiene en común con la accesibilidad, usabilidad y un marcado [HTML] de alta calidad –los principios de los estándares Web. Esto lo hace aún mucho mejor: haciendo tu sitio más accesible y usable para las personas, y usando un marcado [HTML] válido y semántico [con significado], también lo hará más atractivo para los robots de los buscadores.

    Considera las guías que describo aquí como un nivel básico de SEO –pruébalo primero y si aún no obtienes los resultados que quieres, entonces busca la ayuda de una firma acreditada en optimización para los buscadores. Si contactas a alguien para que optimice tu sitio, pregúntale qué es lo que le harán a tu sitio. Si te sugieren métodos sospechosos, se muy cuidadoso. Ellos pueden hacer que seas penalizado o aún peor, que seas sacado de los buscadores. De otro lado, si su sugerencia incluye lo que te estoy sugiriendo aquí, probablemente harán un buen trabajo.

    1. No hay atajos
    Comenzaré con las malas noticias, si lo que estás buscando es una forma rápida y fácil de obtener buenos resultados. No la hay. Por el contrario, te espera bastante trabajo, especialmente cuando se trata del contenido de tu sitio.

    También necesitas paciencia. Los resultados no llegan de la noche a la mañana. Si estás trabajando en mejorar el posicionamiento en los buscadores del sitio de un cliente, probablemente deberías explicarle esto como primera medida.

    2. Escribe buen contenido
    Esta es probablemente la cosa más importante que necesitas hacer si quieres ser encontrado en la web. Aún, si tu sitio es técnicamente perfecto para los robots de los buscadores, éstos no harán nada a menos que esté lleno de buen contenido. ¡Si! Te lo aseguro.

    Un buen contenido para mi es aquel texto que sea real y gramáticamente correcto, aunque esto no es necesariamente obligatorio para toda tipo de sitios. Y no importa de lo que sea tu sitio, el contenido necesita ser único y/o lo suficientemente específico como para ser atractivo a la gente. Más específicamente, necesita ser útil a la gente que quieres que encuentre tu sitio.

    Con un buen contenido logras que tus visitantes vuelvan. Y aquellos a quienes les guste tu contenido eventualmente vincularán tu sitio, y el tener muchos vínculos que provengan de afuera es algo muy bueno para el posicionamiento en los buscadores, especialmente si esos vínculos son de sitios altamente posicionados.

    Estrechamente relacionado con el buen contenido es el contenido reciente. El adicionar nuevo contenido regularmente, le da a tus visitantes una razón para volver. Los robots de los buscadores también visitarán tu sitio más a menudo una vez que se den cuenta que actualizas regularmente, lo que significa que cada nuevo contenido que adiciones será indexado más rápido.

    Cuando se está trabajando para un cliente, el crear contenido de calidad es rara vez responsabilidad del diseñador web. A menudo, el cliente quiere escribir su propio “copy”, lo cual está bien si es bueno en eso y se dedica a adicionar nuevo contenido. En mi experiencia, es raro el caso que sea así. Si es posible, trata de que el cliente se de cuenta que deben contratar a alguien para que le ayude a escribir o al menos que les ayude a editar lo que han escrito. En todo caso, hazles saber claramente que no pueden esperar altos posicionamientos consistentemente sin un buen contenido.

    3. Piensa en escribir correctamente [buena ortografía]
    Si escribes en inglés [en nuestro caso español], probablemente eres consciente de las diferencias entre escribir en inglés norteamericano al británico [como las diferencias que pueden existir entre el español colombiano, el español (de España) o el mexicano]. [Como ejemplos de las diferencias entre los norteamericanos y los ingleses tenemos:] Colour vs. color, optimisation vs. optimization, etc. También hay muchas palabras que se escriben ortográficamente mal (y esto va para todos los idiomas).

    No me gusta la idea de intencionalmente escribir mal las palabras, puesto que va contra mi definición de “buen contenido”. Si tienes dentro de tu contenido palabras que se puedan escribir de varias maneras [diferente ortografía] o que se escriben comúnmente mal, y son parte importante de tu contenido, es decir, que sean palabras claves, considera adicionar un glosario o algo similar en la página donde incluyas la mayoría de las variaciones de esas palabras.

    4. Escribe títulos de página descriptivos
    El hacer los títulos de las páginas sencillos, pero descriptivos y relevantes, haces que sea más fácil para los buscadores saber de qué se trata cada página, y que la gente mientras que mira en los resultados de sus búsquedas pueda determinar rápidamente si tu página contiene lo que están buscando. El título de la página también es usado para vincular tu sitio desde las páginas de resultados en los buscadores.

    Debido a esto, el título es uno de los elementos más importantes de la página. Algunos argumentan que es el más importante.

    Cuando se trata del orden del texto en el título, he encontrado que lo siguiente funciona bien:

    Titulo del Documento | Nombre de la sección | Nombre del sitio o la compañía

    Basada en esta discusión un tiempo atrás, este es probablemente uno de los mejores formatos para el texto en un titulo accesible. Nuevamente, la accesibilidad y el trabajo en SEO juntos.

    No importa lo que hagas, no uses el mismo título para todos los documentos. Haciéndolo harás el trabajo más difícil para los buscadores, para la gente que navega a través de los resultados en un buscador y para los visitantes para identificar de qué se tratan tus páginas.

    5. Usa encabezados [headings] reales
    Usa los elementos [HTML] h1 a h6 para los encabezados. El utilizar gráficas te permitirá usar el tipo de letra que quieras, pero los buscadores no les prestarán mucha atención. Aún si usas el atributo alt para especificar el texto alternativo para las imágenes (tal como debe ser), ese texto no será ni cerca tan importante como el texto real en un encabezado. En mi experiencia, esto es verdad aún si la imagen está dentro de los encabezados.

    Si no puedes usar texto real, dale un vistazo a la variedad de técnicas de reemplazo con imágenes o flash disponibles. Ten cuidado que hay un pequeño riesgo al hacerlo. Debido a que estas técnicas de reemplazo involucran el esconder el texto, es teóricamente posible que los buscadores te penalicen. Actualmente ese riesgo parece ser muy pequeño, pero no digas que no te lo advertí si llega a pasar.

    6. Usa URLs amigables para los buscadores
    Evita URLs generados dinámicamente y que usen el “query string” para que el servidor sepa qué información traer de la base de datos [Ej: www.sitio.com/producto.asp?id=15]. Los robots de los buscadores posiblemente tengan dificultades con este tipo de URLs –Paran en el carácter de interrogación y ni siquiera miran el “query string”.

    En lugar de eso, utiliza URLs amigables para los buscadores y legibles para las personas [Ej: www.sitio.com/productos/producto1.asp]. Ayudará tanto a tu posicionamiento como a tus usuarios. He visto increíbles mejoras en los resultados de los buscadores tan solo cambiando el esquema de los URLs del sitio.

    Modificar y reescribir los URLs de un sitio puede ser un poco difícil, y algunos Sistemas Manejadores de Contenido (CMS – Content Managment Systems) hacen más difícil que otros su implementación. Sin embargo vale la pena.

    7. Haz que te vinculen
    No hay manera fácil ni sostenible para resolver esto excepto por –lo adivinaste- proveer buen contenido. Los vínculos entrantes son muy, muy importantes para el SEO. Esto es posiblemente la parte más dura de implementar en SEO.

    Sin embargo, de acuerdo a mi experiencia, los vínculos entrantes son menos importantes entre más específico y único sea el contenido. Por ejemplo, un par de clientes están en lo que podrías llamar un nicho de mercado. No tienen muchos sitios vinculándolos, y aún así comenzaron a posicionarse muy bien en los buscadores una vez les apliqué a sus sitios el conocimiento que estoy compartiendo aquí.

    8. Usa un marcado [HTML] válido, semántico, ligero y accesible
    La mayoría de los navegadores tienen funcionalidades avanzadas para descifrar la confusa sopa de tags que es usada en la mayoría de los sitios actuales. No puedes esperar que los robots de los buscadores hagan lo mismo. Valida tu HTML y evita el marcado [HTML] de presentación –usa un marcado [HTML] tan ligero y limpio como sea posible.
    Incrementa la proporción de contenido en HTML [en lugar de gráficas], hará tu sitio más rápido y más atractivo para los buscadores.

    Un marcado [HTML] de alta calidad te ayudará a aumentar tus posiciones.

    La accesibilidad también es algo muy importante. El hacer tu sitio más accesible para personas con problemas visuales también te ayudará a que los robots de los buscadores se ubiquen más fácilmente. Recuerda, Google es ciego, así que aun cuando no te interese que la gente ciega use tu sitio (aunque deberías) aún quieres que sea accesible. Esto significa que deberías usar encabezados reales [h1 a h6], párrafos [p] y listas [ul, ol y li], y evitar el usar cualquier otra cosa que interfiera con los robots de los buscadores.

    Flash y Javascript están bien, siempre y cuando no se requieran para navegar tu sitio y acceder información vital. No escondas tu contenido dentro de archivos de Flash o detrás de un suntuoso menú en Javascript. Prueba tu sitio con Lynx. Navégalo apagando las gráficas, los CSS, el Javascript y el Flash. Si te da problemas, probablemente le causará problemas a los robots de los buscadores.

    9. Agrega con cuidado tu sitio a los buscadores
    A menudo, aunque valorado excesivamente, el agregar un sitio a los directorios y buscadores puede ser útil, especialmente si el sitio es nuevo y no ha sido captado por Google y otros buscadores. Sigue adelante y agrégalo a Google. No te dolerá, pero casi es seguro que Google te encontrará de todas maneras.

    Dos directorios que pueden ser importantes para agregar son el Directorio de Yahoo y el Open Directory Project. Se paciente -probablemente tomará varias semanas para que tu solicitud sea procesada, a menos que les pagues para que te listen.

    10. No trates de engañar a los buscadores
    No uses camuflaje (cloaking), granjas de vínculos (link farms), rellenado de palabras claves (keyword stuffing), texto alternativo con spam (alt text spamming) u otras métodos engañosos. Funcionarán por un corto tiempo si estás con suerte, pero corres el riesgo de ser penalizado o lo que es peor, prohibido en los buscadores, que es precisamente lo que no quieres.

    Los buscadores quieren que sus resultados sean acertados, y no les gusta cuando la gente trata de engañarlos. Así que no lo hagas.

    11. Evita usar marcos (frames)
    Aunque es posible suministrar soluciones alternas que permitan a los robots de los buscadores avanzar lentamente en los sitios basados en marcos, éstos pueden causar problemas a la gente que encuentra tu sitio en los buscadores.

    Cuando alguien sigue un vínculo de la página de resultados de un buscador a un sitio basado en marcos, llegará a un documento huérfano, fuera de su conjunto de marcos padre (frameset). Muy probablemente esto causará confusión, ya que en muchos casos partes vitales del sitio, como los vínculos de navegación, estarán ausentes.

    Algunos sitios usan JavaScript o código del lado del servidor para redireccionar, a cualquiera que intente cargar un documento fuera de su conjunto de marcos, a la página inicial del sitio. Trabaja sin marcos. En todo caso son malos para la usabilidad.

    12. Ten cuidado con la detección de navegadores
    Si necesitas usar algún tipo de detección de navegadores, asegúrate que funcione cuando un robot de un buscador (o cualquier otro agente) llegue. Si los robots no pueden entrar, no serás encontrado. He visto que esto suceda en sitios de muchas grandes compañías.

    13. No pierdas el tiempo con los meta tags
    La mayoría de los buscadores ya no le dan mucho valor al contenido de los meta tags. Estos han sido usados excesivamente por spammers. Te sugiero que uses el meta de descripción [meta description] y no más. Las palabras claves no duelen, pero rara vez ayudan, así que generalmente no valen la pena.

    Algunos buscadores usan el contenido del meta de descripción para describir tu sitio en los resultados de sus búsquedas, así que si es posible, pon un contenido único y descriptivo para cada documento.

    Ohh. Eso estuvo demasiado largo para leer
    Así que entonces, la Guía Ultra-corta para SEO: adiciona regularmente contenido de calidad y asegúrate que tu sitio esté bien construido.

    ¿Qué sigue?
    Como lo afirmé al comienzo de este artículo, estas son guías básicas para SEO. Hay mucho más que puede ser hecho para incrementar la visibilidad de tu sitio en los buscadores, pero siguiendo la advertencia que he dado aquí este es un buen comienzo, que en mi experiencia, te llevará lejos.


    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    sorin
    Mensajes: 442
    Reputación: 6
    Mensaje Nº 9 | 9:41 PM
    Una muy buena guia SEO para principiantes. Me gustaria poder utilizar todo este en el sistema Ucoz tongue

    Saludos
    Sorin.


    GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 10 | 1:28 PM
    Sitios Web Optimizados para Buscadores

    1. ¿Para qué optimizar para la búsqueda?
    En muchos casos el aparecer en las primeras posiciones de los resultados de una búsqueda en un buscador es más una cuestión de prurito personal de los profesionales de marketing o de informática propietarios de un site que de necesidad real. Así por ejemplo, un site que funcionalmente sea una extranet dónde los profesionales consultan información, y dónde introducen datos de gestión sobre su trabajo, probablemente no tenga una necesidad objetiva de priorizar su aparición en buscadores.

    De igual modo, hay empresas con tal prestigio de marca que cualquiera que quiera encontrarlas no tiene más que teclear dicha marca. Para ellas sólo es verdaderamente importante tener en propiedad el dominio de la marca y, a ser posible, "dominios próximos". Así, probablemente CNN no haga demasiados esfuerzos en optimizar su relevancia en búsquedas externas, habida cuenta el valor de sus servicios y que cualquiera supondrá que para acceder a su site sólo va a tener que teclear www.cnn.com.

    Sin embargo, para empresas que de alguna forma compitan con otras en la Web para ofrecer sus servicios o productos, la relevancia con que aparezcan en las búsquedas de interesados puede ser crucial. La diferencia de visitas que puede tener una empresa con venta on-line de artículos para regalo que aparezca la 2ª o 3ª en una búsqueda de “día del padre” o “regalos nombre” es de órdenes de magnitud mayor que una rival que aparezca la 18, por ejemplo.

    Y lo que cualquier aprendiz de marketing en la Red sabe es que a más visitas, más posibilidades de venta (aunque haya otros factores muy importantes para el éxito de la venta on-line).

    Y con la cuasi-monopolización de la búsqueda por Google, se terminó el comprar prioridad en los resultados de las búsquedas. Y si alguien está dispuesto a pagar por aparecer primero en los buscadores que se presten a ello, probablemente no precisará seguir leyendo. Pero si quiere obtener buenos resultados sólo en base a "buenas prácticas", a continuación tiene algunos consejos que seguro van a ayudarle.

    2. Título de página representativo del contenido:
    Es la parte de la página que primero analizan los buscadores y a la que más importancia conceden.

    Un sitio en el que:
    o Los títulos de página sean la marca del site: <title>ucoz.com</title>
    o Los títulos de página sean un slogan comercial: <title>ucoz.com: "Simplicidad al alcance de todos"</title>

    No están aportando una información valiosa sobre la página a los buscadores que la indizan, de manera que estos se van a encontrar con un monón de páginas que todas se llaman igual, a los que no estamos indicando qué tiene la página exactamente y a los que no estamos ayudando a cualificar nuestas páginas.

    En términos de usabilidad, el Título es lo primero que se carga de la página y, por tanto, la primera información de la misma que tiene el usuario. Es muy útil si, en tanto se descarga al browser el resto de texto, imágenes, etc., el usuario puede tener una primera información de a qué se refiere la página.

    3. "Keywords" que incluyan las palabras que mejor identifiquen el contenido:
    Después del Título, El tag <meta name="keywords"> es el siguiente aspecto en importancia que van a considerar los buscadores para cualificar la página ya que van a constituir parte fundamental de los metadatos de la misma.

    Sin embargo, debido a que es un trabajo tedioso extraer las palabras clave de cada una de las páginas, es muy frecuente encontrar que:
    o No se incluye el tag <meta name="keywords" />
    o Se incluye el tag "Meta" pero se deja vacío de palabras clave: <meta name="keywords" content="" />
    o Se incluye el tag "Meta" y en el atributo correspondiente a las "keywords" se pone el título, el nombre del site o cualquier aspecto genérico relativo al site no representativo de la página en concreto: <meta name="keywords" content="ucoz.com: Simplicidad al alcance de todos" />

    En cualquiera de estos casos el buscador va a buscar las "keywords" de cada página y sólo va a encontrar "ruido" que no va a ayudar en absoluto a establecer los metadatos que cualifican la página.

    4. Descripción del contenido en párrafo inicial:
    Otro aspecto en el que los buscadores priorizan su evaluación de palabras clave es en el primer párrafo de texto que encuentran al "parsear" la página. Y especialmente, en las 30 primeras palabras, más o menos.

    Suponen que, después del Title, Keywords y Headline, en el primer párrafo ya se puede tener una idea de que va la página (o el site, si es la Home Page).

    De manera que, en la medida de lo posible, deberíamos incluir en el primer <p> </p> una breve descripción del contenido de la página, o del objetivo del site (Home Page) que incluya las palabras clave que mejor lo definan.

    Es bueno seguir la técnica periodística donde cada artículo se estructura de la siguiente forma:
    o Título, tratando de incluir 3 o 4 palabras clave que permitan deducir de qué va el artículo.
    o "Abstract" o Sumario del artículo: aquí incluiríamos la breve descripción que incluya las palabras clave principales del contenido.
    o Datos adicionales como Fecha, Autor...
    o Texto del artículo / Introducción: suele ser muy interesante (también en términos de usabilidad) hacer un resumen introductorio (más detallado que el "abstract") de lo que será el contenido que se va a desarrollar.
    o Título de Apartado-1: incluyendo 2 0 3 de las palabras claves contenidas en el texto del apartado.
    o Texto de Apartado-1.
    o Título de Apartado-2: incluyendo 2 0 3 de las palabras claves contenidas en el texto del apartado.
    o Texto de Apartado-2.
    o ...
    o Datos adicionales como Temas Relacionados / Ver también, Autor (si no se incluyó arriba), etc.

    Desarrollar los contenidos de esta forma redunda directamente en la usabilidad de los mismos: para el usuario es muy bueno saber lo antes posible si está delante de la página o artículo que buscaba o le pueda interesar, y evitarle que tenga que leer varios párrafos para tener una idea clara de ante qué contenido concreto está.

    5. Estructurar los contenidos con títulos y subtítulos de párrafo:
    Los buscadores escudriñan el texto de la página buscando "headings" y "subheadings" de cualquier tipo:
    o <h1> </h1>
    o <h2> </h2>
    o <h3> </h3>
    o <h4> </h4>
    o <h5> </h5>
    o <h6> </h6>

    Esto es así ya que suponen que el texto se organiza en párrafos con un encabezado que resume el contenido del párrafo dependiente.

    Así, en principio asúmen que un tag <h1> </h1> es el encabezado de una página, los tags <h2> </h2> son los apartados principales en que se divide la página, los tags <h3> </h3> son los párrafos principales en que se divide cada apartado, y así sucesivamente.

    Debido a esta forma de entender la página, es muy conveniente utilizar los "headings" de HTML e incluir en ellos las palabras clave de los párrafos dependientes.

    Y en términos de usabilidad, los "headings" y "subheadings" son muy útiles para estructurar visualmente el flujo de texto de la página que, como ya se ha comentado, es especialmente útil en la lectura rápida de páginas web.

    6. No usar Frames ni IFrames:
    El uso de frames es casi el paradigma de la anti-usabilidad, y desde luego el primer inconveniente para que los buscadores cataloguen las páginas de un site.

    En realidad eran una herramienta arcaica de los primeros tiempos de WWW utilizada las más de las veces para montar un sistema de navegación siempre visible que fuera descargando páginas a un área de datos.

    Desde hace tiempo esta es una técnica obsoleta, cuya única ventaja es que permite visualizar a la vez la opción de menú pulsada y la página descargada. Y esta ventaja, al margen de que puede implementarse mediante programación en un menú sin frames, se reduce mucho por el hecho de tener Título la página. Un "Breadcrumb" ayuda mucho a aportar la información necesaria para ubicar la página en la estructura de navegación.

    Y, por contra, las desventajas de utilizar frames son numerosas, tanto en términos de usabilidad general, como en términos de buscadores:
    o La mayoría de los buscadores sólo verán la página de definición de estructura de frames, y tendrán muchos problemas para indizar el resto de páginas, y muchos más para establecer la relación entre ellas.

    Los buscadores como mejor trabajan es con estructuras de páginas simples relacionadas entre ellas, por complejas que sean estas relaciones.
    o En el caso mejor de que el buscador indice todas las páginas y un usario encuentre una y acuda a ella, lo más probable es que esta esté desprovista de sistema de navegación, con lo que puede tener problemas para acceder a otros contenidos.
    o Dan problemas con los botones "Back" y "Forward" del browser.
    o Casi nunca funciona bien la Impresión de Página con el botón del navegador.
    o No se suele reproducir bien el "Histórico de Navegación".
    o Da problemas la inclusión en el Bookmark de una página de interés.
    o ...

    De manera que, como norma general, nunca usar Frames o IFrames y, de hacerlo, olvidarnos de buenos rankings en buscadores.

    7. Texto descriptivo en los Hiperenlaces:
    Las palabras que describen un hiperenlace son muy importantes para los motores de búsqueda: constituyen la primera aproximación al contenido que el buscador espera encontrar en la página enlazada. De hecho concederán mayor relevancia a una página cuantas más páginas la enlacen.

    La diferencia que existe en enlazar la página de "Consultas y Sugerencias" de una de estas dos formas:
    o Para Consultas o Sugerencias, pulse aquí.
    o Si lo desea, puede enviarnos sus Consultas o Sugerencias.

    En el primer caso, el hiperenlace no contiene ninguna palabra relacionada con el objetivo o contenido de la página enlazada. El motor no podrá asociar a priori la página enlazada a ningún concepto.

    De forma análoga en términos de usabilidad el enlace no ofrece ninguna información de destino al usuario: para deducir a dónde le envían deberá detenerse a escudriñar los textos próximos. (Uno de los aspectos de la lectura rápida superficial de páginas web es buscar, casi instintivamente, a dónde se puede navegar desde cada página mediante hiperenlaces).

    En el segundo caso, el hiperenlace describe el objetivo o contenido de la página enlazada. El motor asociará la página enlazada automáticamente a "Consultas y Sugerencias".

    Esto que puede parecer no excesivamente importante puede implicar que las relaciones con otras páginas que tiene una página aparezcan catalogadas en el buscador como:
    o Clique aquí
    o Pulsar aquí
    o Más información
    o Atrás
    o Siguiente capítulo

    O, por el contrario:
    o Los Colores
    o El significado de los colores
    o Uso del color en la Web
    o Tabla de Códigos de Colores

    Dependiendo de como estén descritos los enlaces puede tener mucha más prevalencia en el site el concepto "Pulse aquí" que "El significado de los colores", lo que es un disparate.

    8. Peso de Página máximo 80 KBytes:
    Considerando sólo los contenidos y el código HTML que lo maqueta. Al margen quedan los ficheros de Hojas de Estilo "css", Javascript "js", imágenes ".gif" y ".jpg", etc. Es decir esta cifra límite aproximada correspondería al fichero HTML de la página.

    Considerando la descarga de todos los elementos juntos que integrarían la página, el peso y, por tanto el tiempo de descarga, son ya muy considerables para este tamaño, siendo, desde el punto de vista de usabilidad, difícilmente sostenibles pesos mayores.

    Y desde el punto de vista de los buscadores, al igual que contenidos escasos apenas les proporcionan palabras relevantes, contenidos muy extensos pueden proporcionarles demasiadas, sin criterios para priorizar o valorar si la página es significativa, por lo que es muy probable que la otorgue una relevancia pequeña.

    9. Distribuir contenidos en página mediante reglas CSS:
    A estas alturas ya nadie (con conocimientos) discute las enormes ventajas de establecer el estilo y diseño tanto de la página HTML como de sus componentes mediante elementos de estilo de CSS's, en lugar de hacerlo con tags y atributos de HTML.

    Sin embargo existe aún gran recelo de utilizar las características de las CSS's para ubicar y distribuir los elementos y contenedores de la página, entre otras razones, porque positioning no está soportado por algunas versiones de navegadores y casi siempre se aspira a llegar al máximo número de usuarios.

    Se ha realizado el experimento de diseñar dos sites:
    o Uno de forma tradicional, estableciendo el layout y distribución de contenidos mediante tablas.
    o El otro prescindiendo de tablas, ubicando contenedores y contenidos mediante reglas de estilo.

    Una vez puestos los sites en producción, se catalogaron ambos sites para su inclusión en los mismos buscadores. Unos meses después, el site diseñado enteramente con CSS's tenía muchas más visitas que el realizado de forma tradicional mediante tablas.

    Hay varias razones para ello:
    o La página realizada mediante CSS's es mucho más limpia, con código más simple y, por tanto, más fácil de seguir para los agentes.
    o Hay una sustancial diferencia en la relación contenido / código a favor del realizado mediante CSS's: el realizado con tablas requiere mucho más código para distribuir contenidos.
    o El realizado con tablas es mucho más complejo y laborioso de "parsear" que el realizado con CSS's, ya que el agente buascador debe ir soguiendo la estructura de filas / celdas, separando contenido de código.
    o Maquetando con CSS's es independiente el órden en que se escriben los contenidos en la página del lugar en que luego aparecerán al "renderizar" la misma: se puede situar los contenidos más significativos al principio de la misma para que sean indizados antes por el agente.

    Desde el punto de vista de la usabilidad:
    o Las páginas realizadas mediante CSS's suelen ser mucho más rápidas de descargar al requerir mucho menos código para ser maquetadas y, por tanto, pesar menos.
    o Las páginas realizadas mediante CSS's se renderizan mucho antes (una vez descargada por primera vez la(s) CSS(s)), ya que sustituyen complejas estructuras de código-HTML por llamadas repetidas a las mismas clases de estilo, muchas de las cuales quedarán almacenadas en el cache del Browser.
    Para evitar problemas de positioning, en muchos casos es posible sustituir position: relative / absolute por margin: / padding: para ubicar los elementos en la página.

    10. Al menos 200 palabras por página:
    Los buscadores se basan en la indización del texto encontrado en las páginas. Según analizan el texto, van "apartando" lo que consideran palabras relevantes, en función, entre otras consideraciones, del número de veces que las encuentran en la página.

    Por el contrario, una página.con sólo titulares y pequeños "abstracts" (resúmenes) adjuntos, relacionados con temas diversos, requerirán un mayor esfuerzo de taxonomización de la página, y en muchos casos, se correrá el riesgo de que el buscador la desestime y la ignore, o que la asigne una valoración muy baja.

    Al margen de los buscadores, y en términos exclusivos de usabilidad, a los tradicionales argumentos en contra de páginas extensas:
    o Las páginas extensas requieren tiempo de descarga.
    o Las páginas extensas obligan al usuario a hacer "scroll" vertical.
    o Las páginas con mucho contenido son largas de leer y los usuarios acaban dejándolas a medias.
    o En páginas con contenidos extensos es fácil para los usuarios perdeerse o desubicarse.
    o Los usuarios no leen en monitores como en papel, sino que hacen "scan en zig-zag" (lectura rápida superficial). Se recomienda disponer el contenido estructurado en frases cortas.

    También se pueden oponer argumentos a favor de páginas extensas:
    o En primer lugar la consabida frase de las "CCC" que debe tener un sitio web: "Contenido, Contenido, y Contenido".
    o El planteamiento de páginas que plantean estructuras de contenidos basadas en:
    - Página con clasificación principal de contenidos con breve descripción de secciones incluidas.
    - Páginas cabecera de sección con breve descripción de los contenidos que agrupan.
    - Páginas con contenidos de detalle, pero esquemáticos, escritos con frases cortas, dejando los contenidos extensos como anexos Acrobat, para lectura en papel, previa impresión.

    Si bien pueden responder a una arquitectura adecuada de contenidos, acaban por introducir demasiados "clicks" hasta llegar a un contenido con valor intrínseco:
    o Las páginas de detalle con frases cortas demasiado jerarquizadas y esquematizadas introducen contínuos cortes en la continuidad de la lectura, interrumpiendo constantemente el proceso natural de descripción/asimilación deel lector, dificultando la fiación de conceptos.
    o Al usuario en realidad no le afecta mucho hacer "scroll" vertical (y menos cuando está interesado en los contenidos que está leyendo): lo realiza contínuamente no sólo cuando navega en Internet, sino en sus propias aplicaciones ofimáticas o productivas.
    De manera que es casi instintivo en él disponer el ratón sobre el ascensor de Windows o realizar los avances de página mediante "clicks" en la barra de "scroll".
    o Para que los usuarios no se pierdan en páginas extensas existen pequeñas ayudas a la navegación como iconos de "Inicio de página", "Barras de Navegación con los Apartados", etc.

    11. Contenido valioso:
    Que la calidad y valor intrínseco de la información ofrecida en un site es su máximo activo, por encima de la usabilidad y de cualquier otra consideración, es algo que no admite discusión.

    Sitios con un diseño precario como Amazon son visitados masivamente por el alto interés de lo que ofrecen, de la misma manera que nadie se preocupa de la usabilidad de Softonic habida cuenta de la ingente cantidad de software gratis que proporcionan, lo que es un incentivo para solventar las posibles dificultades operativas que pudiera implicar.

    Y esta relevancia de los contenidos la refuerza el hecho de que, para un usuario concreto, la usabilidad es un déficit transitorio, habida cuenta que, si un sitio le interesa, termina pronto por aprender lo que debiera ser evidente: la forma correcta y más cómoda de moverse en él.

    Pero, ¿qué tiene que ver la calidad del contenido con la valoración que de un sitio o una página haga un buscador?

    Pues aunque pudiera parecer que nada, el hecho es que tiene mucha importancia, desde luego con Google, el motor de búsqueda estrella de la Web desde hace tiempo.

    Porque el "core" de Google realiza un continuo análisis entre los millones de páginas que tiene indizadas, asignando dinámicamente mayor valoración a los sites "linkados" por más sites. Y si los sites que enlazan a una página tienen alta valoración en Google, mayor valoración tendrá la página enlazada.
    Y de esta forma se trata de primar la supuesta "calidad" de un site, suponiendo que no se establecen "links" a sitios intrascendentes.


    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 11 | 1:10 PM
    Estrategia para mejorar la Popularidad Web

    Conseguir enlaces es una de las tareas más laboriosas y aburridas del posicionamiento en buscadores. En ocasiones, se convierte en un trabajo monótono y repetitivo, que en la mayor parte de los casos, no tiene demasiado éxito. Se intentarán describir las formas más comunes de buscar enlaces de nuestro interés, con la idea de mejorar el posicionamiento para búsquedas concretas. No hay ningún caso especial, ni ninguna fórmula mágica, sin horas de dedicación para la construcción de nuestra popularidad web, esta estrategia fallará, como cualquier otra. No es necesario seguir los pasos 1 a 1 por el tiempo que esto podría llevar, pero para un éxito en las búsquedas más competitivas, sería recomendable seguir todos los puntos, localizando todos los enlaces posibles.

    Popularidad y Posicionamiento en Buscadores
    ¿Qué es la Popularidad? En todo este documento la vamos a considerar como el número de enlaces que apunten hacia nuestra web. Este es nuestro objetivo, conseguir páginas que nos apunten. No nos interesa solamente el número de enlaces total (hacia nuestra web) de una manera bruta, intentaremos dar prioridad a una serie de enlaces que nos van a ser más beneficiosos que otros. Rechazaremos todos aquellos enlaces fáciles, aunque la competencia los tenga. Por enlaces fáciles nos vamos a referir a: weblogs, libros de visitas, comentarios sin sentido en cualquier medio que permita hacerlo, intervenciones sin aportar nada en foros con objeto de promocionar nuestras webs y FFAs, entre otros. Probablemente cuando analicemos los enlaces de la competencia nos encontraremos con muchos enlaces de este estilo, enlaces fáciles. Nuestro objetivo no es construir una popularidad a cualquier precio, lo nuestro será construir una Popularidad Web Estable, basada en todo tipo de enlaces (a excepción de los mencionados) y, muy especialmente, en enlaces de calidad.

    ¿Qué es un enlace de calidad? Todo enlace que está fuertemente ligado con los contenidos de nuestra web, si el enlace está en una página reconocida, que tiene buenos resultados en las búsquedas que nos interesan, será todavía más válido. ¿Por qué una popularidad web estable? Los buscadores cambian sus algoritmos continuamente, haciendo pequeñas modificaciones o incluso grandes cambios, no hay más que ver el reciente caso de Google. Una popularidad web basada en enlaces fáciles, posiblemente nos funcione hoy en algunos buscadores, pero no será válida en todos, y en un futuro próximo podríamos vernos perjudicados. Los buscadores tienden a valorar cada vez menos, o incluso nada, este tipo de enlaces, que son muy utilizados para alterar los resultados de sus algoritmos. Una popularidad web estable va a ser aquella que nos permita sobrevivir a lo largo del tiempo a los cambios de los buscadores. Nuestro objetivo deberá ser únicamente posicionarnos con estabilidad en los resultados de búsqueda. La estrategia de posicionamiento mediante construcción de popularidad que sigue a continuación, persigue exclusivamente esto.

    Sobreviviendo al Nuevo Google
    Mucho se ha dicho sobre la forma de proceder del nuevo algoritmo de Google, cualquiera que sea el sistema utilizado: Hilltop, TSPR, cualquier otro o incluso una mezcla de varios, lo que parece haber cobrado una enorme importancia es el hecho de tener una popularidad web consistente. Y digo consistente, no estable. Hay muchas webs que han sobrevivido al nuevo algoritmo a pesar de estar basado su posicionamiento en técnicas no consideradas del todo éticas por el buscador, muchas páginas que basan su posicionamiento en firmar libros de visitas y weblogs. Estos enlaces cuentan, y cuando tenemos muchos y además combinados con otros muchos enlaces de otro tipo de webs, ya sean relacionadas con nuestro tema o no, parece que la popularidad de esas webs es consistente, resistente al nuevo algoritmo. Esto sucede especialmente en páginas web con muchísimos enlaces. Si estos enlaces en su mayoría están combinados con el anchor text adecuado, el posicionamiento mejorará todavía más. ¿Qué problema tiene esta popularidad? No es estable, las páginas posicionadas de esta forma, posiblemente el año que viene no sigan en el TOP10 de las búsquedas paras las que fueron optimizadas. Conseguir ese gran número de enlaces fáciles lleva tiempo, si podemos tener un posicionamiento web más estable, con sólo la cuarta de los enlaces, un posicionamiento web mejor visto y basado en enlaces de calidad, deberíamos apostar por rechazar cualquier tipo de popularidad - por consistente que sea - que esté basada en técnicas mal vistas y que no nos proporcione estabilidad en las búsquedas.

    En varias búsquedas que he analizado recientemente ("diseño web", "posicionamiento en buscadores", "alta en buscadores"), se puede observar que las páginas con un peor tema, necesitan un número de enlaces muy superior (así por encima, 4 veces más, como mínimo), para tener mejores resultados que páginas con un mejor tema. El tema, además de medirse por los contenidos de las webs, está muy relacionado con quién nos enlaza y a quién enlazamos. Se puede utilizar el comando related:www.dominio.com de Google, y observar si las páginas que se muestran son de nuestra temática o no. Hay muchos casos, páginas a las que no les sale ninguna web relacionada con su tema con ese comando, este grupo de páginas para posicionarse por búsquedas relacionadas, necesitará un número de enlaces entrantes de otras páginas (y con el anchor text adecuado) muy superior a aquellas webs que muestren con el comando related páginas fuertemente ligadas al tema o temas de los contenidos de la página. Otra opción para ver más o menos cual es el tema de nuestra web, es usar los anuncios de Adsense que se generan para una página web concreta. Normalmente salen 5 cuadros, de esta forma se puede hacer una media del número de cuadros que suelen salir relacionados con la búsqueda que estamos analizando, si el número de cuadros es menor de 3 o incluso 2, el tema de esa web no será demasiado bueno. Si el número de anuncios que están relacionados con los contenidos de nuestra web es superior a 3 o 4, nuestro tema estará bien definido. Lo ideal, claro está, y que debería ser, es un 5. Que los 5 cuadros de Adsense anuncien páginas ligadas a los contenidos de nuestra web. Este es otro de nuestros objetivos, y uno de los síntomas de que nuestra popularidad web es estable.

    Una Authority suele ser una página con muchos enlaces entrantes desde otras que están ligadas con sus contenidos. Un Hub además de muchos entrantes tiene enlaces salientes, los directorios importantes suelen cumplir esto en algunas de sus categorías. Tanto Hubs como Authorities, parecen tener resultados positivos en el nuevo google. El número de enlaces relacionados con sus contenidos puede ser un claro indicativo del motivo. Nos interesan los enlaces de Authorities y Hubs, por encima de cualquier otro.

    Método para una Popularidad Web Estable
    Antes de centrarnos en esta estrategia de construcción de enlaces deberemos seleccionar un grupo de las búsquedas más competitivas que nos interesen. Un número entre 3 y 5 palabras claves suele ser adecuado, para el resto de búsquedas posiblemente tengamos buenos resultados si conseguimos muchos enlaces en función de las keywords más complicadas. Además, antes de empezar a darnos de alta en una página tras otra, a solicitar intercambios e inclusiones de nuestra web, deberemos plantearnos una estrategia de anchor text. Para cada una de las palabras clave tener variantes de anchor text, que no todos sean iguales. Por ejemplo, si tengo una página de la web optimizada para "diseño web", otra para "alta en buscadores" y otra para "posicionamiento en buscadores", podría utilizar los siguientes anchor text, para dar alta la web en diferentes sitios:

    Para la página optimizada para diseño web, seguiríamos algo así:

    Diseño Web
    Diseño Web España
    Diseño Web nombre_empresa
    nombre_empresa

    Para la página optimizada para Alta en Buscadores, seguiríamos algo así:

    Alta en Buscadores
    Alta en Buscadores España
    Alta en Buscadores nombre_empresa
    nombre_empresa

    Para la página optimizada para Posicionamiento en Buscadores, seguiríamos algo así:

    Posicionamiento en Buscadores
    Posicionamiento en Buscadores España
    Posicionamiento en Buscadores nombre_empresa
    nombre_empresa

    Cada uno escogería los anchor text como le sean adecuados, entre 3 y 5 variantes por cadena de búsqueda.

    * Alta en los Principales Buscadores

    Deberíamos empezar por esto, aunque en la mayor parte de los casos no es necesario darse de alta en los buscadores más importantes, alguno puede incluirnos antes por el hecho de apuntarnos en su sistema de inclusión de URLs. No debemos olvidarnos de Altavista, Alltheweb, Yahoo! y sobre todo los más importantes que haya en nuestro ámbito geográfico. También se puede probar algún sistema de pago por inclusión, aunque en principio nos estamos centrando en sistemas gratuitos.

    * Alta en los Principales Directorios

    Este paso no deberíamos saltarlo nunca. Es obligatorio darse de alta en DMOZ y el directorio de Yahoo!. Sólo esos dos, a lo largo del tiempo, nos darán muchos enlaces válidos. Debemos pensar cuidadosamente el anchor text y la descripción con la que nos daremos de alta en esos dos directorios, ya que a la larga habrá decenas de sitios que utilicen esas descripciones y los propios Google y Yahoo! para mostrarnos en sus búsquedas. Estos no son los únicos directorios importantes, tenemos también terra entre otros y todos aquellos locales en los que podamos añadirnos.

    * Alta en Todos los Directorios Temáticos y Especializados

    Directorios y Buscadores especializados, posiblemente sean Authorities o Hubs en el tema. O bien grandes portales temáticos relacionados con la web, que suelen ser bien conocidos e importantes, estos enlaces serán de los más importantes y no debemos desistir en encontrar todos los que podamos localizar, y controlar las inclusiones, escogiendo las categorías más adecuadas.

    * Búsqueda de Enlaces Relevantes

    Se puede utilizar google y algunas búsquedas como las que siguen para encontrar páginas relevantes dónde poder añadirnos:

    Quote
    intitle:"keyword" +"add url"
    intitle:"keyword" +"submit url"
    intitle:"keyword" +añadir web
    intitle:"keyword" +añadir tu web
    inurl:addurl +keyword
    inurl:submiturl +keyword
    ...

    * Búsqueda de Todos los enlaces de la Competencia

    Empezamos por una de las palabras clave seleccionadas. La buscamos en Google y debemos decidirnos por un conjunto de resultados, para búsquedas poco competitivas los 10 primeros serán suficientes, para búsquedas mas complicadas los 30 primeros, o incluso los 100 si fuese necesario, podría ser adecuado. Nuestra estrategia para conseguir enlaces, se basará en analizar los enlaces de las otras webs e ir incluyéndonos en todas las webs en las que nos esté permitido y sean relevantes, o por lo menos, que no sean enlaces fáciles.

    * Links de la Competencia en Google

    Link:www.competencia.com : Una vez seleccionado el conjunto de resultados con el que vamos a trabajar, pongamos 10, utilizamos el comando link para ver los enlaces que lista google para esas páginas. Como por regla general, con el comando link Google lista páginas de un PageRank 4 o más, las páginas que vayamos encontrando serán en su mayoría más importantes que las que localicemos en los puntos posteriores. Por eso debemos centrarnos en conseguir todos los enlaces de este tipo que podamos, especialmente los relevantes, y de nuevo, rechazando los enlaces fáciles. Si creemos que no son suficientes podemos aumentar el conjunto de webs que hemos seleccionado para analizar. Intenta conseguir más enlaces que el resto, aunque si son de páginas con contenidos relacionados, posiblemente hagan falta muchos menos.

    * Links de la Competencia en otros Buscadores

    Dado que Google no muestra todos con el comando link, podemos, opcionalmente, acudir a otro buscadores, y realizar el mismo análisis y búsqueda de enlaces que en el punto anterior, pero en buscadores como Altavista, Alltheweb o Yahoo!.

    * Páginas que salen en el Related de la Competencia

    Como Google se basa mucho en la comunicación entre páginas para establecer las relaciones de las que salen con el comando related, lo más probable, es que una página que salga en el related:www.dominio.com de la competencia, tenga algún tipo de enlace a una página relacionada con las búsquedas para las que queremos optimizar, y de ahí, se puede quitar algún enlace interesante. De todas formas, este punto es de los menos importantes, en algunos casos, puede ser una auténtica pérdida de tiempo.

    * Referencias a la URL de la Competencia

    "www.+competencia.+com" : De esta forma se nos listarán todas las webs en las que se hace referencia a las URLs de las páginas de la competencia. Miraremos todas las páginas que se listan para el conjunto de webs seleccionadas, si hemos seleccionado 10, buscaríamos las referencias a las URLs de las 10 primeras páginas que se listan para la búsqueda que nos interesa. Entre ese gran número de páginas que se pueden listar encontraremos muchísimas donde poder incluir nuestra web, pero también muchísimas que no serán nada interesantes o en las que no nos podamos incluir. En cualquier caso, este es uno de los mejores métodos para encontrar páginas dónde darnos de alta, y que puedan estar dando valor a las webs que tenemos como objetivo superar en la búsqueda. Intenta conseguir más referencias que la mayoría de las otras webs a las que quieres superar en una búsqueda.

    * Referencias por Nombre a la Competencia

    Siguiendo con el proceder de los dos puntos inmediatamente anteriores, para un conjunto de webs que tengan un nombre único, realizaremos una búsqueda de ese nombre, y nos saldrán páginas que hablen de esa web, que tengan referencias, y alguna, no muchas, que tenga algún enlace y en la que podamos añadirnos. Por ejemplo, si una empresa se llama "TrafiWeb" posiblemente todas las referencias con ese nombre en Internet, hagan referencia a esa empresa. Claro está, esto no es válido en todos los casos, no todos los nombres son únicos.

    * Compra de Enlaces Relevantes

    En un mercado español, no suele darse el caso, pero hay búsquedas realmente muy competitivas y en las que la compra de algún enlace puede ser interesante para mejorar nuestros resultados. Si decidimos comprar un enlace, debería ser siempre a una de las webs mejor posicionadas y analizar cuánto tiempo podremos mantener ese enlace. Una cosa es comprar un enlace definitivamente, con lo que habría que hacer un desembolso económico inicial pero nada más, como puede ser algún enlace en un directorio temático importante, y otra cosa, es comprar un enlace en una web en la que paguemos cada 2 ó 3 meses una cantidad de dinero, posiblemente llegará el día en que ese enlace dejemos de pagarlo y desaparezca. Esto no es más que una popularidad web temporal, completamente artificial.

    * Intercambio de Enlaces con la Competencia

    El intercambio de enlaces entre páginas con contenidos semejantes puede ser beneficioso para ambos. La mayoría no aceptarán por diferentes motivos. La última vez que hice algo por el estilo sólo un 2% aceptó un intercambio de enlaces, pero es una posibilidad que está ahí, que da trabajo, pero también buenos beneficios, y que si todo lo anterior no nos llega, podemos complementarlo con intercambios con webs de contenidos útiles o relacionados con la nuestra. No debemos tener miedo a colocar un enlace a otras webs que estén por encima de la nuestra en los resultados, en muchos casos puede ser hasta beneficioso, no sólo para el usuario, también en el posicionamiento.

    * La importancia de los contenidos

    Todo lo anterior puede ser una gran pérdida de tiempo si nuestra web no tiene contenidos. La web debe ser tan útil para el internauta como lo es la mejor de las otras webs que intentamos superar en los resultados. Una web que no aporta nada al usuario estará siempre destinada a perder puestos. La renovación de contenidos de gran utilidad es una de las mejores formas para que una web no se pierda en las serps a lo largo del tiempo.

    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 12 | 4:04 PM
    Optimización Google

    Parte 1: Etiqueta <title> (title tag)

    La etiqueta title proporciona a los usuarios y a los motores de búsqueda cual es el tema de una página en particular.
    Si el documento aparece en una página de resultados de búsqueda, el contenido de la etiqueta <title> por lo general aparece en la primera línea de los resultados.

    El título de tu página de inicio puede incluir el nombre de tu sitio Web y podría incluir otros trozos de información importante, como la ubicación física de la empresa o tal vez algunos de sus servicios principales u ofertas.

    El título de la página principal de nuestro sitio, muestra el nombre de la empresa y tres áreas de enfoque.

    Nuestra página Web aparece como resultado de ello, y como vemos el título aparece en la primera línea.

    Después de tener claro los conceptos y la prioridad de la etiqueta <title> en los buscadores, os dejo con una lista de buenas prácticas para la optimización en Google.

    Buenas prácticas para la etiqueta <title>
    Describir con precisión el contenido de la página: Elige un título que comunique de forma eficaz y clara el tema del contenido de la página.
    o Evitar:
    - Elegir un título que no tiene ninguna relación con el contenido de la página
    - Utilizar por títulos por defecto o títulos sin información útil como “Sin Título” o “New Page 1″

    Crear títulos únicos para cada página: Cada página debe tener su propio título, ya que ayuda a Google a interpretar que se trata de páginas distintas del sitio.
    o Evitar:
    - La utilización de un único title en todas las páginas de tu sitio web o de un gran grupo de páginas.

    Utilice un [b]title breve, pero descriptivo:[/b] Los títulos pueden ser cortos e informativos. Si el título es demasiado de largo, Google mostrará sólo una parte de ella en el resultado de la búsqueda.
    o Evitar:
    - La utilización de los títulos muy largos que no ayudan a los usuarios
    - Introducción de palabras clave innecesarias dentro de la etiqueta title


    Parte 2: Description (meta tag)

    La etiqueta meta description (<meta name=”description”) ofrece a Google y a otros motores de búsqueda un resumen de lo que trata la página. Considerando que en la etiqueta <title> podemos usar unas pocas palabras o una frase, la descripción de la página si puede contener una frase o dos o un pequeño parrafo. En las Herramientas para Webmasters de Google podemos encontrar un artículo práctico sobre las meta-tags.

    La descripción nos muestra una breve reseña de lo que ofrece la página Web.

    La descripciones (description) son importantes porque Google podría utilizarlas como fragmentos de sus páginas de resultado. Tenga en cuenta que decimos “podría”, porque Google puede optar por utilizar una sección de su página visible si hace un buen trabajo de concordancia con la consulta del usuario.

    Después de haber hecho la consulta “baseball cards”, nuestra página web aparece como un resultado, con parte de su descripción del meta-tag description que habíamos introducido.

    Buenas prácticas para el meta tags description
    Resume con precisión el contenido de la página: Escribe una descripción que informe y de interés ya que los usuarios verán su descripción como un fragmento en el resultado de una búsqueda.
    o Evitar:
    - Escribir una descripción (description) de la etiqueta meta que no tiene ninguna relación con el contenido de la página.
    - La utilización de descripciones genéricas como “Esto es una página Web” o “Página sobre tarjetas de beisbol”.
    - Introducir únicamente palabras clave en la etiqueta.
    - Copiar y pegar todo el contenido del documento en la descripción.

    Utiliza descripciones únicas para cada página: Disponer de una descripción diferente para cada meta-etiqueta, la página ayuda a los usuarios y a Google, especialmente en las búsquedas que los usuarios pueden abrir múltiples páginas de su dominio (por ejemplo, las búsquedas utilizando el operador site. Si su sitio contiene miles o incluso millones de páginas, introducir a mano la descripción metacódigos probablemente no es factible. En este caso, se puede generar automáticamente la descripción basada en el contenido de cada página.
    o Evitar:
    - Utilizar una única description igual en todas las páginas de su sitio Web o en un gran grupo de páginas.


    Parte 3: Keywords (meta tag)

    Hubo un tiempo en que las meta-tags fueron un popular método para otorgar relevancia a las webs, pero murieron víctimas de los webmasters sin escrúpulos.

    Las etiquetas meta solían ser parte del algoritmo para organizar los resultados de una búsqueda, pero debido a la facilidad con que el autor del sitio podía manipularlas, son pocos los buscadores que actualmente hacen uso de ellas para posicionamiento. Sin duda, la más importante y la más utilizada en su momento fue la etiqueta meta Keyword.

    La etiqueta meta keywords tiene el siguiente formato:

    Quote
    <META NAME="keywords" CONTENT="palabra clave 1, palabra clave 2, palabra clave 3, etc">

    Esta etiqueta contiene un listado de palabras y frases clave, referentes al contenido de la página. La idea es que cualquiera (incluidos robots de búsqueda) pueda entender de qué temas se tratan en la página mediante estas keywords.

    Los buscadores ignoran esta información (o le dan muy poca importancia) para efectos de posicionamiento, pero es posible que se penalice a la página si se hace un uso poco adecuado de esta meta etiqueta. Por ejemplo repitiendo en la etiqueta muchas keywords innecesariamente, lo que puede ser considerado como span..

    Como antes he comentado, ésta fue una de las etiquetas más abusadas, y por esa razón casi todos los buscadores la ignoran. Entonces, ¿hay alguna razón para seguir usándola? Yo creo que hay dos:

    • Es posible que algún buscador le dé alguna importancia
    • Puede ser un lugar ideal para tener fácilmente localizables las palabras clave que luego serán utilizadas para aumentar la densidad de contenidos de nuestro site

    Si en este punto sigues interesado en seguir utilizando esta etiqueta aquí tienes una serie de trucos y consejos:

    • En vez de palabras clave, puedes utilizar frases clave.
    • No se deben utilizar más de 10 palabras clave en la etiqueta.
    • Una misma palabra no se debe repetir más de 5 veces, en distintas frases claves.
    • Un truco muy conocido es utilizar palabras clave con faltas de ortografía.


    Parte 4: Estructura de las URL

    Como ya hemos hablado hay varias recomendaciones para mejorar la optimización en Google y otros buscadores. Si creamos URLs más sencillas serán mas atractivas. Los usuarios que visitan tu sitio pueden sentirse intimidados por URLs muy largas y raras con pocas palabras reconocibles.

    Las URL de este tipo pueden ser confusas. Además, los usuarios pueden creer que una parte de la URL no es necesaria, sobre todo si la URL muestra muchos parámetros irreconocibles. Podrían dejar fuera una parte, rompiendo así el enlace.

    Si la URL contiene palabras relevantes, se proporciona a los usuarios y a los motores de búsqueda información adicional sobre la página.

    Las palabras resaltadas podrían informar al usuario o al motor de búsqueda sobre la página incluso antes de hacer clic en el enlace.

    También tenemos que tener en cuenta que la URL de documento se muestra como parte de un resultado de búsqueda en Google, después del título del documento y del fragmento. Al igual que el título y el fragmento, las palabras en la URL del resultado de búsqueda aparecerán en negrita si coinciden con la consulta del usuario.

    Si queréis saber más sobre las malas prácticas de las estructuras URL dinámicas podéis ver los requisitos de Google.

    Prácticas recomendadas sobre estructuras URL
    Utiliza palabras en las URL. URL con palabras relevantes para el contenido y la estructura del sitio ayudan a que los usuarios que visitan tu sitio naveguen por él, y las recordarán mejor.
    o Evitar:
    - URL largas con parámetros y números de identificación de sesión
    innecesarios.
    - Nombres genéricos como “pagina1.html”.
    - el uso excesivo de palabras clave como “fútbol-cromos-futbol-cromo-fútbolcromos.htm”.

    Crea una estructura de directorios simple. Utiliza una estructura de directorios que organice el contenido y facilite a los usuarios que visitan tu sitio el saber dónde están dentro de éste. Trata de usar la estructura de directorio para indicar el tipo de contenido que se encuentra en esa URL.
    o Evitar:
    - Anidar subdirectorios como “…/ dir1/dir2/dir3/pagina.html
    - Nombres de directorios sin relación alguna con el contenido.

    Proporciona una versión de la URL para llegar a un documento. Para Evitar que los usuarios enlacen a una versión de la URL y otros enlacen a otra versión diferente (esto podría dividir la reputación del contenido entre ambas URL), céntrate en usar y referenciar una URL en la estructura y en los enlaces internos de tus páginas.
    o Evitar:
    - Que las páginas de subdominios y desde el directorio raíz (por ejemplo, “dominio.com/pagina.htm” y “sub.dominio.com/pagina.htm”) accedan al mismo contenido.
    - Mezclar versiones de las URL con www. y sin www. en la estructura de enlaces internos.
    - Utilizar mayúsculas innecesarias en las URL (muchos usuarios esperan URL en minúsculas y las recuerdan mejor).

    Según Matt Cutts, si hay más de cinco palabras, el algoritmo de Google distribuye el peso en cada una de ellas y no termina de darles credibilidad. Os dejo una lista de puntos básicos que debemos tener en cuenta a la hora de crear URLs en nuestra Web:
    • Describe el contenido en la URL
    • Mantener una URL corta
    • De forma estática y clara (no dinámica)
    • Las descripciones son mejores que los números
    • Usar palabras clave para atraer tráfico
    • Los subdominios no son necesarios
    • Tener pocas carpetas en la estructura de la URL
    • Los guiones medios (-) es la mejor forma de separar palabras
    • Mantener una estructura URL igual para todas las páginas de nuestra Web
    • Es preferible no utilizar mayúsculas en las URL
    • No añadas datos extraños ni caracteres especiales

    Bueno, todas estas recomendaciones sobre la estructura URL no van a mejorar en un 100% la optimización en buscadores de nuestra Web. Pero si en gran medida, tanto para los motores de búsqueda, como para la navegación de los usuarios que visitan de nuestra página o acceden a ella desde los resultados de búsqueda.


    Parte 5: Densidad de texto

    Como dice Javier Casares, los buscadores están gastando muchos esfuerzos en valorar la calidad de nuestros contenidos mediante enlaces externos, pero debido a la gran cantidad de resultados y contenidos no deseados se está volviendo a dar mucha importancia a los contenidos originales bien redactados y formateados.

    Por ello, la mejor manera para conseguir que nuestra página esté bien posicionada, es crear una suma de coincidencias. Es decir, ofrecer al buscador una sucesión de pistas para que se de cuenta de que nuestra página habla de unos contenidos relacionados con determinadas palabras clave.

    La densidad de texto consiste en generalizar esta fórmula dentro de los textos de nuestra web, de manera que evitemos el uso de sinónimos y reiteremos en lo posible las palabras clave que nos interesan.

    Así pues podemos decir que, la densidad de palabras clave es el número de apariciones de una keyword en el total de palabras que componen un texto. Sabiendo esto, cuando redactes los contenidos de tu web es aconsejable tener una densidad de palabras no inferior a 2% ni superior a 5% para cada keyword.

    Existen varias herramientas para analizar la densidad de palabras clave de los sitios web, las que pongo a continuación te pueden servir de referencia.

    http://www.ranks.nl/tools/spider.html
    http://www.virtualpromote.com/tools/keyword-analyzer/

    Prácticas recomendadas
    • No debemos olvidar que escribimos para personas, no para robots: por lo tanto, es mejor no repetir la misma palabra clave en cada línea, si no queremos que nuestros usuarios piensen que no sabemos redactar nuestro contenido. Lo que deberíamos hacer, es repetir nuestras keyword en diferentes lugares de la misma página, de forma que cuando las arañas pasen a visitarla detecten una densidad justificada de esa palabra clave y, la posicionen en buen lugar.
    Afinidad temática: los buscadores desarrollan cada día tecnologías más inteligentes que son capaces de detectar la afinidad temática de unas palabras respecto a otras. Es importante que aparezcan el máximo de términos relacionados con cada palabra clave.
    • Es muy importante que el contenido de nuestro site sea novedoso, lo cual es muy difícil, puesto que muchos redactores se “inspiran” en otros sitios para completar sus contenidos. Copiar un texto puede resultar una muy mala idea para posicionar tu página, puesto que los buscadores cuando detectan dos textos iguales, tomarán como original el primero en ser registrado. Con lo que tu página puede ser penalizada.

    Prácticas poco recomendadas
    Cuidado con el spam: Google penaliza las páginas con densidades sospechosamente elevadas de palabras clave, esta práctica se llama stuffing y está penalizada. La mejor manera de prevenir esta penalización es tener siempre en cuenta las prácticas recomendadas que hemos comentado anteriormente.
    Evitar los textos invisibles: una técnica muy sencilla para crear textos invisibles consiste en pintar el texto del mismo color que el fondo, de esta manera los usuarios no leerán ese contenido. El problema viene al saber que las arañas, si pueden leer ese contenido, ya que está en el código, así que se dan cuenta de esta práctica engañosa y pueden penalizarnos.


    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    cenlinux
    Mensajes: 1
    Reputación: 0
    Mensaje Nº 13 | 1:31 AM
    Ok
    GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 14 | 6:17 PM
    Optimizar Carga de Páginas Web

    La optimización de los sitios web es un punto muy importante para mejorar el rendimiento de cualquier sitio web. Según los datos, basados en los estudios hechos por el equipo de optimización de Yahoo han llegado a definir una regla:

    Sólo el 10-20% del tiempo de respuesta se utiliza en descargar el documento HTML.
    El otro 80-90% está empleado en descargar todos los componentes en la página.

    Esto significa que si logramos optimizar la carga de todos los elementos de la pagina web, tendríamos el 80% de la velocidad de carga bajo nuestro control, con el consiguiente aumento considerable en la velocidad de carga de una web.

    Reglas para Optimización
    Para acelerar la carga de las paginas web podemos seguir algunas reglas que hemos recopilado de Exceptional Performance de Yahoo y de Web Performance Best Practices de Google.

    Reducir las peticiones HTTP
    Reduciendo la cantidad de elementos externos a nuestra página podemos reducir el tiempo de carga, para ello podemos combinar archivos JS, CSS, utilizar sprites para los botones, etc.

    Agregar headers de Expiración
    Agregando los headers indicando cuando expiran los archivos evitaremos la carga innecesaria de archivos que ya han sido cargados.

    Utilizar compresión Gzip
    Al comprimir los archivos con gzip antes de enviarlos al browser conseguiremos disminuir la cantidad de datos a transmitir.

    Colocar los Estilos en el Header
    Se recomienda colocar los archivos de estilos en el header para que se carguen primero y renderear rápidamente el web.

    Colocar los Scripts en el Footer
    Cuando se carga un archivo JS, este bloquea la carga de otros archivos hasta que se complete la carga, si el archivo JS es pesada hará que nuestra página se vea en blanco mientras se carga el Javascript.

    Poner Javascript y CSS en archivos externos
    Al colocar en archivos externos los javascripts y hojas de estilos, en la primera vez cargaremos estos archivos y en la siguientes peticiones las leeremos del cache del browser.

    Reducir las búsquedas DNS
    Se recomienda no utilizar varios dominios en la carga de los elementos del web, por cada dominio habrá un tiempo para resolver la dirección IP.

    Minificar archivos Javascript y CSS
    Minificar es eliminar los espacios en blanco y los saltos de linea innecesarios, minificar ayuda a reducir el tamaño de los archivos.

    Evitar las Redirecciones
    El hacer una redirección toma un tiempo para resolver el URL de destino, utilizar correctamente los tipos de redirecciones ayudará a mantener rápida la carga de nuestras páginas.

    Configurar los eTags
    Los eTags se agregan en los header para indicar si el archivo se ha modificado, para ello se compara el valor del eTag guardado en el browser con el eTag del archivo en el servidor.

    Remover Scripts duplicados
    Al eliminar los scripts duplicados conseguiremos disminuir la carga de nuestros archivos.

    • Optimizar las Imágenes
    Podemos optimizar las imágenes, para ello hay que escoger adecuadamente el formato del archivo de imagen para reducir el tamaño del archivo.

    Utilizar dominios libre de Cookies
    Es recomendable colocar las imágenes, js y css en dominios que no utilicen cookies, esto ayudará a disminuir el trafico de contenido.

    Herramientas para la Optimización
    Existen herramientas que nos pueden ayudar a hacer un diagnostico del estado de optimización de nuestra página, ello nos dará una guia de lo que podemos optimizar para mejorar la velocidad de nuestra web.

    Firebug
    Firebug es el complemento básico para todo desarrollador web, esta extensión permite ver todos los archivos que se cargan con la pagina y los tiempos de carga.

    YSlow
    Este es una extensión para Firebug creada por Yahoo que permite hacer un diagnostico de la velocidad de carga de una pagina basado en reglas definidas por YSlow.

    Page Speed
    Este plugin creado por Google permite diagnosticar que puntos de nuestra web podemos mejorar para acelerar la carga de nuestras paginas.


    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    GUARAGUAO
    Mensajes: 2362
    Reputación: 81
    Mensaje Nº 15 | 4:11 PM
    Iniciación al posicionamiento web en los buscadores

    1. Conceptos básicos

    ¿Qué es el posicionamiento de páginas web?
    Básicamente se trata de conseguir que tu página web salga en los primeros puestos de los resultados de búsqueda de los buscadores. Es decir, que si tu página trata sobre plantas medicinales, por ejemplo, cuando una persona teclea esas palabras en Google o cualquier otro buscador aparezcas en las primeras posiciones de las listas de resultados.

    ¿Por qué es importante el posicionamiento en los buscadores?
    Principalmente porque así conseguirás gran cantidad de visitas (la mayor parte de las visitas de una web provienen de buscadores) y además, porque esas visitas estarán realmente interesadas en lo que les ofreces. Piensa que una persona que entra a tu página de plantas medicinales por medio de un buscador, antes se ha tenido que molestar en buscar cosas como “plantas medicinales”, “medicina natural”, “medicina alternativa”, etc. por lo que puedes pensar que está, por lo menos, moderadamente interesada en tus productos. Desde luego, lo estará más que una persona que ve un anuncio de tu web por casualidad sin haberlo deseado.

    ¿Qué hay que hacer para posicionar una página web?
    Esta pregunta es difícil de responder, y desde luego daría para escribir un libro, pero si sigues leyendo esta página encontrarás una breve guía sobre las principales cosas que se pueden hacer para posicionar una web en Google, además de aquellas que no debes hacer si no quiere ser penalizado por ellos. Obviamente hay muchas más, pero éstas son suficientes para empezar a obtener resultados a largo-medio plazo. Recuerda en todo momento que este proceso no es rápido en ningún caso, y que para conseguir resultados estables en el tiempo se necesitan meses de trabajo.

    Ahora bien, antes de empezar a hablar de esas técnicas, conviene tener unos conceptos previos claros y unos objetivos realistas sobre lo que queremos conseguir al posicionar nuestra web:

    Funcionamiento de un buscador
    Antes de nada, puede ser útil comprender cómo funciona un buscador a la hora de indexar un sitio web, esto es, añadir un sitio a la base de datos de un buscador, por lo que ya puede salir en sus resultados de búsqueda.

    Para indexar las páginas web que hay en Internet, los buscadores utilizan unas aplicaciones llamadas arañas (o spiders, robots, etc.) que visitan periódicamente los sitios que tienen ya almacenados en sus bases de datos en busca de nuevos contenidos, modificaciones, enlaces a seguir o páginas que ya no existen (en este último caso para borrarlas). Todas las páginas nuevas que visita el robot, las modificaciones que detecta, etc, las va guardando en la bases de datos, así consiguen la mayoría de ellos mantenerlas actualizadas.

    Palabras clave o keywords
    Son una de las cosas más importantes a tener en cuenta a la hora de hablar de posicionamiento en los buscadores. Son aquellas palabras que introducen los usuarios en los buscadores para realizar sus búsquedas. Es decir, son las palabras por las que nos van a encontrar.

    Por este motivo, el análisis de palabras clave es un paso previo muy importante de cara al posicionamiento en los buscadores. Si no dirigimos nuestros esfuerzos a las palabras clave adecuadas, estaremos perdiendo el tiempo. En este sentido, es importante tener en cuenta siempre lo siguiente; las palabras únicas más generales (e incluso no tan generales), como por ejemplo, “ordenadores”, ofrecen mucha competencia, es decir, que muchas páginas intentan aparecer en los primeros puestos cuando alguien las busca. Por el contrario, los usuarios son cada vez mejores buscadores de información y utilizan con poca frecuencia palabras generales a favor de frases más precisas que les arrojen resultados de mayor relevancia para sus necesidades. Por eso, a la hora de hablar de palabras clave sería mejor referirnos a frases clave y, en consecuencia, guiar nuestros esfuerzos a posicionar frases y no palabras sueltas. Esto nos dará mejores resultados.

    Por suerte, existen en el mercado diversas herramientas que nos ayudarán a decidir sobre qué palabras (frases) clave trabajar para mejorar el posicionamiento de nuestra web en los buscadores. Entre ellas, una de las más conocidas es el Wordtracker Keyword Generator (en inglés), también puedes utilizar la herramienta para palabras clave de Google. En ambas, puedes introducir las palabras clave que te interesen y el programa te devuelve una lista de palabras similares que pueden ser analizadas de diversas formas.

    Un último punto a considerar en cuanto a las palabras y frases clave, es decidir cuántas utilizamos. Hay que buscar soluciones realistas, pero en general, por cada página web con bastante contenido que tengamos (se entiende como información, no imágenes, enlaces, juegos, ni publicidad), es recomendable utilizar de una a tres frases claves. Hay que resaltar aquí que es aconsejable utilizar palabras o frases distintas para cada página de la web, dependiendo del contenido específico de cada una. Además, obtendremos mejores resultados si ponemos nuestro esfuerzo en frases que, aunque menos buscadas, tengan menor competencia, que frases con mucha competencia ya que con ellas será muy difícil el posicionamiento en los buscadores, por lo que no será muy efectivo.

    Centrarse en los principales buscadores
    Actualmente, Google es el líder indiscutible de los buscadores (por lo menos en el mercado hispano). No hay datos exactos, pero alrededor del 70% de las búsquedas se realizan a través de él, y si incluimos en el cómputo a Yahoo y MSN, abarcan en torno al 95% del total. Por tanto, lo principal es conseguir posicionarse en estos tres buscadores, puesto que son los que nos reportarán la mayoría de las visitas.

    Tener paciencia y seriedad
    Cada vez más se está teniendo muy en cuenta la edad del dominio propio y la edad de los dominios que nos enlazan, de tal forma que no nos considerarán realmente importantes (por decirlo de alguna manera) hasta que no llevemos un tiempo establecidos en Internet y se vea nuestra evolución. Normalmente, a partir de 18 meses de antigüedad suele ser suficiente. Por tanto, habrá que tener paciencia y trabajar poco a poco para ir consiguiendo hacernos un hueco en Internet y que los buscadores nos tomen en serio.


    2. Técnicas y consejos de posicionamiento en los buscadores

    Ofrecer contenidos de calidad
    Actualmente, el contenido es muy valorado por los buscadores para realizar sus resultados de búsqueda, y en especial el contenido único. Por eso, es otra de las claves del posicionamiento en los buscadores. Esto es debido a que los buscadores cuando rastrean con sus arañas tu página web añaden cada palabra que encuentran para después intentar relacionarlas con las búsquedas de los usuarios y arrojar sus resultados. Pero además, el contenido de calidad propicia que otras webs que te consideren interesante te enlacen, precisamente por tener buena información en tu sitio. Conseguir enlaces de otras webs, como veremos más adelante, es muy importante a la hora de posicionar tu página. Además de estas ventajas, podemos añadir que los contenidos de calidad son una de las más valiosas armas para fidelizar visitas, ya que ofrecerás a tus visitantes aquello que realmente les interesa, por lo que es muy probable que vuelvan.

    Cuando redactes tu página no olvides incluir en el texto de forma coherente las palabras clave que elegiste con anterioridad, siempre que mantengas sentido en tu página y no se note que están puestas de forma forzada, etc. Los contenidos deberían tener una densidad del 2% al 7% para cada palabra o frase clave utilizada. No intentes escribir tus palabras clave demasiadas veces en el texto porque puede ser considerado spam y penalizar tu página (evita que la densidad de cada una sea superior al 20%). Una buena herramienta para saber la densidad de palabras clave de tu web es keyword density & prominence.

    Conseguir buenos enlaces
    Los enlaces que apuntan a una página, conocidos como backlinks, son muy importantes en el posicionamiento web en buscadores, porque los interpretan como una especie de voto a esa web. Pero no todos los enlaces son útiles para este propósito, los más importantes son los enlaces naturales, es decir, aquellos que se consiguen gracias a la calidad de los contenidos de la web de forma espontánea. Sin ser sugeridos por nosotros mismos.

    No obstante, los enlaces naturales no son los únicos válidos para el posicionamiento en los buscadores, los enlaces de directorios también pueden sernos útiles. Aunque estos no aumentarán demasiado el tráfico de tu web, ayudarán con el tiempo a subir posiciones, siempre y cuando sean buenos directorios (por ejemplo Dmoz) en cuanto a contenido y al tipo de enlaces que realizan. Además, debemos evitar en lo posible repetir el mismo título y descripción en cada directorio en el que demos de alta la web, ya que lo más importante son los enlaces naturales, y así no lo parecerían. Por otro lado, si tienes una web con mucho y buen contenido, puede ser interesante realizar artículos para otras páginas de tu misma temática, ya que los enlaces que se consiguen así son muy valorados por los buscadores, además de serte útil para la promoción web (normalmente en la página del artículo que proviene de otras fuentes se indica el nombre del autor y la dirección de su página web).

    A la hora de recibir un enlace de otra página, fíjate bien en cómo lo hacen. Esto es, debes fijarte en el “anchor text” (el texto del enlace) y el tipo de enlace. En el anchor text debería figurar alguna palabra clave relacionada con tu página. Por ejemplo, para una web de cocina mediterránea, sería muy conveniente que precisamente fuera “cocina mediterránea” el texto del enlace y no “pincha aquí” o “enlace”. Además, presta atención al código de tu enlace, que tenga un aspecto parecido a este:

    Quote
    <a href="http://www.tupagina.com">Palabras clave</a>

    O si es una imagen:

    Quote
    <a href="http://www.tupagina.com">
    <img src="logo.gif" alt="Palabras clave" /></img></a>

    Sobre todo, asegúrate de que tu enlace no está hecho con javascript, porque los buscadores no pueden leerlos y no te servirá de nada de cara al posicionamiento. Los enlaces javascript son más o menos así:

    Quote
    <a href="javascript:http://www.tupagina.com()">Link</a>

    También hay que tener cuidado de que no hayan incluido el atributo “nofollow” dentro de la etiqueta <a>, ya que estos enlaces no son seguidos por los buscadores.

    Por último, decir que es importante no conseguir muchos enlaces de golpe, sino que ir trabajando en este aspecto calmadamente (por ejemplo, conseguir 10 enlaces el primer mes, 15 el segundo, 30 el tercero, etc.) para evitar que los buscadores interpreten este hecho como que estamos intentando manipular sus resultados y nos penalicen.

    MetaTags
    Es frecuente pensar que los buscadores le dan mucha importancia a los MetaTags, en particular a la meta tag keywords y la meta tag description, pero esto no es verdad. Estas metas son prácticamente ignoradas por los buscadores, puesto que se han convertido en puro spam en muchos casos. No obstante, y aunque no ayude al posicionamiento en los buscadores, puede ser interesante seguir añadiendo el meta tag de la descripción, ya que algunos de ellos lo tienen en cuenta al mostrar sus resultados. Si quieres añadir metatags a tu web, puede serte útil el generador de metatags disponible en esta página.

    Título y etiquetas de encabezado
    Los títulos son etiquetas que sí se toman en cuenta de cara al posicionamiento en los buscadores, ya que éstos les conceden bastante importancia. Es imprescindible añadir un título a cada página, pero procura que no exceda de 60 caracteres para dar más densidad a tus palabras clave.
    Las etiquetas de encabezado (h1, h2, h3, etc.) también pueden ser útiles en el posicionamiento web en buscadores, por lo que puedes meter en ellas algunas de tus palabras o frases clave, siempre con moderación y coherencia para evitar hacer spam y ser penalizados.

    Ni que decir tiene que es precisamente el título lo que primero ve una persona en los resultados de búsqueda y lo que le tiene que impactar o interesar para decidir entrar en tu página.

    Incluir un mapa web
    Son aconsejables cuando la página web es muy grande o es difícil que los buscadores puedan seguir los enlaces de los menús (por ejemplo, por la utilización de javascript o flash, ya que no pueden leerlo). En el mapa web se deben poner enlaces de texto a todas las páginas del sitio, pudiendo el buscador de este modo acceder a toda nuestra web. No obstante, no pongas más de 100 enlaces por página porque esto puede ser penalizado.
    Evitar la utilización de flash, archivos PDF y javascript en la medida de lo posible

    Evita la utilización de archivos flash innecesarios, a los buscadores les cuesta mucho indexarlos y en la mayoría de los casos no lo hacen. Lo mismo pasa con los archivos pdf, que aunque presentan menos problemas que los primeros, también pueden crear dificultades de indexación. Por su parte, el código javascript presenta otro problema para los buscadores ya que la mayoría no puede seguir los enlaces que contienen, por lo que si tu menú está hecho en javascript probablemente sólo conseguirán indexar tu página principal.

    Ceñirse a los estándares web
    Validar nuestras páginas conforme a los estándares nos ayudará de forma indirecta al posicionamiento en los buscadores, ya que al validar nuestras páginas estamos revisando posibles errores de programación que pueden causar dificultades a los robots para indexar nuestras páginas, o que éstas no se vean correctamente por el usuario. Cuanto más fácil se lo pongas a los robots para indexar tu página mejor. Para conseguir este objetivo, revisa a fondo los manuales del W3C (la organización que crea los estándares web) y utiliza su validador.

    Tamaño máximo de páginas y enlaces
    La cifra mágica para ambos casos es 100. No más de 100 enlaces por página (mejor no aproximarse) y no más de 100 Kb. de peso. Si pones más de 100 enlaces en una página corres el riesgo de ser penalizado en los buscadores, por lo que tus posiciones caerían drásticamente o incluso te borrarían de la base de datos. Intenta no superar los 80 enlaces para estar seguros de no estar haciendo las cosas mal. En cuanto al peso de la página, si supera los 100 Kb. muchos buscadores no te la indexarán, además, cuanto más pese más tardará en cargar, cosa que no es recomendable de cara al usuario.

    Monitorizar la web, posicionamiento continuo
    Monitorizar la web y sus posiciones en los principales buscadores es una estrategia útil para detectar a tiempo posibles pérdidas de posiciones. Para monitorizar posiciones hay programas y webs que facilitan la tarea, por ejemplo, el Free Monitor for Google. No obstante, a la hora de controlar el posicionamiento en Google, hay que tener en cuenta que es frecuente la caída brusca de posiciones o la desaparición de nuestras páginas, sobretodo cuando la web es nueva. Esto no tiene por qué ser malo, al contrario, es algo habitual y normal. Si tras un par de días la situación no ha vuelto a la normalidad puedes empezar a preocuparte.

    Además, en el tema del posicionamiento de páginas web, constantemente salen cosas nuevas y quedan obsoletas las anteriores, por lo que puede ocurrir que lo que te resultó útil en su momento, ahora no te sirva para nada o incluso te perjudique. Razón más que suficiente para mantenerse al día en este tema y renovarse continuamente.


    3. Tácticas penalizadas en el posicionamiento en los buscadores

    La penalización de webs que realizan prácticas no éticas para posicionarse en los primeros resultados de búsqueda, es una estrategia que utilizan los buscadores para ofrecer resultados más interesantes a sus usuarios. Cuando se detecta que una página está realizando acciones no permitidas, se le penaliza, lo cual puede consistir en hacerla perder posiciones en las búsquedas o incluso eliminarla de los resultados y desindexarla. Entre los motivos que existen para ser penalizado, tenemos:

    1. Texto oculto.
    2. Webs duplicadas.
    3. Enlaces artificiales.
    4. Cloaking y doorways.

    Texto oculto
    Consiste básicamente en poner texto dirigido específicamente para los buscadores que no es visible para los usuarios con el fin de obtener un mejor posicionamiento en los buscadores. Los webmasters que realizan estas prácticas, se dedican a escribir palabras para rellenar su web y obtener así mayor densidad en ellas. Para que el usuario no las vea, es común que pongan el mismo color para el texto y para el fondo.

    Webs duplicadas
    Esto consiste en crear webs idénticas (con el mismo contenido y demás) para conseguir enlaces para la web que realmente se quiere posicionar. Esta técnica está bastante mal vista por los buscadores, por lo que hay que evitarla. Además, hay que tener cuidado al cambiar de dirección web de no dejar online la misma web en las dos direcciones porque podrías ser penalizado al tener contenido duplicado.

    Enlaces artificiales
    Consiste en aumentar de forma artificial los enlaces entrantes a una web. Se puede hacer de varias formas y todas ellas resultarán perjudiciales para nuestra web tarde o temprano:

    • Realizar spam en blogs y libros de firmas, escribiendo en ellos con la única intención de dejar en enlace a la web.
    • FFA y granjas de enlaces: son páginas dedicadas a dar enlaces a otras páginas, ya sea pagando o gratis, pero que con el tiempo son penalizadas duramente por los buscadores, así como las páginas enlazadas por ellas, por ser simplemente páginas con miles y miles de enlaces que no aportan nada.
    • Cross-linking: realizar enlaces en cadena con conocidos u otras webs de forma que todas enlazan a todas formando un círculo. Si los buscadores detectan que el único motivo de esos enlaces es conseguir un mejor posicionamiento, pueden penalizarlas.

    Cloaking y doorways
    El cloaking consiste en hacer webs distintas en función de quién la visite. De esta forma, los webmaster realizan páginas totalmente optimizadas para los robots y páginas distintas para los usuarios con el fin de obtener un buen posicionamiento en los buscadores. Cuando un robot intenta rastrear la página se le identifica como tal y es redireccionado a la página construida específicamente para él, lo mismo ocurre con los visitantes normales.

    Las doorways son un caso particular de Cloaking, en el que se realizan páginas optimizadas con el único fin de obtener un buen posicionamiento web en buscadores. Normalmente, cuando el usuario intenta acceder a ellas es redireccionado a la página “de verdad” mediante un enlace javascript (los buscadores no pueden leerlos), mientras que cuando el buscador accede a la página se le permite navegar por ella y al no poder leer el enlace javascript almacena la página optimizada para él.

    Aunque éstas técnicas puedan parecer atractivas, no la uses, puesto que cada día los buscadores implementan nuevos métodos de detección para ellas, por lo que tarde o temprano tus páginas serán penalizadas.


    Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
    Foro uCoz » Ayuda a los webmasters » Promoción del sitio » Promoción y optimización de la web
    Página 1 de 212»
    Búscar: