Blogia
dokumenta - marketing on-line, SEO, usabilidad y recuperación de información

Posicionamiento

Meme (Edición especial SEO)

Meme que me llega a través de Estrella

Lo que más me gusta y lo que menos de mi trabajo como SEO

Por suerte son más las cosas que me gustan que las que menos ..., aqui dejo las principales :)

> Las que más

- Que es un sector en el que siempre hay que estar al día, en el que siempre se puede aprender algo nuevo, siempre hay que investigar ...

- Su imbricación con otras disciplinas y facetas, el SEO es un campo muy amplio

- Discutir con programadores, diseñadores [et.al]

> Lo que menos

- Que no se sigan las recomendaciones SEO que se hacen después de haberte implicado y haber hecho un buen trabajo

- Demasiada dosis de Google en mi vida (seguro) :D

Mando este meme a Raquel Franco e Ismael El-Qudsi

 

Respuestas en los SERPs de Google

Respuestas en los SERPs de Google

Interesantes pruebas en La Cofa donde a partir de unas búsquedas de diferente temática compara el acierto de los resultados de Google vs Buscadores semánticos. Y parece que obtuvo mejores resultados en Google que en el resto de buscadores. A partir de dicha conclusión plantean la integración de las tecnologías semánticas en Google, sobretodo, a partir de los resultados obtenidos tras la búsqueda: “How many inhabitants live in Madrid?” donde en el primer resultado no aparece la palabra inhabitants pero sí sinónimos de término. De todas formas, Google no acierta demasiado en este caso porque dicho resultado no ofrece una respuesta concisa a la pregunta, así que parece que queda mucho camino por recorrer en este sentido.

Lo que sí podemos ver es cómo se está esforzando por interpretar la semántica del lenguaje, intentando ser más eficaces ante búsquedas de información concretas que buscan una respuesta concisa y rápida. Así, para preguntas factuales (de tipo geográfico, familiar etc.) ofrece la respuesta en el 1º resultado con una tipografía destacada y con un enlace a ver más fuentes (que no son las de los resultados en las posiciones siguientes a la búsqueda). Se analizan estas “nuevas respuestas de Google en  ReadWrite Web

Podemos ver este comportamiento por ejem:

Capital spain

Capital de españa

Mostrar el resultado en la propia lista de resultados también evitaría que usuarios se escapen a sitios tipo la wikipedia.

Hablando de semántica, recuerdo una interesante herramienta Semantifind cuya intención es poder contextualizar las búsquedas en Google.

Herramientas para el seguimiento de posiciones

He probado algunas (gratuitas) y de momento no he encontrado ningua que me convenza 100%. Así que, prefiero utilizar más de una y tambiém hacer comprobaciones manuales ...

Algunas de las herramientas gratuitas más interesantes:

- Ranckchecker de Firefox: la fiabilidad no es muy alta pero es rápido, buen diseño, se puede programar, se puede exportar a fichero la información, permite realizar búsquedas en diferentes dominios de google y para otros buscadores, te indica la url posicionada…

- Exactfactor: bastante fiable respecto a las posiciones, interfaz muy amigable, se pueden programar las búsquedas, se pueden añadir competidores, alertas al mail, etc. Limitaciones: tiene un máximo de 3 buscadores y no se pueden exportar los datos aunque guarda un histórico por fechas.

- Digital point bastante fiable también respecto a las posiciones, permite comparar fácilmente con la competencia, se puede programar y te indica los cambios de posiciones por semana, mes y diariamente y permite exportar los datos ...

Otras herramientas que no he utilizado todavía y que podrían ser también interesantes: osSeo que ha sido liberada como software libre y Webposition tiene una prueba gratuita para 30 días y psMonitor

Creo que ayudaría bastante que se integrara un seguimiento de posiciones en las herramientas de estadísticas para ver resultados de forma rápida del cruce de datos entre posiciones, palabras claves por las que llegan visitas de buscadores y nº accesos.

BrowseRank: El pagerank de Microsoft

BrowseRank es el proyecto presentado durante la Conferencia SIGIR en Singapur por un grupo de desarrolladores de la división de Microsoft Research de Asia. Para establecer la relevancia de los resultados a partir de la experiencia de los usuarios, por ejemplo el tiempo que pasa en la página, visitas, nivel de abandonos, etc. Se puede acceder al paper de la investigación en: http://research.microsoft.com/users/tyliu/files/fp032-Liu.pdf

Frente a los enlaces de sistemas como el Pagerank, en este caso es el usuario el que manda. Comentan que no es un sistema con riesto de "trampear" como el Pagerank de Google, pero el sistema de Microsoft también tiene peligros como la simulación de diferentes usuarios mediante el uso de distintas ips. 

Este desarrollo recuerda también a experimentos que Google está haciendo también para que la valoración de usuario se tenga en cuenta mediante la votación de resultados. Parece que el SEO y la usabilidad están cada vez más cerca ...

 

Google y los logs de las búsquedas

Google y los logs de las búsquedas

Hace unos días Matt Cutts nos contaba el uso que Google hacía de los logs de las búsquedas realizadas para combatir el webspam. Dentro de su objetivo de limpiar resultados. Matt Cutts indica "es esencial que podamos conocer los logs y calcular las cifras de spam utilizando logs anteriores" .

Los datos de IP o cookie son utilizados para crear y usar métricas que midan diferentes aspectos de las búsquedas de calidad (cobertura, tamaño del índice, actualización-"frescura" de los resultados, spam ...)

Cuando crean un nuevo indicador que mide un nuevo tipo de spam analizan los logs y calculan las cifras de spam utilizando logs anteriores. Se utilizan los registros de búsquedas para analizar lo que ha pasado en los periodos anteriores y ver lo cómo se comportó Google en las consultas de meses pasados. Cuando crean un nuevo indicador que mida un nuevo tipo de spam con mayor precisión, se realiza un seguimiento hacia futuro y también usan los registros para ver la manera en que lo se estaba haciendo con anterioridad. Intentan analizar las nuevas tendencias de spam, adelantarse, para que no disminuya la percepción y experiencia de usuario en cuanto a relevancia de los resultados de búsqueda.

TRUST RANK

TRUST RANK Desde hace algún tiempo se habla de una renovación del PageRank de Google que intentaría ser más eficaz contra el “spam”, se denominaría como Trust Rank.

El Trust Rank en lugar de valorar la importancia de un enlace en función del PageRank de la página citante, lo hace a partir de una serie de páginas web que han sido valoradas como relevantes. A estas páginas consideradas como importantes se las consideraría “web semilla” y a sus enlaces se les asignaría un valor.

Aún no parece claro si las “webs semillas” serán determinadas por algún tipo de algoritmo o si serán valoradas por evaluadores de webs. La “evaluación humana” parece, en principio, subjetiva, lenta y costosa. Quizás se mezclen ambos métodos ...

Montserrat Peñarroya, refleja el proceso con el siguiente ejemplo: “Supongamos que disponemos de una web semilla A. A transmitirá un valor de 100 Trust Rank a todas las webs a las que enlace. Estas páginas, a su vez, transmitirán un Trust Rank de 99 a todas las webs a las que enlacen. Y éstas últimas, transmitirán un Trust Rank de 98 a las que ellas enlace.”

Las webs consideradas spam transmitirán un Trust Rank negativo. Tampoco está claro como sería supervisada una web una vez conseguido un determinado nivel de Trust Rank...

Más en -->

http://dbpubs.stanford.edu:8090/pub/2004-17
http://www.alt64.com/noticia_alt64.php?id=33
http://www.spiderbait.com/seo-expert/2005/05/trust-worthy-sites-trust-rank.asp

Clasificadores inductivos

Clasificadores inductivos En el intento de averiguar en qué medida se tienen en cuenta diferentes factores (cabeceras, etiquetas meta, PageRank ...) Francisco José Soltero Domingo y Diego José Bodas Sagi, en su artículo "Clasificadores inductivos para el posicionamiento" proponen la utilización de clasificadores inductivos arbóreos.
Intentan acercarse a conocer la relación entre los distintos elementos que componen la página y el peso que cada uno de ellos aporta al posicionamiento final. Conocer la relación entre los atributos, el peso de los mismos, y su variabilidad en el tiempo son los factores que han de determinarse para conseguir algunos de los criterios seguidos por los buscadores en el posicionamiento.
Para su trabajo ejecutaron las búsquedas en Google. En su estudio utilizan dos técnicas: Clasificador LMT y Clasificador Random Forest
Algunas de las conclusiones obtenidas tras el experimento realizado utilizando árboles de decisión fueron: es muy importante que la palabra clave aparezca en negrita dentro del cuerpo del texto, muy relevante la primera cabecera, importancia de la frecuencia y peso de la clave en el título son factores muy importantes ...
Observan este estudio como una primera aproximación a la confección de una aplicación cuyo parámentro de entrada fuera un recurso web que diera como salida lo valores de aquellos factores que deben ser mejorados así como indicar los elementos que sólo aportan ruido.
Estudio publicado en: El profesional de la información Vol. 14 nº 1

El misterio Sandbox

El misterio Sandbox El efecto Sandbox sigue siendo un misterio. Al parecer, páginas en principio optimizadas para un posicionamiento
adecuado se ven situadas en bajos puestos.

Este fenómeno parece afectar a recursos de nueva creación y solo para determinados términos de búsqueda (el número de
resultados sería uno de los elementos a tener en cuenta, es decir, la competitividad de los términos). Este posible nuevo factor de evaluación parece ser un elemento que facilitara a Google el confiar unas óptimas posiciones a los sitios web.

A partir de las Faqs de Xeoweb se observa como
otorgan la mayor responsabilidad de dicho efecto en los enlaces entrantes y la semántica de los mismos. También recalca
que afecta a webs para determinadas búsqueda (no afectando a todos los términos). Así, observan como algunos de los
elementos esenciales los siguientes: enlaces entrantes, contenidos y enlaces salientes (esta fórmula explicaría porqué
los blogs no se ven afectados por casi ninguna búsqueda) señalando más peso para los dos primeros elementos.

Benjamin Tolman propone en su teoría una
curva de referencia de evolución, en la que se relaciona la cantidad de enlaces entrantes ("backlinks") y el tiempo de
vigencia del web. Los sitios web se someterían a un coeficiente de progresión que mediría si su evolución es normal.

También se están realizando trabajos que pretenden desmentir la existencia del Sandbox, como es el experimento realizado para la web Arquys,
pero este estudio tampoco ha sido determinante. Algunas de las conclusiones que han obtenido son: El PR es el factor más
importante para clasificar la importancia de los resultados de una búsqueda pero no señala la posición de los mismos en
determinadas palabras claves; el tiempo de carga de la página es más importante para el usuario final(que afectará a su
popularidad, indicando una influencia indirecta) que para los robots; el sitio o no estaba afectado por el sandbox o el
sandbox no existe ...

En cuanto al tiempo que dura el efecto Olivier
Duffez
señala un tiempo estimado entre unas semanas y 6 meses. Dicho autor señala la dificultad de saber si se está
afectado por el Sandbox pero propone una herramienta que detecta los factores asociados a dicho efecto (""Sandbox Detection Tool"")

Mientras no sepamos con exactitud en que consiste dicho efecto seguiremos las diferentes iniciativas y teorías al
respecto.