¿Por qué Google está tan preocupado acerca de las búsquedas en sitios sociales y especialmente en Twitter?
Hablando en el evento Zeitgeist durante “fireside chat”, dirigido por el Sr. Shmidt, el Sr. Page admitió que Google “ha hecho un trabajo relativamente pobre creando cosas que trabajen básicamente en segundos”.
Un Spider es un programa que inspecciona las páginas de la web de forma metódica y automatizada. Uno de los usos más frecuentes que se les da consiste en crear una copia de todas las páginas web visitadas para su procesado posterior por un motor de búsqueda que indexa las páginas proporcionando un sistema de búsquedas rápido. Las arañas web suelen ser “bots” (el tipo más usado de éstos).
Este nuevo spider o bot o crawler no es un progrma sino una comunidad de usuarios que recorre la web no de forma metódica ni automatizada, pero si estudia los contenidos, los indexa y cataloga, incluso agregando sus propios comentarios y valoraciones de cada uno de estos temas.
Estos mismos usuarios pueden ser generadores de contenidos, que tienen un valor superior para aquellos integrantes de la comunidad que están en contacto con ellos.
A diferencia con los spiders de los buscadores tradicionales, este nuevo spider es humano, recorre la web a su gusto y utiliza criterios humanos para seleccionar, indexar, y comentar acerca los contenidos que encuentra.
No hace diferencias, ni tiene restricciones en cuanto a los tipos de contenidos ni a los nombres de las páginas ni ha ninguna otra traba que pudiera tener un programa spider.
Lo que más ha llamado mi atención es este asunto, no tanto las búsquedas sociales sino el hecho de que los sitios web sociales como Twitter se hubieran convertido en un repositorio de información de búsqueda y la comunidad que los utiliza en su motor.
La comunidad es grande, son muchos, se manejan criterios humanos de selección, esto ha hecho que cambiemos nuestros objetivos y pasemos de buscar información a buscar conversaciones acerca de esta información.
Hablando en el evento Zeitgeist durante “fireside chat”, dirigido por el Sr. Shmidt, el Sr. Page admitió que Google “ha hecho un trabajo relativamente pobre creando cosas que trabajen básicamente en segundos”.
Un Spider es un programa que inspecciona las páginas de la web de forma metódica y automatizada. Uno de los usos más frecuentes que se les da consiste en crear una copia de todas las páginas web visitadas para su procesado posterior por un motor de búsqueda que indexa las páginas proporcionando un sistema de búsquedas rápido. Las arañas web suelen ser “bots” (el tipo más usado de éstos).
Este nuevo spider o bot o crawler no es un progrma sino una comunidad de usuarios que recorre la web no de forma metódica ni automatizada, pero si estudia los contenidos, los indexa y cataloga, incluso agregando sus propios comentarios y valoraciones de cada uno de estos temas.
Estos mismos usuarios pueden ser generadores de contenidos, que tienen un valor superior para aquellos integrantes de la comunidad que están en contacto con ellos.
A diferencia con los spiders de los buscadores tradicionales, este nuevo spider es humano, recorre la web a su gusto y utiliza criterios humanos para seleccionar, indexar, y comentar acerca los contenidos que encuentra.
No hace diferencias, ni tiene restricciones en cuanto a los tipos de contenidos ni a los nombres de las páginas ni ha ninguna otra traba que pudiera tener un programa spider.
Lo que más ha llamado mi atención es este asunto, no tanto las búsquedas sociales sino el hecho de que los sitios web sociales como Twitter se hubieran convertido en un repositorio de información de búsqueda y la comunidad que los utiliza en su motor.
La comunidad es grande, son muchos, se manejan criterios humanos de selección, esto ha hecho que cambiemos nuestros objetivos y pasemos de buscar información a buscar conversaciones acerca de esta información.