Blogia

Tecnologías de Internet

Tecnologías de Internet y Nanotecnología

Tecnologías de Internet y Nanotecnología

Ordenadores cuánticos, nanorobots, nanomateriales, microscopios de fuerzas,... La nanotecnología sustituirá al silicio en las futuras generaciones de ordenadores.

Bitácora Nanotecnológica

Tecnologías de Internet y Biotecnología

Tecnologías de Internet  y Biotecnología

Ordenadores de ADN y proteinas, bioinformática, biochips, fibra óptica orgánica, ... la conjunción entre la biología y la tecnología hace aproximaciones al mundo de las comunicaciones, la informática e internet.

Bitácora Biotecnológica

Comunidad de Tecnologías de Internet

La bitácora de Loogic lleva varios meses en la red y empieza a ser visitada por muchos interesados por el mundillo de los buscadores, la inteligencia artificial, la web semantica, la recuperación de la información,...

Desde aquí un agradecimiento a todos aquellos que leen esta bitácora y en especial a aquellos que colaboran eniando sus comentarios. Gracias a ...

- Catuxa

- Inkel

- Snit

- Barbol

- Roberto

- Samregis

- Etxe

- DrAvenarius

- Jorge

- Jlori

Nos gustaría que en esta lista apareciera "el maestro" Abraldes. Otra vez será.

Glosario de Términos de Inteligencia Artificial

Para añadir al Tesauro de Tecnologías de Internet

- Aprendizaje artificial

- Visión

- Agentes, Sistemas multiagentes

- Programación lógica (basada en restricciones), logica difusa

- Modelos de razonamiento

- Redes neuronales, programación genética, computación evolutiva

- Aplicaciones de IA

- Robótica

- Ingenieria del conocimiento

- Planificación

- Vida artificial

- Mineria de datos

- Lenguaje natural

- Reconocimiento del habla

- Resolución de problemas en IA

- Fusión de la Información

- Sistemas Borrosos

- Aplicaciones multimedia inteligentes y realidad Virtual

- Inteligencia Artificial en tiempo real

- Procesamiento de la Información

- Aplicaciones de la Inteligencia Artificial en Sistemas Biológicos

Extraido de: 6º Congreso Catalán de Inteligencia Artificial

Inteligencia Artificial en España

Recopilación de enlaces sobre Inteligencia Artificial en España.

ASOCIACIONES:

- Asociación Española de Inteligencia Artificial:
http://www.aepia.org
- Asociación Catalana de Inteligencia Artificial:
http://www.acia.org

PUBLICACIONES:

- Revista Iberoamericana de Inteligencia Artificial:
http://aepia.dsic.upv.es/revista/revista.html

EMPRESAS:

- Robotiker: http://www.robotiker.com
- Isoco: http://www.isoco.com/es
- Aplicaciones de Inteligencia Artificial: http://www.ais-int.com
- Agentsinspired: http://www.agentsinspired.com
- Aplicaciones Empresariales con Redes Neuronales: http://www.aern.net

Panorama Buscadores

Panorama Buscadores

.

Búsquedas: Preguntar al que sabe

La regla de oro de las búsquedas:

Antes de buscar una información lo primero que hay que hacer es preguntar al que sabe.

... oído en clase.

Mensaje extraido de: Barbol.com Una de las mejores bitácoras sobre documentación y gestión de la información.

Primer Experimento Abierto: ¿es Google capaz de hacer lo mismo?

Hemos buscado en Google cada una de las palabras "mal escritas" del siguiente texto: Sgeun un etsduio de una uivenrsdiad ignlsea, no ipmotra el odren en el que las ltears etsan ersciats, la uicna csoa ipormtnate es que la pmrirea y la utlima ltera esten ecsritas en la psiocion cocrrtea. El rsteo peuden estar ttaolmntee mal y aun pordas lerelo sin pobrleams. Etso es pquore no lemeos cada ltera por si msima preo la paalbra es un tdoo.

Los resultados del experimento son los siguientes:

--Palabras mal escritas: (31)(100%)
>egeun
>etsduio
>uivenrsdiad
>ignlsea
>ipmotra
>odren
>ltears
>etsan
>ersciats
>uicna
>csoa
>ipormtnate
>pmrirea
>utlima
>ltera
>ecsrita
>psiocion
>cocrrtea
>rsteo
>peuden
>ttaolmntee
>pordas
>lerelo
>pobrleams
>etso
>pquore
>lemeos
>msima
>preo
>paalbra
>tdoo

--Palabras que entiende Google (16)(51,6%) (con entiende quiero decir que muestra el mesaje "Quiso decir")
>etsduio
>uivenrsdiad
>ignlsea
>odren
>etsan
>ersciats
>ipormtnate
>pmrirea
>utlima
>ltera
>ecsrita
>psiocion
>peuden
>ttaolmntee
>paalbra
>tdoo

--Palabras que no entiende Google (11)(35,4%) (con que no entiende quiero decir que no muestra el menaje"Quiso decir")
>ipmotra
>ltears
>ersciats
>uicna
>cocrrtea
>rsteo
>lerelo
>pquore
>lemeos
>msima
>preo
(el primer resultado es una web que contiene este texto completo o que tiene la palabra mal escrita)

--Palabras mal escritas pero que significan algo (2)(6,4%) (encuentra webs con esa palabra, deben ser las siglas de algo)
>csoa
>etso

Nota: todas las búsquedas han sido realizadas con la opción "Buscar sólo páginas en español"

Ahora hay que interpretar los resultados del experimento y deducir si Google (al que consideramos una máquina)...es capaz de hacer lo mismo?
Se aceptan interpretaciones

Gracias a Roberto por hacer su comentario que nos ha hecho iniciar este experimento.

¿Serían las máquinas capaces de hacer lo mismo?

Extraido de: wwwaragones

Una amiga de Barcelona me envía lo siguiente:

Sgeun un etsduio de una uivenrsdiad ignlsea, no ipmotra el odren en el que las ltears etsan ersciats, la uicna csoa ipormtnate es que la pmrirea y la utlima ltera esten ecsritas en la psiocion cocrrtea. El rsteo peuden estar ttaolmntee mal y aun pordas lerelo sin pobrleams. Etso es pquore no lemeos cada ltera por si msima preo la paalbra es un tdoo.

¿A que lo habeis podido leer?

Lector de noticias RSS

En español.

Se puede descargar de la web: http://www.brindys.com/winrss/

Dpto. Técnico
Brindys Software
www.brindys.com
© Copyright 1996-2003 Brindys Software.

El Pentágono proyecta un ordenador capaz de predecir el “futuro plausible”

Basándose en algoritmos genéticos, pretende detectar actuaciones terroristas antes de que ocurran
Un ordenador que utiliza algoritmos genéticos y que combina las probabilidades y las incertidumbres de la vida con el sentido común, está siendo desarrollado por el Pentágono con la finalidad de modelar los comportamientos humanos y de anticipar el “futuro posible”, lo que permitiría prevenir y evitar actuaciones terroristas. El proyecto, conocido como Genoa II, forma parte del polémico programa que pretende unificar todos los bancos de datos del planeta en uno solo bajo control del Gobierno norteamericano. Por Eduardo Martínez.

El Pentágono está trabajando en programas de ordenador capaces de modelar las situaciones corrientes de la vida y de predecir por tanto “el futuro plausible”, en el marco del polémico programa de defensa avanzado conocido como TIA (Total Information Awareness).

El Genoa II, como se denomima a este proyecto de ordenador que recuerda a Tom Cruise en Memority Report, está integrado en este programa de defensa avanzado que pretende implantar tecnologías que controlen los flujos de información que se producen cada segundo en el mundo con la finalidad de combatir eventuales ataques terroristas.

Tal como se explica en Computerworld, los ordenadores que sirven de soporte a esta tecnología se basan en algoritmos inspirados en la biología, de un lado, así como en la estadística bayesiana y en la teoría de Shannon.

Eso quiere decir que los algoritmos, que son modos de resolución de problemas aplicables tanto a la actividad intelectual como a las actividades cotidianas, se han construido en estos ordenadores siguiendo las leyes de la vida, imitando los procesos biológicos.

Combinación de ideas

Son algoritmos genéticos inspirados en la evolución y capaces por tanto de resolver problemas de la misma forma que lo hace el cuerpo humano, lo que permite por ejemplo idear un sistema de seguridad que reproduce el sofisticado sistema inmunológico de nuestra especie.

Combinando estos algoritmos genéticos con la estadística bayesiana, que pretende generar las explicaciones o configuraciones más probables para una evidencia observada, y con la Teoría de Claude Shannon, según la cual la información puede ser tratada como una cantidad física mensurable aunque exista un grado de incertidumbre respecto a que un mensaje pueda llegar completo a su destino, es posible alumbrar un ordenador de nueva generación como el que pretende Genoa II.

Con estos soportes, resulta posible por ejemplo construir un ordenador que separe los elementos esenciales de una información de todo un conjunto de datos, de la misma forma que nuestro cerebro es capaz de concentrarse en un instrumento mientras escucha un concierto sinfónico.

De esta forma ya ha sido posible producir algoritmos que permiten a los ordenadores discriminar, escoger cosas utilizando criterios y gustos humanos e incluso aprender.

Más allá

Pero Genoa II va más allá porque esta tecnología se propone producir un algoritmo que es capaz de identificar un modelo, observar su funcionamiento y de establecer sus relaciones asociativas para detectar anomalías peligrosas.

Conseguido esto, también es posible modelar el comportamiento de las personas en un aeropuerto, detectar un comportamiento sospechoso como el abandono de un bolso en un asiento y alertar a la seguridad instantáneamente, lo que anticipa el posible daño de un atentado y permite desactivarlo antes de que ocurra.

Todo el supuesto se basa en las probabilidades matemáticas y en la posibilidad teórica de que la incertidumbre que existe sobre los hechos cotidianos puede ser modelada si se combina el sentido común con las observaciones del mundo real.

El Genoa II pretende así conseguir que los ordenadores emulen aún más profundamente al cerebro humano y que aprendan a reducir la complejidad de la vida cotidiana, con la finalidad de utilizar esta tecnología como instrumento inmunológico de la civilización.

Proyecto Darpa

El Genoa II es uno de los programas de la Defense Advanced Research Projects Agency (DARPA), dotada con 200 millones de dólares por el Pentágono. El Genoa II está integrado dentro del sistema Information Awareness Office (IAO) que, junto al Information Exploitation Office (IEO), estructuran Darpa.

Mientras la IEO se encarga de determinar los posibles objetivos de las fuerzas armadas y de desarrollar armas y municiones inteligentes que puedan destruirlos, la IAO es un organismo de investigación destinado a descubrir mediante soportes informáticos avanzados potenciales comportamientos terroristas.

Genoa II es uno de los programas de la IAO, junto al Génesis (que se encarga de compatibilizar todas las informaciones recogidas de diferentes bases de datos de todo el mundo) y Tides, que tiene el cometido de traducir automáticamente al inglés todas las lenguas en las que figuren los documentos recogidos.

El objetivo final del TIA es hacer converger todos los bancos de datos del planeta en uno solo, convertido así en un gigantesco archivo electrónico capaz de guardar las reservas de pasajes aéreos, los talones de la caja del supermercado, las llamadas telefónicas realizadas por teléfonos móviles o fijos, los artículos de los diarios, los itinerarios en las autopistas, las recetas médicas, todas las transacciones privadas o de trabajo, etc.

Prevenir comportamientos terroristas con los modelos que puedan fabricarse con toda esta información es la vocación de Genoa II, que permitirá a los técnicos y computadoras "pensar juntos" durante las investigaciones como hasta ahora nunca se ha conseguido.

Fuente: Tendencias Científicas
Eduardo Martínez
2003-09-06

Primer Proyecto Abierto: TESAURO Tecnologías de Internet

Este proyecto requiere de tu colaboración. En la bitácora de Loogic hemos recopilado una serie de terminos relacionados con las tecnologías de internet, la web semántica, la inteligencia artificial, los buscadores,... Pero sabemos que está incompleto y mal organizado. Por esto te pedimos que pongas tu granito de arena, COPIES, PEGUES Y MODIFIQUES el tesauro (como creas conveniente) en los comentarios a este mensaje. Los comentarios serán publicados como mensajes. De esta forma contribuiremos entre todos a aclarar un poco más los términos sobre este apasionante mundo de Internet.

TESAURO Version1

-- Web semántica.
· Semántica.
· Semiótica.
· Metainformación.
· Metadatos.

-- Minería de datos.

-- Inteligencia artificial.
· Sistemas expertos.
· Algoritmos geneticos.
· Computación evolutiva.
· Redes neuronales artificiales.
· Redes de kohonen.
· Redes bayesianas.

-- Malla (rejilla).
·Tecnologías grid.

-- Lenguajes de programación.
· XML.
· XHTML.
· CSS.
· RDF.
· RSS.
· Etiquetas.

-- Buscadores.
· Búsquedas.
· Metabuscador.
· Robot.
· Motor de búsqueda.
· Directorio.
· Optimización en buscadores.
· Posicionamiento en buscadores.
· Interfaces de búsqueda.
· Algoritmos de búsqueda.

-- Arquitectura de la información.

-- Recuperación de la información.

-- Gestión del conocimiento.

-- Visualización de la información.
· Mapas conceptuales.
. Mapas neuronales.
· Redes semánticas.
· Cartografía visual.

-- Diseño web.
· Usabilidad.
· Evaluación heurística.
· Accesibilidad.

-- Sindicación.

-- Tesauros.

-- Hipervículos.

-- Exploradores.

-- Navegación.

-- Filosofía del lenguaje.

-- Psicología cognitiva.

Kartoo: cartografía visual.

Kartoo: cartografía visual.

Kartoo.com es una clara alternativa al resto de buscadores convencionales ( Google.com, Altavista.com, Alltheweb.com,...)

Aplica tecnologías de redes semánticas, mapas conceptuales y mapas mentales.

La principal diferencia con respecto a los demás buscadores es la forma de presentar la información, a través de un mapa formado por nodos y arcos. Los nodos son las webs que se muestran como resultado de una búsqueda y los arcos la vinculación que existe entre las webs mostradas y las temáticas buscadas. Para ampliar información leer el estudio: Redes Semánticas y Mapas Conceptuales como Interfaces de búsqueda de información: Estudio del Metabuscador Kartoo.

Esta forma de mostrar los resultados es de gran utilidad para hacernos una idea más clara de dónde se encuentra la información que estamos buscando, la relevancia de esa información y sobre todo los vínculos entre los distintos sitios en los que se encuentra la información.

A pesar de su gran utilidad, este Metabuscador, precisamente por ser un metabuscador, falla en lo más importante: los resultados de las búsquedas genéricas son pocos satisfactorios. Aunque este defecto no se lo debemos achacar a Kartoo.com sino a los buscadores de los que obtiene los resultados.

Lenguajes acrónimos y siglas

Seguimos aclarando conceptos, con el objetivo de que todos lleguemos a una mayor comprensión de las tecnologías relacionadas con los buscadores, la web semántica,...

Definiciones extraidas de Wikipedia.

XML: Acrónimo inglés (eXtensible Markup Language - Lenguaje de marcación ampliable o extensible). Es un subconjunto de SGML. Aunque una de las principales funciones con las que nace sería suceder al HTML separando la estructura del contenido y permitiendo el desarrollo de vocabularios modulares, compatibles con cierta unidad y simplicidad del lenguaje ( objetivo que se viene desarrollando a traves de la especificación XHTML), tiene muchas otras aplicaciones entre las que destacaría un standar para el intercambio de datos entre diversas aplicaciones o software con lenguajes privados como en el caso del SOAP.Se parece al HTML en el uso de etiquetas para delimitar los elementos de un documento. Sin embargo XML define estas etiquetas en función del tipo de datos que está describiendo y no de la apariencia final que tendrán en pantalla o en la copia impresa, además permite definir nuevas etiquetas y ampliar las existentes.

SGML: Las siglas de "Standard Generalized Markup Language" o "Lenguaje de Marcación Generalizado". Consiste en un sistema para la organización y etiquetado de documentos. La Organizacion Internacional de Estándares (ISO) ha normalizado este lenguaje en 1986. El lenguaje SGML sirve para especificar las reglas de etiquetado de documentos y no impone en si ningún conjunto de etiquetas en especial.

HTML: Acrónimo inglés (Hyper Text Markup Language - Lenguaje de Marcación de Hipertexto)Lenguaje de marcación, diseñado para estructurar textos y relacionarlos en forma de hipertexto. Gracias a Internet y a los hojeadores web, se ha convertido en uno de los formatos más populares que existen para la construcción de documentos.

XHTML: es el lenguaje de marcación pensado para sustituir a HTML. Tiene, basicamente, las mismas funcionalidades que HTML solo que cumple las especificaciones más estrictas de XML. Por ejemplo: todos los tag deben cerrarse apropiadamente y deben ser escritos en minúsculas.

CSS: Hojas de estilo en cascada. Cascading Style Sheets (CSS) son un formalismo para describir como se debe formatear HTML y XML . Bastante frecuentemente, las hojas de estilo en cascada se expresa como forma plural (Google tiene nueve veces más accesos debido a la forma plural). La idea que se encuentra detrás del desarrollo de CSS es separar la estructura de un documento de su presentación.

UML: El Lenguaje de Modelamiento Unificado (UML - Unified Modeling Language) es un lenguaje gráfico para visualizar, especificar y documentar cada una de las partes que comprende el desarrollo de software. UML entrega una forma de modelar cosas conceptuales como lo son procesos de negocio y funciones de sistema, además de cosas concretas como lo son escribir clases en un lenguaje determinado, esquemas de base de datos y componentes de software reusables.

RDF Y RSS: RSS es la implementación más extendida de RDF (Infraestructura para la Descripción de Recursos). Desde el nacimiento de la web hasta hoy, existen gran cantidad de datos disponibles. Estos datos están dirigidos a humanos, pero, ante su creciente volumen, se hacía necesaria la definición de un modo de catalogarlos para aportar un medio por el que fuese posible encontrar información precisa sobre ellos empleando software. Con este fin, el W3C publicó la especificación RDF concebida como una serie de datos para definir otros datos. El estándar es, por tanto, RDF, un derivado de XML, como también lo son XHTML, SVG o MathML

Conceptos sobre la web semántica

Para que a todos nos quede más claro de qué estamos hablando cuando utilizamos determinados conceptos, vamos a poner aquí una serie de definiciones o explicaciones sobre conceptos relacionados con la web semántica, la recuperación de la información,...

Definiciones extraidas de Wikipedia.

SEMÁNTICA: La semántica se dedica al estudio del significado de los signos lingüísticos y de sus combinaciones, desde un punto de vista sincrónico o diacrónico.

SEMIÓTICA: La semiótica se define como la ciencia general de los signos. Un signo es todo lo que se refiere a otra cosa y que sirve para comunicar. En lingüística, se usan más la palabra semántica, por que la semántica es una ciencia que estudios los significados de los signos pero sólo en comunicaciones escritas, la semiótica estudia la comunicación escrita y oral.

ALGORITMO: Un algoritmo es un conjunto finito de instrucciones o pasos que sirven para ejecutar una tarea o resolver un problema. De un modo más formal, un algoritmo es una secuencia finita de instrucciones realizables, no ambiguas, cuya ejecución conduce a una resolución de un problema. El algoritmo nos da la solución genérica a un problema y lo podremos emplear todas las veces que se nos presente ese mismo problema: por ejemplo el algoritmo de la división es genérico e independiente de los números que tengamos que dividir. Las máquinas algorítmicas son aquellas capaces de llevar a cabo algoritmos, y entre ellas están los ordenadores.

ONTOLOGÍA: El término ontología en informática hace referencia al intento de formular un exhaustivo y riguroso esquema conceptual dentro de un dominio dado, con la finalidad de facilitar la comunicación y la compartición de la información entre diferentes sistemas. Esta es la diferencia con, aunque toma su nombre de una analogía con, el significado filosófico de la palabra ontología.

METAINFORMACIÓN: Datos sobre el significado de los datos. Información acerca de la información.

SISTEMAS EXPERTOS: Son sistemas expertos aquellos programas que se realizan haciendo explicito el conocimiento en ellos, que tienen información específica de un dominio concreto y que realizan una tarea relativa a este dominio. Los sistemas expertos trabajan con inteligencia artificial simbólica, es decir, a nivel de símbolos; como pueden ser ideas, imágenes, conceptos, etc. aunque debido a su naturaleza algorítmica se usen internamente estructuras de datos e instrucciones

ALGORITMOS GENÉTICOS: Son llamados así porque parten de diseños simples que se dejan evolucionar. Estos algoritmos son sometidos a acciones aleatorias semejantes a las que actúan en la evolución biológica (mutaciones y recombinación genética), así como también a una selección de acuerdo con algún criterio, en función del cual se decide cuáles son los algoritmos más adaptados, que sobreviven, y cuáles los menos aptos, que son descartados.

TESAURO: Es una lista de palabras con significados similares o relacionados. Aunque los incluye, las entradas de un tesauro no deben ser consideradas sólo como una lista de sinónimos y antónimos. Un tesauro tampoco define palabras, esta función se deja para el diccionario. En tecnología de la información, un tesauro representa una base de datos o lista de llaves de busqueda tópica semánticamente ortogonal. En el campo de la [Inteligencia_Artificial], un tesauro puede algunas veces estar referido como una ontología.

La Malla (Tecnología Grid)

La Malla (Tecnología Grid)

Hay quien propone que los recursos informáticos lleguen a un nivel de evolución como al que ha llegado las redes eléctricas. De tal forma que nuestro ordenador no funcione de manera autónoma (procesamiento, almacenamiento, datos y programas) sino que utilice los recursos de otros ordenadores a los que esté conectado.

La informática en Malla consiste en integrar a gran escala computadoras, por medio de redes de alta velocidad de forma que se puedan compartir recursos de procesado numérico intensivo o funciones que no podría conseguir un solo individuo o grupo de individuos aislado.

Grandes instituciones de Estados Unidos están creando Mallas que les permitan alcanzar niveles superiores en su trabajo, principalmente dirigidos a la investigación.

Para facilitar el acceso de los usuarios se están desarrollando normas técnicas desde el Foro Global de la Malla.

Las técnicas de Malla o Tecnologías Grid están teniendo grandes aplicaciones en la mayoría de las disciplinas científicas: medicina, biotecnología, astronomía, física nuclear,...

No solo los científicos están ultilizando las tecnologías de Malla. También las grandes emresas se ven beneficiadas al poder compartir sus recursos informáticos.

En España hay empresas que trabajan con estas tecnologías, es el caso de la empresa:Grid Systems. Esta empresa define su trabajo de la siguiente forma: "Hacemos realidad hoy los negocios del mañana. En GridSystems presentamos una revolución. Una revolución que permitirá liberar una potencia de cálculo ilimitada, ofreciendo la oportunidad a muchas empresas de adelantarse al futuro. Es tan sencillo como hacer de la unión una nueva fuerza. La tecnología grid permite que la integración de todos los ordenadores de una empresa generen una potencia mayor que la de cualquier supercomputador".

El proyecto de aplicación de la Malla más conocido es Seti@home

Feedster: el futuro?

Feedster: el futuro?

Todo depende de cuál sea el futuro de internet. Si ese futuro está vinculado a la web semantica entonces Feedster tendrá mucho que decir.

Feedster es un buscador de archivos RSS.

RSS es un formato de archivos basado en XML que permite dejar el registro de las entradas de las bitácoras, noticias de los periódicos, columnas y demás en un archivo de texto .rdf, de forma que un programa pueda entrar y extraer sólo el contenido para editarlo en una página HTML diferente.

Principalmente este sistema tiene dos utilidades: 1) importar contenidos de otras webs en la nuestra (sindicación de contenidos) y 2) poder utilizar un lector específico para visualizar varias bitácoras o periódicos al mismo tiempo, visitando sólo los que estén actualizados.

Feedster Utiliza como base de datos los archivos RSS mediante los cuales las bitácoras sindican sus contenidos permitiendo que otras páginas enlacen automáticamente a sus titulares. Esta tecnología permite sistemas de almacenamiento menores y más baratos. Lo cual es una ventaja frente a las bases de datos que usan los buscadores actuales. Otra ventaja es que los resultados para las búsquedas se actualizan cada seis horas.

Una gran idea es permitir que se realicen las búsquedas por relevancia (desconozco el sistema de relevancia que aplica a las webs)o por la fecha.

El problema es que Feedster solo muestra resultados de webs que usan archivos RSS, las cuales son una minoría de los millones de webs que hay en internet.

Hasta que llegue la web semántica

En este momento la principal deficiencia de los buscadores la encontramos cuando realizamos búsquedas generales.

Si lo que buscamos es la web de una empresa o institución, si existe, es facil que la encontremos con un buscador. Pero el problema surge cuando no hay una web en la que esté la información que nosotros buscamos. Los buscadores no son capaces de darnos pistas sobre dónde tenemos que buscar.

Esta deficiencia de los buscadores es debida a que los sitemas de clasificación y ranking no son eficientes. Ni siquiera Google con su PageRank ha sido capaz de solucionar este problema.

Los que proponen soluciones para el ranking de las webs hablan de que sean comunidades de expertos las que se dediquen a clasificar las webs de una temática concreta según su importancia. Dicen que Teoma está usando este sistema. Pero el problema es que para muchas temáticas no existen comunidades de expertos.

Los buscadores debirían de ser capaces de localizar las webs más representativas de una temática concreta y promover la constitución de comunidades en torno a esas webs.

Está claro que esto supone más trabajo para los buscadores, pero también conllevaría una ventaja competitiva para aquel buscador que fuera capaz de ofrecer mejores resultados para una búsqueda concreta.

La competencia entre buscadores no se va a centrar en la cantidad de páginas que se clasifiquen, sino en conseguir que las primeros resultados para una búsqueda sean satisfactorios para el usuario. Y hasta que la web semántica aporte soluciones a este respecto, habrá que seguir mejorando el sistema de ranking de los buscadores.

Posicionamiento en Buscadores (posicionarse en Google.com)

Posicionamiento en Buscadores (posicionarse en Google.com)

Para todo aquel que quierea posicionar sus webs en buscadores, le recomiendo el manual Posicionamiento en Buscadores: guía básica

Contiene una gran cantidad de consejos y técnicas para conseguir posicionar una web en las mejores posiciones para una búsqueda en un buscador.

Como reflexiones por mi experiencia en posicionamiento me gustaría destacar varios puntos:

- Nadie sabe realmente que esas técnicas son determinantes para conseguir los primeros puestos en una búsqueda.

- Con el paso del tiempo las webs que hacen referencia a una temática concreta se van posicionando en mejores lugares para una búsqueda.

- Las palabras clave que hay en las web es uno de los aspectos más importantes. Una web prácticamente vacía se puede posicionar para una temática concreta con tener un título que haga referencia a esa temática.

- Realmente es posible conseguir posicionar una web de calidad en los primeros lugares para un búsqueda. Lo dificil es situarte por delante de una web de la misma temática que lleva más tiempo en el buscador.

- El posicionamiento en buscadores es básicamente posicionarse en Google.com, ya que este acapara el 80% de las búsquedas a través de buscadores en internet.

Abraldes.net

Abraldes.net

Llevo meses leyendo bitácoras (soy nuevo en esto) sobre buscadores, busquedas, tecnología, inteligencia,... Pero hoy me permito dar mi primera opinión.

Abraldes.net es todo un descubrimiento (bueno, supongo que será por la persona que está detrás)

Cada día nos sorprende con una nueva aplicación en el mundo de las búsquedas, bitácoras,... Como es el caso del buscador de posts: WeblogAbout

Abraldes.net