Le web prédit l’avenir

L’avenir ne se lit pas dans les boules de cristal mais sur Internet.

En effet, Google vient de dévoiler  Google Flu Trends (Cet article ou cette section doit être recyclé. Sa qualité devrait être largement améliorée en le réorganisant et en le…).  C’est un outil qui est capable de tracer l’intensité et l’étendue des fluctuations de la grippe à travers les États-Unis, simplement en observant les requêtes sur ce sujet des utilisateurs de son moteur (Un moteur est un dispositif transformant une énergie non-mécanique (éolienne, chimique, électrique, thermique par…) de recherche (La recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de…).

nos-requetes-sur-google-tracent-les-evolutions-de-la-grippe_1227996743156

Désormais, il est donc possible de prévoir les maladies avant que celles-ci n’infectent la population.

A mes yeux, cet outil se rapproche énormément des WebBots.

Les webbots sont des projets qui visent à tenter de prédire l’avenir de l’humanité à l’aide d’ordinateurs.
– le “Global Consciousness Project” qui tire des conclusions en fonction de l’analyse des flux de nombres aléatoires
-le projet WebBot qui scanne la “conscience” (ou “l’inconscient collectif”) de l’humanité sur le Web.

Les données recueillies auprès des WebBot ont été utilisées à l’origine sur les marchés financiers où la cupidité et la peur des masses est appelé à conduire la volatilité des prix. Le principe du projet WEB BOT est de lancer un tas de « robots » passant le web au peigne fin. Les concepteurs ont fait le pari suivant : En faisant un balayage systématique du web, ils comptent obtenir un résumé de l’inconscient collectif, et par la même occasion, une vision de l’avenir.
Cet outil est censé pouvoir de prévoir l’avenir sur le Web en se fondant sur les habitudes de navigation concernant les informations. Le WebBot conceptualise un futur modèle de comportement sur la base des nouvelles récentes et psychologique des requêtes des masses.

Cela peut pour certains ressembler être un type de l’IA (intelligence artificielle). Les WebBots ont prédit certains événements avec un niveau de précision qui méritent un examen sérieux.
Ils ont déjà fait leurs preuves en août 2004, où ils ont prédit un grand tremblement de terre accompagné de vagues dévastatrice qui ferait 300 000 morts. Le tsunami a frappé en décembre 2004, la coupure de courant général sur la cote ouest des États-Unis en 2003, les ravages de l’ouragan « Katrina » en 2005. Plus étonnant encore, en juin 2001, ils ont prédit que dans les 60 à 90 jours suivant, se produirait un événement qui allait changer la vie des Américains. En Septembre, deux avions frappent les deux tours jumelles du World Trade Center. Pour l’avenir, les Web bots nous prévoient une guerre nucléaire de courte portée courant 2008-2009 …
Comment fonctionne cette machine ?

Le ‘Webbot’ est une des techniques pour faire du “Web Scraping” (il y en a d’autres). En gros, c’est un programme qui fait de l’extraction de contenu en visitant les sites Web. II fonctionne un peu comme un robot de moteur de recherche et va fouiller dans les groupes de discussion, sites personnels et ceci en plusieurs langues…
Le WebBot se concentre sur certains mots et à partir de ce point central, il met ce mot en corrélation avec l’information universelle afin de quantifier ce mot par rapport à d’autres mots. Si la machine ne fait que se programmer elle-même, d’après les informations sur le Web, alors comment ces décisions peuvent prendre effet dans la société car comme nous le savons l’Internet est rempli d’erreur.

Les données recueillies vont  ensuite être filtrée via l’utilisation d’au moins 7 couches de traitement linguistique en langage Prolog. (le langage de l’intelligence artificielle)
Les données recueillies sont ensuite ramenées à des numéros d’où résultent une série de carte de dispersion des parcelles sur de multiples couches IntelliCAD.

Ensuite, on analyse sur une période de temps donnée, le diagramme de dispersion des points et la tendance de ces derniers à se structurer en zones très concentrées. Chaque point sur le diagramme de dispersion peut représenter plusieurs centaine de mots.
Pour définir un sens à cette analyse, des mots ou groupes de mots doivent être réduits à leur essence. Le processus est comme une recherche du “plus petit commun dénominateur” entre les groupes de mots.

Le noyau de la technologie est donc de voir comment les nuages de points se condensent en “haute densité”, zones que nous appelons «entités» et on observe leur diffusion dans le temps en fonction du changement “entités”.

Comment se fait la prédiction ? En naviguant de point en point, on obtient une série de phrases.

C’est ainsi que la présentation de Flu Trends par Google me fait bien rire.

Ils nous font croire d’une avancée exceptionnelle avec leur prédiction de la grippe, alors, qu’en réalité, ils disposent d’informations prédictives sur la population beaucoup plus importante.

NB: Toutes les explications sur les Webbots proviennent du blog de Gérard Lefeuvre (Qui perd gagne). Je le remercie pour sa description lumineuse et précise.

Publicités
Post a comment or leave a trackback: Trackback URL.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :