Category Archives: Société

Deguilhermier: l’anti-flux.

Fidèle lecteur du blog de Michel De Guilhermier depuis maintenant plus d’un an, cet homme se révèle être un fossile vivant dans le monde du blogging.

En effet, sur son site vieillot, aucune proposition d’abonnement à un  flux RSS, aucune publicité, aucun lien vers un quelconque  réseau social.

Sur son blog, vous ne trouverez rien qui ne soit en accord avec les standards actuels de la blogosphère

De ce fait, il est probablement  l’un des derniers internautes à blogger pour le plaisir, à l’ancienne. On pourrait le qualifier de dinosaure de la blogosphère, rester inconditionnellement fidèle à l’esprit du blogging initial…

Et malgré cela, mais je sais qu’il fait partie des blogeurs les plus influents dans ses domaines de prédilétion: le commerce et l’ecommerce.

La classe quoi …

Publicités

Monetiweb en chute libre

Monetiweb aurait-il fait le tour des différents conseils pour monétiser et gagner de l’argent avec son blog.

En observant le nombre d’articles publiés par mois, on se rend compte que ce blog n’est plus tellement actif.

monetiweLe nombre de billets paraissant chaque mois est en chute libre. Est ce la fin de ce site?

Non, je ne le pense pas, car avec l’arrivée du statut d’autoentrepreneur, de nouveaux billets sont en perspective.

Mais quel en sera le nombre et pour combien de temps?

Vers une rébellion de la blogosphère française contre Mr Arrington?

Mickael Arrington a récemment critiqué la France en disant que les entrepreneurs français étaient des  paresseux car ils prenaient des déjeuners de deux heures dans des grands restos.
Loic Le Meur n’a pas apprécié et se demande s’il doit inviter le blogeur de Techcrunch à la conférence Web de l’année prochaine.

Un sondage à ce sujet est d’ailleurs en place sur le blog de Mr Seesmic

Alors va-t-on assister à une tentative de blacklistage des blogs de Mr Arrington par la blogosphère française?

Va-t-on voir arriver sur les blogs français, à l’image de l’affaire Martinez – Presse Citron, une bannière signifiant que les blogeurs français n’aiment pas Mr Arrington?

Les blogeurs français protesteront-ils en s’interdisant de cliquer sur les publicités Techcrunch?

Je m’interroge…

Réponse dans les prochains jours.

Le web prédit l’avenir

L’avenir ne se lit pas dans les boules de cristal mais sur Internet.

En effet, Google vient de dévoiler  Google Flu Trends (Cet article ou cette section doit être recyclé. Sa qualité devrait être largement améliorée en le réorganisant et en le…).  C’est un outil qui est capable de tracer l’intensité et l’étendue des fluctuations de la grippe à travers les États-Unis, simplement en observant les requêtes sur ce sujet des utilisateurs de son moteur (Un moteur est un dispositif transformant une énergie non-mécanique (éolienne, chimique, électrique, thermique par…) de recherche (La recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de…).

nos-requetes-sur-google-tracent-les-evolutions-de-la-grippe_1227996743156

Désormais, il est donc possible de prévoir les maladies avant que celles-ci n’infectent la population.

A mes yeux, cet outil se rapproche énormément des WebBots.

Les webbots sont des projets qui visent à tenter de prédire l’avenir de l’humanité à l’aide d’ordinateurs.
– le “Global Consciousness Project” qui tire des conclusions en fonction de l’analyse des flux de nombres aléatoires
-le projet WebBot qui scanne la “conscience” (ou “l’inconscient collectif”) de l’humanité sur le Web.

Les données recueillies auprès des WebBot ont été utilisées à l’origine sur les marchés financiers où la cupidité et la peur des masses est appelé à conduire la volatilité des prix. Le principe du projet WEB BOT est de lancer un tas de « robots » passant le web au peigne fin. Les concepteurs ont fait le pari suivant : En faisant un balayage systématique du web, ils comptent obtenir un résumé de l’inconscient collectif, et par la même occasion, une vision de l’avenir.
Cet outil est censé pouvoir de prévoir l’avenir sur le Web en se fondant sur les habitudes de navigation concernant les informations. Le WebBot conceptualise un futur modèle de comportement sur la base des nouvelles récentes et psychologique des requêtes des masses.

Cela peut pour certains ressembler être un type de l’IA (intelligence artificielle). Les WebBots ont prédit certains événements avec un niveau de précision qui méritent un examen sérieux.
Ils ont déjà fait leurs preuves en août 2004, où ils ont prédit un grand tremblement de terre accompagné de vagues dévastatrice qui ferait 300 000 morts. Le tsunami a frappé en décembre 2004, la coupure de courant général sur la cote ouest des États-Unis en 2003, les ravages de l’ouragan « Katrina » en 2005. Plus étonnant encore, en juin 2001, ils ont prédit que dans les 60 à 90 jours suivant, se produirait un événement qui allait changer la vie des Américains. En Septembre, deux avions frappent les deux tours jumelles du World Trade Center. Pour l’avenir, les Web bots nous prévoient une guerre nucléaire de courte portée courant 2008-2009 …
Comment fonctionne cette machine ?

Le ‘Webbot’ est une des techniques pour faire du “Web Scraping” (il y en a d’autres). En gros, c’est un programme qui fait de l’extraction de contenu en visitant les sites Web. II fonctionne un peu comme un robot de moteur de recherche et va fouiller dans les groupes de discussion, sites personnels et ceci en plusieurs langues…
Le WebBot se concentre sur certains mots et à partir de ce point central, il met ce mot en corrélation avec l’information universelle afin de quantifier ce mot par rapport à d’autres mots. Si la machine ne fait que se programmer elle-même, d’après les informations sur le Web, alors comment ces décisions peuvent prendre effet dans la société car comme nous le savons l’Internet est rempli d’erreur.

Les données recueillies vont  ensuite être filtrée via l’utilisation d’au moins 7 couches de traitement linguistique en langage Prolog. (le langage de l’intelligence artificielle)
Les données recueillies sont ensuite ramenées à des numéros d’où résultent une série de carte de dispersion des parcelles sur de multiples couches IntelliCAD.

Ensuite, on analyse sur une période de temps donnée, le diagramme de dispersion des points et la tendance de ces derniers à se structurer en zones très concentrées. Chaque point sur le diagramme de dispersion peut représenter plusieurs centaine de mots.
Pour définir un sens à cette analyse, des mots ou groupes de mots doivent être réduits à leur essence. Le processus est comme une recherche du “plus petit commun dénominateur” entre les groupes de mots.

Le noyau de la technologie est donc de voir comment les nuages de points se condensent en “haute densité”, zones que nous appelons «entités» et on observe leur diffusion dans le temps en fonction du changement “entités”.

Comment se fait la prédiction ? En naviguant de point en point, on obtient une série de phrases.

C’est ainsi que la présentation de Flu Trends par Google me fait bien rire.

Ils nous font croire d’une avancée exceptionnelle avec leur prédiction de la grippe, alors, qu’en réalité, ils disposent d’informations prédictives sur la population beaucoup plus importante.

NB: Toutes les explications sur les Webbots proviennent du blog de Gérard Lefeuvre (Qui perd gagne). Je le remercie pour sa description lumineuse et précise.

La courbe qui fait peur.

Je vais vous parler de la bourse avec cette courbe qui n’en finit plus de chuter. Il s’agit de celle du CAC 40. Depuis de nombreux mois, elle ne cesse de fléchir.

Ce qui n’avait inquiété personne jusqu’à ces dernières semaines où la recherche de l’indicateur CAC 40 a explosé dans les moteurs de recherches.

l

Si j’étais vache, je dirais que celle-ci croit d’une manière exponentielle