Monthly Archives: décembre 2008

Wikio orphelin

Pierre Chappaz a annoncé sur son blog Kelblog sa mise en retrait du monde du web.

En effet, face aux multiples critiques personnelles qui lui ont été adressées par la blogosphère, Mr Wikio a décidé de se cesser toute activité en rapport avec le net.

Alors, même si les blogeurs n’ont pas eu la peau de Wikio, ils ont provoqué le retrait de Mr Chappaz. Et je trouve cela navrant, car un pays qui casse ses élites, c’est un pays qui régresse.

La France a besoin d’entrepreneur comme lui.

En tous les cas, je tiens à dire que même si je n’aime toujours pas la formule du classement Wikio,  j’apprécie  Wikio et Kelkoo ainsi que l’homme, qui me semble être quelqu’un de très bien.

Publicités

Vers une rébellion de la blogosphère française contre Mr Arrington?

Mickael Arrington a récemment critiqué la France en disant que les entrepreneurs français étaient des  paresseux car ils prenaient des déjeuners de deux heures dans des grands restos.
Loic Le Meur n’a pas apprécié et se demande s’il doit inviter le blogeur de Techcrunch à la conférence Web de l’année prochaine.

Un sondage à ce sujet est d’ailleurs en place sur le blog de Mr Seesmic

Alors va-t-on assister à une tentative de blacklistage des blogs de Mr Arrington par la blogosphère française?

Va-t-on voir arriver sur les blogs français, à l’image de l’affaire Martinez – Presse Citron, une bannière signifiant que les blogeurs français n’aiment pas Mr Arrington?

Les blogeurs français protesteront-ils en s’interdisant de cliquer sur les publicités Techcrunch?

Je m’interroge…

Réponse dans les prochains jours.

Marketing sur Twitter: Un taux de transformation entre 30 et 40 %

Twitter est devenu pour les sociétés web un outil de marketing d’une très grande importance.

En effet, chaque start-up employant ce service multiplie son nombre de following, dans l’espoir de se faire connaitre et d’être éventuellement suivis par la suite par d’autres twitteurs.

Voyons deux exemples.

MotionSponsor, par le biais de son créateur Rafik Benhamou, a appliqué cette stratégie pour se faire connaitre.

twitter-filmbuddy_1228919688850

Actuellement, il suit 1730 personnes et est suivi par 530 followers.

Le taux de transformation est  de 33,50 %

Unikity a employé la même méthode.

twitter-unikity_1228919647380

Le taux de transformation est ici de 38,10 %

Il semblerait donc qu’en fonction du type de société, le taux de transformation marketing pour une start-up utilisant Twitter varie entre 30 et 40 %.

Néanmoins, cette étude ne se base que sur 2  cas concrets. Si vous avez d’autres exemples de sociétés utilisant Twitter comme mode de communication marketing, laissez-moi un commentaire. Je me ferai un plaisir d’effectuer une mise à jour.


Twitter: l’attrait sans la déprime de ne pas être lu.

L’avantage avec Twitter, c’est que si on n’est pas lu, on s’en fout et on n’a pas perdu de temps.

En effet, contrairement à un blog où l’on met du cœur et du temps à écrire ses articles dans l’espoir d’être lu.

Sur Twitter, de part sa spécificité, poster un message ne prend que quelques secondes.

Du coup, si personne ne vous lit, cela ne vous décourage pas trop.

Vous recommencez à publier un peu plus tard car votre investissement est minime.

En tous les cas, moi, pour l’instant, je suis serein. Je n’ai que 4 copains…

twitter-home_1228521627107

Wikio: l’algorithme qui ne sert à rien

Le classement Wikio de décembre est paru.

Dans la catégorie High-Tech, on peut dire que le nouvel algorithme est une vraie réussite.

Par rapport au mois dernier, il n’y a quasiment aucune modification dans les premiers.

high-tech_1228431127811

Le classement wikio redevient statique comme avant.

Je me pose donc une question: A quoi sert donc le Wikio Labs?

Le web prédit l’avenir

L’avenir ne se lit pas dans les boules de cristal mais sur Internet.

En effet, Google vient de dévoiler  Google Flu Trends (Cet article ou cette section doit être recyclé. Sa qualité devrait être largement améliorée en le réorganisant et en le…).  C’est un outil qui est capable de tracer l’intensité et l’étendue des fluctuations de la grippe à travers les États-Unis, simplement en observant les requêtes sur ce sujet des utilisateurs de son moteur (Un moteur est un dispositif transformant une énergie non-mécanique (éolienne, chimique, électrique, thermique par…) de recherche (La recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de…).

nos-requetes-sur-google-tracent-les-evolutions-de-la-grippe_1227996743156

Désormais, il est donc possible de prévoir les maladies avant que celles-ci n’infectent la population.

A mes yeux, cet outil se rapproche énormément des WebBots.

Les webbots sont des projets qui visent à tenter de prédire l’avenir de l’humanité à l’aide d’ordinateurs.
– le “Global Consciousness Project” qui tire des conclusions en fonction de l’analyse des flux de nombres aléatoires
-le projet WebBot qui scanne la “conscience” (ou “l’inconscient collectif”) de l’humanité sur le Web.

Les données recueillies auprès des WebBot ont été utilisées à l’origine sur les marchés financiers où la cupidité et la peur des masses est appelé à conduire la volatilité des prix. Le principe du projet WEB BOT est de lancer un tas de « robots » passant le web au peigne fin. Les concepteurs ont fait le pari suivant : En faisant un balayage systématique du web, ils comptent obtenir un résumé de l’inconscient collectif, et par la même occasion, une vision de l’avenir.
Cet outil est censé pouvoir de prévoir l’avenir sur le Web en se fondant sur les habitudes de navigation concernant les informations. Le WebBot conceptualise un futur modèle de comportement sur la base des nouvelles récentes et psychologique des requêtes des masses.

Cela peut pour certains ressembler être un type de l’IA (intelligence artificielle). Les WebBots ont prédit certains événements avec un niveau de précision qui méritent un examen sérieux.
Ils ont déjà fait leurs preuves en août 2004, où ils ont prédit un grand tremblement de terre accompagné de vagues dévastatrice qui ferait 300 000 morts. Le tsunami a frappé en décembre 2004, la coupure de courant général sur la cote ouest des États-Unis en 2003, les ravages de l’ouragan « Katrina » en 2005. Plus étonnant encore, en juin 2001, ils ont prédit que dans les 60 à 90 jours suivant, se produirait un événement qui allait changer la vie des Américains. En Septembre, deux avions frappent les deux tours jumelles du World Trade Center. Pour l’avenir, les Web bots nous prévoient une guerre nucléaire de courte portée courant 2008-2009 …
Comment fonctionne cette machine ?

Le ‘Webbot’ est une des techniques pour faire du “Web Scraping” (il y en a d’autres). En gros, c’est un programme qui fait de l’extraction de contenu en visitant les sites Web. II fonctionne un peu comme un robot de moteur de recherche et va fouiller dans les groupes de discussion, sites personnels et ceci en plusieurs langues…
Le WebBot se concentre sur certains mots et à partir de ce point central, il met ce mot en corrélation avec l’information universelle afin de quantifier ce mot par rapport à d’autres mots. Si la machine ne fait que se programmer elle-même, d’après les informations sur le Web, alors comment ces décisions peuvent prendre effet dans la société car comme nous le savons l’Internet est rempli d’erreur.

Les données recueillies vont  ensuite être filtrée via l’utilisation d’au moins 7 couches de traitement linguistique en langage Prolog. (le langage de l’intelligence artificielle)
Les données recueillies sont ensuite ramenées à des numéros d’où résultent une série de carte de dispersion des parcelles sur de multiples couches IntelliCAD.

Ensuite, on analyse sur une période de temps donnée, le diagramme de dispersion des points et la tendance de ces derniers à se structurer en zones très concentrées. Chaque point sur le diagramme de dispersion peut représenter plusieurs centaine de mots.
Pour définir un sens à cette analyse, des mots ou groupes de mots doivent être réduits à leur essence. Le processus est comme une recherche du “plus petit commun dénominateur” entre les groupes de mots.

Le noyau de la technologie est donc de voir comment les nuages de points se condensent en “haute densité”, zones que nous appelons «entités» et on observe leur diffusion dans le temps en fonction du changement “entités”.

Comment se fait la prédiction ? En naviguant de point en point, on obtient une série de phrases.

C’est ainsi que la présentation de Flu Trends par Google me fait bien rire.

Ils nous font croire d’une avancée exceptionnelle avec leur prédiction de la grippe, alors, qu’en réalité, ils disposent d’informations prédictives sur la population beaucoup plus importante.

NB: Toutes les explications sur les Webbots proviennent du blog de Gérard Lefeuvre (Qui perd gagne). Je le remercie pour sa description lumineuse et précise.

Wikio: Ce n’est plus de la pub, c’est un placard

Je viens de découvrir une énorme pub sur Wikio.

Je n’avais encore jamais vu une pub aussi grosse sur ce site.

C’est peut être une proposition de la part du Wikio Labs, mais je n’en suis pas sûr.

Malheureusement, je crois que Franck Perrier avait vu juste avec un peu d’avance.

En tous les cas,  le Wikio Clean est probablement  mort…

Iphone vs Gphone: L’écart se resserre

Dans le classement Wikio (catégorie High Tech), le mois de Novembre a vu une forte réduction de l’écart entre les blog consacrés à l’Iphone et ceux consacrés au Gphone. Désormais, il n’y a plus que 67 places d’écart.

De plus, beaucoup de blog sur l’Iphone sont en perte de vitesse contrairement à ceux sur le  Gphone qui progressent tous.

Iphone

high-tech_1227979331121

Gphone

high-tech_1227980202227

Comme je le disais récemment, l’inversion des positions est pour bientôt.