Archives pour la catégorie Test – expérience

Au fait, c’est bien la Kindle ?

C’est la question classique qu’on me pose dès que je sors la liseuse dans un endroit publique. La France est en retard (comme souvent dans l’adoption des nouvelles technologies) , et la question est donc bien naturelle, tandis qu’aux US l’affaire est entendue (1% vs 25% !)2014-08-28 18.26.30

Alors qu’en est-il vraiment après une bonne douzaine de livres lus sur l’appareil ? Je précise que j’utilise la kindle paperwhite :

  • La lecture est agréable, quel que soit l’éclairage, que ce soit au soleil ou la nuit (d’ailleurs, plus besoin de lampe de chevet).
  • L’autonomie est excellente : 2 semaines avec quelques heures par jour de lecture.
  • La prise en main super simple. C’est une référence en matière de design. Par exemple : elle m’a été livrée en 48h déjà paramétrée avec mon compte.
  • J’apréhendais de perdre la belle sensation du papier (le velin bien couché…). Mais non, on s’en passe très bien.
  • L’objet est solide, l’écran est agréable à toucher et ne se salit pas (je sais pas en quoi est- il fabriqué, mais d’un coup de manche, toutes les traces de doigts disparaissent).
  • Les schémas et les images sont correctement affichés (livres professionnels)

A l’usage, j’ai découvert des avantages auxquels je ne m’attendais pas et qui sont très appréciables :

  • Pouvoir transporter son livre n’importe où et grapiller 10 minutes de lecture par-ci par-là. La Kindle s’emporte partout tellement elle est fine et légère.
  • La trace des mots anglais dont on demande la définition, parfait pour améliorer peu à peu son vocabulaire.
  • Le sentiment d’avoir tous ces livres réunis en un objet facile à transporter et pouvoir revenir sur un passage super rapidement grâce au surlignage ou à le marque page.
  • Pourvoir continuer sa lecture quand on a oublié sa tablette grâce aux applications Kindle installables sur n’importe quoi (ordinateur, tablette, smartphone).

En revanche, il reste encore quelques détails à améliorer:

  • Feuilleter n’est pas possible, c’est-à-dire passer d’une page à une autre rapidement. Il faut taper du doigt page par page, ce qui est rapidement énervant. Je souhaiterais une fonction de défilement comme avec une tablette. Cette fonctionnalité me manque particulièrement pour les livres professionnelles pour pouvoir repasser par mes notes une à une.
  • La fonction de surlignement est approximative et agaçante. Il faut s’y prendre à plusieurs fois pour sélectionner exactement le bout de phrase sans déborder. A la fin, on renonce et on marque toujours un peu plus, ou un peu moins, que désiré.

Au final, pour un usage personnel, c’est parfait. C’est pour l’usage professionnel que j’ai des critiques du fait des deux points précédents. Mais comme je m’attendais pas du tout à utiliser la kindle dans un cadre professionnel,  c’est un plus quand même !

Maintenant, ça fait tout drôle de se dire que sa bibliothèque de livres papier qu’on a soigneusement organisée et maintenue  ne grandira probablement plus…

Publicités

Le e-learning pour de vrai : Coursera

Le e-learning fait partie des concepts « serpent de mer » des nouvelles technologies. Né assez tôt (fin des années 90), mais jamais vraiment déployé à grande échelle. Coincé entre le mode d’emploi en ligne, et le cours ex cathedra retransmis en video, le elearning du mal à émerger comme solution alternative à l’enseignement en présentiel.

Coursera_sumaryC’était avant l’arrivée de Coursera. Je n’ai pas coutume de m’enthousiasmer pour des services web, mais là…chapeau. J’ai découvert cette plate-forme par hasard, car elle proposait un cours sur la gamification, sujet que j’affectionne tout particulièrement (voir mes billets précédents), et que j’ai donc suivi pendant 6 semaines.

Concrètement, cela se passe de la façon suivante :

Le cours est dispensé par blocs d’une dizaine de video durant  de 5 à 10mn chacune, et totalisant entre 1h et 1h30 par semaine. La video présente un plan séquence présentant le professeur de face, ou en mode incrustation sous la forme d’une petite vignette à coté d’une présentation powerpoint qu’il fait défiler au fur et à mesure de son exposé. Il y ajoute des schémas et des annotations grâce à une tablette graphique qu’il manipule hors champs.

Pendant les videos, une question à choix multiple apparait, et nécessite une bonne réponse pour pouvoir continuer la lecture.

Cours video

Chaque semaine, l’élève à trois types d’exercices :

  • Un questionnaire à choix multiple

Qcm

 

  • Un essai de de type business case de 300 à 1500 mots. Cet essai l’objet d’une évaluation par 5 autres étudiants selon une grille de notation mélangeant d’une part la présence de réponses objectifs et d’autre part la pertinence de chaque réponse. L’étudiant devra en plus se noter lui-même en utilisant la même grille. Le système calcul alors une note selon un algorithme mélangeant toutes les notes attribuées par les 5 étudiants et par l’auteur de l’essai.

Peer assesment

  • Enfin, un examen final est proposé au bout des 6 semaines sous la forme d’un questionnaire à choix multiple.

L’objectif donné au départ est d’obtenir un moyenne de 70% sur tous les exercices pour obtenir le « crédit ».

En complément, un forum est disponible pendant toute la durée du cours et permet aux étudiants d’échanger et de s’entraider sur les différents exercices.

Le dispositif est incroyablement simple. 70 000 élèves l’ont d’ailleurs suivi, ce qui un chiffre tout bonnement sidérant, d’autant que c’était l’un des premiers cours du genre à être dispensé sur cette plate-forme.

Voila pourquoi, à mon sens, ce dispositif est promis à un très gros succès :

  • Il est très simple à utiliser
  • Il est peu contraignant pour les enseignants (modulo une capacité à s’exprimer correctement devant une caméra, ce que les américains savent particulièrement bien faire en général)
  • Il permet une grande liberté pour l’enseignant (utilisation de ses propres présentations et qcm) et lui laisse l’opportunité d’exprimer son charisme et sa pédagogie
  • Il s’appuie sur des briques technologiques très matures (video, qcm, forumn webapp,…)
  • Il intègre des éléments de fidélisation qui encouragent  l’engagement des élèves
  • Le système de notation est suffisamment exigent sans être trop scolaire
  • Il est gratuit !… en tout cas pour l’instant. Coursera est une initiative open source portée par  des grands noms du web.

 

J’ai pour ma part pris un grand plaisir à suivre l’enseignement. Il remplace très largement la lecture d’un livre !!!!

Update : j’ai obtenu le-dit crédit de l’université de Pennsylvanie, The Wharton School, voila à quoi cela ressemble: Téléchargement Wharton certificate gamification

Pour info, 8000 personnes sur les 70 000 l’ont obtenu selon les statistiques publiées par Pr Werbach (#Kwerb).

Investir sans mesure , dure réalité du emarketing !  

Ce texte est adapté d’une Tribune  que j’avais publiée sur le site de Fullsix en  2008.

Chaque jour apporte son lot de statistiques mesurant l’intensification du transfert des investissements publicitaires vers le on-line. Les chiffres sont astronomiques, démesurés, +20% en , +30% par là.

Mais précisément, comment ces investissements sont-ils mesurés ?

J’avais mis en place récemment pour un grand groupe international de la grande consommation des outils de mesure de l’activité internet. Si au départ cette demande m’avait a surprise (comment se fait-il qu’un tel groupe ne dispose-t-il pas d’outils performants en ce domaine ?), la réalité opérationnelle m’a rapidement fait prendre conscience de l’énorme complexité du sujet et des résistances importantes qu’il déclenchait.

CarpetBombing1

Carpet bombing

Avant de détailler tous les obstacles qu’il a fallu franchir, je souhaitais faire une analogie certes guerrière et peut être simpliste, mais qui a le mérite de mettre les pieds « dans le plat » comme on dit. La deuxième guerre mondiale a vu le succès de l’aviation sur toutes les autres armes. Les bombardiers ratissaient large les infrastructures ennemies pour laisser passer l’infanterie. On parlait en kilo tonnes de TNT déversées et les pilotes n’avaient qu’une carte et une boussole pour se guider. Qu’en est-il aujourd’hui ? Les bombardiers  sont infiniment moins nombreux et se contentent de lancer un missile à guidage laser à quelque dizaines de kilomètres de l’objectif, GPS, logiciels, caméras thermiques font le reste pour atteindre l’objectif au millimètre. Terminé le tapis de bombes, tout est maintenant concentré sur le système de guidage et de mesure. Le résultant est connu instantanément via satellite.

On le sait maintenant, qui possède les systèmes de mesure – et de contre mesure, maîtrise le ciel. L’investissement en volume (bombes ou avion) a fortement diminué au profit  des systèmes de guidage, de détection, de pilotage. Et c’est le point je voulais en venir : les militaires ont compris avant toute le monde l’importance des systèmes de mesure pour améliorer leur capacité à atteindre les objectifs.  S’en sont suivi les grandes entreprises, qui ont déployé ces deux dernières décennies, et à coup de plusieurs dizaines voire centaines de millions d’euros des ERP pour centraliser toutes l’information opérationnelle et comptable afin d’avoir une vue rapide et fiable de leur situation.

Et qu’en est-il des dizaines de millions d’euros qui seront investis dans les prochains mois dans le domaine on line, qu’en est-il des systèmes qui vont mesurer leur résultat ? Ont-ils reçu un investissement en proportion ? L’investissement fait par les services marketing  sur ces sujets donne la réponse. Ils sont extrêmement faibles, à  preuve le fait que les reportings sont sous traités aux régies publicitaires « pour le même prix », les tagages[1] des sites internet sont confiés aux agences dans une ligne budgétaire aussitôt sacrifiée au premier dépassement, etc.

S’agit-il principalement d’une question de moyens ? L’absence de mesure tiendrait-elle uniquement au manque de sensibilité des marketers à ces nouveaux outils marketing qui véhiculent tant d’informations ?

En partie oui, mais pas seulement. Pour revenir à notre exemple de notre grand groupe international, les problèmes sont effectivement complexes, l’argent ne pouvant pas tous les résoudre.

En premier lieu, il y a la fameuse décentralisation qui a pour objectif de laisser une grande liberté au niveau local pour adapter au plus près la communication au niveau de chaque pays. Chaque business unit a décidé, à des époques différentes d’investir sur Internet, et c’est bien normal car chaque marché ayant mûri à des moments différents. Mais, du coup, les  technologies utilisées pour les sites internet sont différentes, ne parlons pas des systèmes de mesure d’audience.   La première complexité consiste donc à traduire cet existant afin de disposer d’une vision globale sur tous les marchés en s’affranchissant de l’hétérogénéité des systèmes. Cela relève d’une expertise qui connait tous les outils de mesure du marché (et leurs versions !), qui puisse auditer l’ensemble des sites pour en valider le tagage pour en vérifier l’uniformité, au besoin, faire exécuter les modifications au travers des différentes sociétés qui les ont fabriqués  (agences ou SSII) aux quatre coins de la planète et au passage, faire baisser de 30 % les statistiques de certains sites, ce qui a pour effet de créer de la résistance des patrons de business unit…Bref, une action qui demande beaucoup d’expertise, de politique et de temps…ce dont on dispose peu dans l’univers internet.

Ensuite, il y a l’impérieuse nécessité de comparaison. A quoi sert-il d’avoir des chiffres si l’on ne peut pas les comparer à ses concurrents ?  Or les données disponibles sont rares. Des sociétés[2] disposent de panels qui sont censés fournir les données mondiales. Dans la réalité, seuls les très gros sites portails peuvent s’enorgueillir de figurer. Pour les autres, et c’est le cas de la plupart des sites de grandes groupes de la grande consommation, l’audience est insuffisante pour être significatives en particulier hors USA, UK et France. Le croisement des données obtenues par les systèmes de mesure des sites internet par rapport aux chiffres donnés par ces sociétés le prouve. Il faudra attendre encore longtemps avant que ces données soient disponibles.

Il reste donc la possibilité de se comparer avec soi-même, chose possible lorsqu’on est un groupe international gérant plusieurs dizaines de marques dans 50 pays…mais c’est sans compter sur la puissance des marques ? Comment comparer deux marques entre elles qui n’ont pas le même positionnement (ce qui est souvent le cas, il est vrai au sein d’un groupe qui gère soigneusement son portefeuille de marque pour éviter les recouvrements…). Donc, a priori, pas de solution ? Si, en introduisant une bonne dose de conduite du changement, il est possible de comparer, ou plutôt de se constituer une banque de données pour s’étalonner. Là encore, il y a nécessité de beaucoup communiquer pour faire accepter une telle démarche, sauf à avoir un management directif, ce qui est peu le cas des sociétés dynamiques qui parient sur l’initiative locale…

Après, il est nécessaire de se mettre d’accord sur des indicateurs communs.

Certains sont très attachés à la notion de visiteurs uniques, car simples à comprendre. Or techniquement, cette information devient de plus en plus fausse, à mesure que les systèmes antivirus et antispyware sont déployés sur tous les ordinateurs du monde entier.

D’autres préfèrent la page vue, mais elle dépend énormément des choix technologiques faits lors de la construction d’un site internet, choix dans lequel les marketeurs ne rentrent généralement pas. Or l’impact peut être de 1 à 30, et comment dès lors comparer des pays entre eux si les technologies sont différentes…

D’autres encore ne jurent que par le temps de visite,  trouvant ainsi un moyen de raccrocher aux modèles de la télévision. Là encore, au-delà de la limite technique de cet indicateur, le temps d’exposition à un site internet est-il totalement indépendant de ce qu’on y fait. Commander prend plus de temps que de feuilleter ?

Ces exemples démontrent le type de débats qui soulèvent  les indicateurs, et ce  ne sont que les  plus simples. Comment mettre alors toutes les personnes d’accord et surtout leur expliquer que l’important n’est pas l’indicateur, mais son suivi dans le temps et les analyses qu’ils suscitent ? D’autant que les meetings internationaux sont rares…

Enfin, il y a un manque important d’investissements visant à l’intégration des dispositifs internet. Prenons l’exemple des contacts accumulés par les sites internet. C’est, en plus de vendre, une fonction essentielle des sites internet. Plus on inscrit de personnes dans ses newsletters, plus on génère de trafic répété, plus on vend. C’est mathématique. Reste à déterminer le coût d’acquisition d’un contact, sa durée de vie et sa propension à acheter ou non. Ces différentes informations permettent alors de tuner les investissements publicitaires (en optimisant le media qui génère le plus d’abonnés) et en évaluant mieux la fréquence et le contenu des newsletters. Mon expérience m’a appris que les systèmes de gestion de contact, du fait de la diversité de leur provenance, manquent cruellement d’informations pour mesurer tout cela. Il faut effectivement déterminer des règles de gestion et des imports en provenance des routeurs de newsletter,  taguer systématiquement et rigoureusement chaque newsletter produite en général par les agences, créer des compteurs ad hoc dans les systèmes, etc…Là encore, il n’existe pas de fonctions dans les grandes entreprises chargées de centraliser ces enjeux et de les relayer au niveau le plus fin. Ces données pourtant fondamentales ne sont donc pas disponibles. Un exemple, demandez à votre responsable internet le nombre de contacts sur les 12 mois qui n’ont pas acheté et combien ils ont coûté…

Bref, la route est longue avant que les services marketing évaluent réellement leurs investissements et les DG puissent réellement y voir quelque chose pour les réduire ou les augmenter. Et du coup, la hauteur de ces investissements est décidé un peu à l’aveugle ou par effet de mode. Le marché a du mal à donner un prix à ces campagnes et dispositifs car totalement décorrellés de ce qu’ils rapportent. Et c’est ce qui explique bien souvent les budgets si différents proposés par les agences pour une même problématique…et au final l’incompréhension des DG qui utilisent rapidement ces anomalies pour déconsidérer l’activité Internet et réduire l’effort passé sur ce thème. La boucle est bouclé…Il va falloir attendre un certain temps avant qu’on ne prenne au sérieux le emarketing !!!

 

[1] Anglicisme provenant du mot tag, désignant un petit morceau de code informatique qui, placé dans les pages des sites internet permettent d’indiquer leur niveau de fréquentation. Posés à bon escient, ces tags permettent d’accumuler beaucoup d’informations sur le parcours, la provenance, et les achats des internautes.

[2] Les plus connues sont Comscore (la plus internationale), Nielsen Net Ratings (surtout pour l’Europe), Hitwise (USA et UK uniquement).