Articles étiquettés :

Big data

1024 377 Entreprise 365

Social Monitoring : « avoir des données c’est bien, créer de la valeur c’est mieux »

Pour continuer dans notre thématique du big data (ou plutôt du smart data), nous vous proposons un petit exercice pratique de social monitoring.

The Data Deluge

Cette «vieille» couverture de The Economist, en date de mars 2010, est éloquente. Sous le titre The Data Deluge elle montre un homme d’affaires en costume sombre qui se protège d’une pluie de un et de zéro. Dans un style très londonien, ce businessman de la City, se protège de cette pluie de données à l’aide d”un parapluie. Mais ce parapluie est étrange, il est inversé, et les données ainsi collectées lui servent à faire grandir, à nourrir, une belle petite plante (« start-up », ou « jeune pousse » en français), dont les feuilles ne sont rien d’autre que des billets de banque.

"Data Deluge" titrait le magasine spécialisé The Economist en mars 2010

Couverture de The Economist en mars 2010

Cette image synthétise, à mon sens toute une approche du Big Data, où, pour certain, le simple fait d’agrandir le parapluie pour collecter plus, serait un gage de valeur. Or, le volume ne fait pas la valeur, et bien trop souvent, certains réduisent le « Big Data » aux seuls investissements dans les système de stockage et de collecte, de baies, de serveurs,  en délaissant l’essentiel, le traitement et l’analyse.

Avoir des données, pourquoi pas, mais encore faut-il en faire quelque chose.

Pour illustrer l’intérêt de la data, mais également sa nécessaire valorisation, nous vous proposons un rapide retour d”expérience autour du social monitoring.

Parce que Donner c’est données…

Pour habitude, nous préférons utiliser le terme anglais Data, en lieu et place de l’équivalent français Données. Pourquoi ? Simplement parce que le mot donnée est polysémique. Les données ne sont jamais données, (du verbe donner), elles sont construites, elles sont produites, transformées, nettoyées, raffinées par des individus, des logiciels, des algorithmes, des scripts, tant et si bien que l’on ne sait pas toujours véritablement ce que l’on mesure au final. Et il faut donc rester prudent.

Afin d’illustrer la valeur que peut apporter la Data, nous avons réalisé dernièrement pour un client, une rapide mission de social monitoring. C’est-à-dire, que nous avons observé ce qui se disait sur sa marque, pendant une période courte, ici 2 mois.

Le client en question, est une belle ETI française, spécialisée dans la transformation et la distribution de café. Elle dispose de plusieurs marques nationales, et point important pour la suite, elle compte également à son actif quelques établissements ouverts au public où il est possible de déguster ses boissons. Nous avons suivi les mentions de ces marques pendant 2 mois, à l’aide de la plateforme Microsoft Social Engagement.

Méthode et objectifs stratégiques

la mission s’est donc déroulée en 4 étapes :

  1. Configurer l’environnement de social monitoring
  2. Ajuster la machine en fonction des premiers retours
  3. Analyser les éléments collectés
  4. Formuler les recommandations

1/ Configurer l’environnement de social monitoring.

La première étape consiste à configurer la plateforme, c’est-à-dire définir le périmètre d’observation et de collecte en jouant principalement sur 2 paramètres :

  1. les mots clés utilisés pour identifier les ressources pertinentes et
  2. les sources écoutées pour identifier les ressources.

Ces étapes sont essentielles, car selon l’objectif que l’on se donne, on ajuste ce paramétrage afin d’éviter 2 phénomènes contraignants :

  • le phénomène de bruit, qui remonte du matériaux, c’est-à-dire des éléments de contenu, non directement liés au sujet, et qui surcharge les capacités d’analyses,
  • le silence, c’est-à-dire l’absence de matériaux, qui vient contrarier la formulation de recommandations.

Parmi les objectifs d’une observation en Social Monitoring, on peut par exemple :

  • Savoir ce qui se dit sur ses propres marques.
  • Mieux connaître ses clients, ses consommateurs.
  • Découvrir et observer les tendances du marché ou des concurrents

Si d’expérience, les responsables marketing et communication, privilégient le premier point, bien souvent les points 2 et 3 s’avèrent plus riches d’enseignements.

Sur Microsoft Social Engagement, solution désormais intégrée à Microsoft Dynamics 365 (pour lequel il existe de nombreuses alternatives telles que Radarly, Hootsuite, et Digimind), il est possible de suivre les actions sur Facebook, Twitter, Youtube, les flux RSS et Instagram.

Pour le cas présent, nous avons paramétré le suivi à l’aide d’une demie-douzaine de mots clés en intégrant des variations autours des 2 marques de notre clients : au singulier, au pluriel, avec et sans accent, composé, avec tiret … Avec ce paramétrage, nous avons récolté en 6 semaines, 140 «insights», c’est-à-dire 140 pièces de contenus qui peuvent être selon les plateformes, des posts, des commentaires, des messages, des partages…

2/ Ajuster la machine en fonction des premiers retours

140 éléments sur 2 mois, est-ce beaucoup me demanderez-vous ? non pas réellement, mais l’essentiel n’est pas là, l’essentiel est surtout de savoir ce que l’on peut en faire.

L’analyse de sentiment automatique, qui se base sur des algorithmes mis à disposition via le cloud de Microsoft, relève quelques avis négatifs. Youtube est le premier pourvoyeur de contenu, suivi par Twitter.

 

Petite leçon de social monitoring pour tirer de la valeur des Data

L’interface de Microsoft Social Engagement – application de Dynamics 365

Évitez de choisir un nom commun pour votre marque !

Premier enseignement, même parmi nos 140 éléments de contenu, il ressort beaucoup de bruit. En effet, l’une des 2 marques de notre client est également un patronyme très courant en France et nous découvrons que ce patronyme est également celui d’:

  • un professeur qui twitte abondamment,
  • un joueur de football,
  • un adolescent fan de jeux vidéos sur YouTube.

Le plus actif reste tout de même notre adolescent qui partage sur YouTube non seulement des vidéos de ses exploits vidéos-ludiques, mais surtout qui, à ma grande surprise, discute abondamment via la fonction commentaires de YouTube. Après ce premier nettoyage, le contenu utile est quasiment divisé par trois et Youtube devient le dernier fournisseur.

3/ Analyser les éléments collectés

L’analyse de sentiment peut constituer un bon premier angle d’approche. En effet, lorsque l’on s’intéresse à une marque, il semble opportun de traiter en priorité les réclamations et d’identifier les mécontents et surtout s’ils ont une certaine autorité. L’analyse de sentiment automatique nous remonte ainsi avec le filtre « Avis Négatif » :

  • un commentaire Facebook,
  • un message YouTube et
  • un post Twitter.

Sur ces 3 items, 2 relèvent encore de bruits. Seul le message Facebook est un vrai commentaire lié à notre marque. Ici une fan, qui a fréquenté un établissement de notre client et qui réagit à l’annonce d’un évènement. Cette fan regrette ainsi publiquement, de ne pas s’y être rendue par un «on aurait dû y aller arf !!»

Le message n’est donc pas directement négatif à l’encontre de la marque. Mais la marque aurait pu, sur cette page, réagir au commentaire pour «engager» comme on dit, la fan, déçue d’avoir manqué cet évènement. Le community manager aurait ainsi pu inviter la dite fan à une prochaine session, ou bien encore lui proposer de prendre connaissance des meilleurs moments partagés sur Instagram …

L'analyse de sentiment automatique appliqué aux posts Faceboook

L’avantage de certaines des plateformes de monitoring, est de ne pas faire QUE du monitoring. Certaines permettent également d’interagir. Cela peut être fort utile pour manager et accompagner un community manager, surtout lorsqu’il s’agit d’une jeune recrue qui pourrait assez facilement se retrouver « embarquée », comme nous le sommes tous, dans les fils d’actualité infinis de Facebook.

Continuons l’exploration en filtrant uniquement la vingtaine de posts issus de Twitter.

Twitter nous remonte des choses assez intéressantes, comme des posts automatiques repris d’Instagram. Ici, des consommateurs, partagent des photos de leur présence dans l’une des boutiques de la marque.

La tendance au check-in dans les établissements avec Instagram et le partage automatique sur Twitter.

La tendance au check-in dans les établissements avec Instagram et le partage automatique sur Twitter.

Twitter remonte également d’autres types de posts automatiques, comme des messages poussés par une application qui offre des bons d’achat sponsorisés par un distributeur GMS. Twitter remonte également des actualités économiques sur la vie de l’entreprise et ses passages dans des émissions des chaînes d’information continue.

Et sur les blogs, à quoi est associée ma marque ?

Nous pouvons ensuite filtrer sur un seconde source, ici les flux RSS, généralement associés à des blogs. Les contenus sont plus pointus avec :

  • des articles sur la stratégie des groupes de la grande distribution et leur spécialisation au travers de concept stores auxquels notre fabricant de café est associé,
  • des présentations / critiques de produits sur des blogs culinaires,
  • des articles de blog, où par exemple, une artiste nous raconte comment elle tire son inspiration de la vie des terrasses des établissements publics de notre producteur de café.

4/ Formuler des recommandations

Ce survol rapide, nous permet de «montrer» comment les marques sont perçues sur le web et ce à quoi elles sont associées. Loin des campagnes médiatiques plus classiques de la presse et de la télévision, nous relevons :

  • un repère de volumétrie permettant d’identifier des pics d’activité.
  • la sur-visibilité des 3 établissements détenus, via l’effet check-in.
  • la stratégie d’entreprise, saluée par la presse spécialisée.
  • la relative discrétion de ce qui fait le cœur du business de l’entreprise (marques nationales et produits GMS) par rapport aux établissements publics.
  • bien que nous n’ayons pas détaillé plus abondamment ce constat, le faible engagement direct avec les consommateurs.

Ce constat soulève des questions pour cette entreprise et notamment quant à la gestion de sa marque qui tantôt se retrouve associé à un établissement recevant du public, à une ETI agroalimentaire dynamique, à un fournisseur de la grande distribution. Et c’est même ce premier point qui est flagrant. Dans quelle mesure ces 3 établissements peuvent avoir un effet sur les ventes en magasins ?

Cette petite phase d’observation montre également comment toutes ces remontées peuvent constituer autant d’opportunités d’engager une conversation, d’interagir avec les auteurs, de les remercier, de les mettre en avant.

Enfin, notre étude a portée ici sur un périmètre extrêmement serré. Avec quelques mots clés élargis nous aurions pu également collecter des informations plus générales sur le marché du café, sur les tendances de consommation, voire même les thématiques auxquelles le café est associé sur les réseaux sociaux.

Pour cette marque, la mini-campagne réalisée lui a permis de prendre conscience des nombreux contenus dont elle n’était pas à l’origine. Dans le cas présent, la campagne de notoriété menée en parallèle a ainsi été très peu reprise sur les réseaux sociaux.

Pour aller plus loin sur le Social Monitoring je vous invite à prendre connaissance du passionnant ouvrage Opinion Mining et Sentiment Analysis, de Dominique Boullier et Audrey Lohard.

crise alimentaire cta webinar

Webinar Sécurité alimentaire : les solutions pour gérer votre prochaine crise

Les récents rappels sanitaires de produits de grande consommation sont nombreux. Leurs impacts sur l’image de marque et sur vos ventes peuvent être immédiats. Comment anticiper ces crises, communiquer et corriger vos actions ? Rdv le jeudi 29 mars 2018 à 11h

Je participe
expertise big data interview
1024 374 Entreprise 365

CFIA 2017 – les enjeux du big data pour la filière agro-alimentaire [vidéo]

Lors du dernier salon CFIA 2017 à Rennes, nous avons été invité à témoigner sur la web TV Agro-alimentaire du salon des professionnels de l’agro-alimentaire.

Accompagné de Cecile Liot, responsable Grand Compte chez Seed, nous avons discuté des enjeux du Big Data dans la filière agro-alimentaire.


 

 
Comment sortir de la valeur de ses données ? Comment analyser de grands volumes de données? Les perspectives vont de l’usine jusqu’au consommateur final, en passant par une évolution du business modèle de l’entreprise.

 

 

 

livre blanc usine du futur

Livre blanc L'usine du futur

Déjà une réalité : découvrez les enjeux de l’usine du futur à travers des Success stories locales et illustrées par des tribunes d’experts

Télécharger
transformation-digitale-agroalimentaire
1024 374 Entreprise 365

Big data une mine d’or pour innover en agroalimentaire ?

Quelle transformation numérique pour l’industrie agroalimentaire ?

C’est finalement par cette question que nous pourrions résumer l’atelier « Big Data : une mine d’or à exploiter pour innover en agroalimentaire ! organisé en octobre dernier par le pôle de compétitive Valorial. En effet, après une introduction générale sur le Big Data, la discussion a rapidement débordé sur des enjeux purement business : expérience utilisateur, connaissance client, désintermédiation, chaîne de valeur, réduction des coûts…

valorial__038841700_1815_04102016

Le Big Data c’est le constat relativement simple que nos actions (numériques) quotidiennes produisent des data : nos achats, nos consultations, nos lectures sur écran, nos emails, nos transactions, nos profils, nos commentaires, nos photos et nos likes produisent des data… que cela soit en tant que consommateur, qu’individus, que citoyen, ou bien en tant que collaborateur à l’intérieur d’une organisation.

A nos activités humaines intermédiées par des machines, il faut désormais ajouter toutes les machines connectées et les capteurs de l’internet des objets. La production massive des composants utilisés pour les smartphones entraîne une baisse significative des prix, qui font qu’il devient tout à fait raisonnable d’adjoindre à n’importe quel équipement un capteur connecté.

Enfin, ajoutons à cela l’activité continue des progiciels (ERP) qui enregistrent l’activité des chaines de production, et des bases de données qui stockent par exemple les éléments de traçabilité et de sécurité sanitaire.

Précision lexicale : Nous utilisons volontairement le terme anglais data plutôt que le terme français «données», car ce dernier pourrait, du fait de l’homonymie, laisser croire que les données sont données alors même qu’elles sont construites !

Si les datas sont volumineuses, elles sont également disponibles. Et oui, avec le cloud, oubliées les bandes magnétiques et leurs heures de délais de restauration. Tout devient disponible instantanément.

Autre élément abordé lors de cet atelier, si l’accumulation de data permet de suivre ce qui c’est réellement passé, et donc de faire du reporting et de prendre les mesures correctives, le temps réel permet désormais de passer au stade supérieur pour suivre ce qui se passe dans l’instant et réaliser un monitoring. La dernière avancée, avec le machine learning, est à présent de rendre accessible au plus grand nombre l’analyse prédictive, afin de projeter ce qui pourra se passer dans l’avenir comme une panne sur une chaîne de production par exemple. Ces technologies de maintenance prédictive sont déjà déployées entre autres par les ascensoristes.

Big data : Plus c’est gros plus c’est beau ?

C’est l’un des biais récurrent dans le Big Data, la seule accumulation de data permettrait la production de connaissance. Sans vouloir «jeter le bébé avec l’eau du bain», il faut rester prudent, car depuis 30 ans, et l’accumulation par la GMS des fameuses cartes de fidélité… aucune nouvelle connaissance n’est réellement sortie de ces datawarehouses, si ce n’est une hypothétique corrélation entre les ventes de couches et les packs de bière le vendredi soir.

Oui, mais les choses ont bien changé et les seules data transactionnelles (sortie de caisse) sont d’une terrible pauvreté. Ce n’est pas pour rien que des acteurs de la distribution comme Carrefour proposent désormais le wifi gratuitement des leurs propres rayons. Mais pourquoi diable leur donner la possibilité de comparer les prix ? Tout simplement parce qu’il est plus intéressant via le wifi de suivre précisément le parcours du client en magasin.

POur quelles raisons Carrefour propose du wifi gratuit dans ses magasins ?

Pour quelles raisons Carrefour propose du wifi gratuit dans ses magasins ?

Au cours des échanges de cette journée, qui regroupait essentiellement du personnel R&D et des qualiticiens de l’industrie agro-alimentaire : 2 dimensions sont particulièrement ressorties :

1/ Comment la big data peut me permettre de mieux connaitre les consommateurs de mes produits alimentaires ?

Qu’il s’agisse de fidéliser ou de conquérir de nouveaux marchés, la connaissance des consommateurs est bien le principal point de faiblesse de l’industrie agro-alimentaire, tout particulièrement lorsqu’elle travaille essentiellement avec la GMS. L’industrie ne connait les consommateurs de ses produits qu’au travers d’études de marchés et de panels coûteux et dont on se pose encore la question de l’efficience.

Or pour proposer une expérience utilisateur unique, novatrice, à valeur ajoutée, il est essentiel de bien connaitre les personnes à qui l’on s’adresse. Mais alors comment récolter de la data sur mes consommateurs ? Il existe de nombreuses options telle que :

  • la vente directe en ligne,
  • le service consommateur,
  • l’observation des discours sur la marque et les produits en ligne,
  • les boutiques de franchise,
  • les programmes de fidélité,
  • les extensions de garantie,
  • les jeux concours…

qui sont tout autant d’opportunités d’établir et d’entretenir une relation avec les consommateurs.

2/ Dans une stratégie plus défensive des IAA, comment la big data peut m’aider à optimiser mes marges ?

La transformation digitale de l’industrie apporte différentes solutions. Nous l’avons vu, l’internet des objet couplé à la maintenance prédictive permet d”anticiper les pannes et d’accroître la disponibilité des lignes de production. Mais les projets mis en avant dans les publications de «l’usine du futur» font un peut trop abstraction de la réalité quotidienne des industriels. En effet, pas si simple, surtout lorsque le matériel est hétérogène voire vétuste et que le MES est ancien et qu’il convient de moderniser son outil de production.

Pour certains industriels d’autres sources d’économie résident dans la moindre consommation des matières premiers ou de l’énergie. Les bases de données spécialisées, l’archivage des tests et des essais permettent désormais de simuler de nouvelles recettes et de tester virtuellement de nouveaux produits plus rapidement et pour des coûts de revient moindres.

à suivre : 10 transformations digitales dans l’agro

 

 

 

livre blanc usine du futur

Livre blanc L'usine du futur

Déjà une réalité : découvrez les enjeux de l’usine du futur à travers des Success stories locales et des tribunes d’experts

Télécharger

Join our Newsletter

We'll send you newsletters with news, tips & tricks. No spams here.

Contact Us

We'll send you newsletters with news, tips & tricks. No spams here.