Votre organisation

Comment ?!?!? Vous n'animez pas de webinaires ?

Le webinaire est un moyen ludique et peu contraignant d'améliorer la visibilité de votre société et de votre offre. Démonstration visuelle, identité marquée, contacts avec votre cible de prospect... Les bénéfices sont multiples. Un petit bilan sur pourquoi et comment mettre en place des sessions de webinaires.

Vous connaissez mal les webinars et vous n’avez pas pris le temps de vous renseigner plus jusqu’à maintenant ? Erreur ! Car si cet outil est encore peu utilisé, il peut vous permettre d’optimiser d’augmenter considérablement votre base de prospects et l’attachement à votre marque. Vous vous demandez comment ? Lisez cet article, j’y détaille tous les secrets du webinar. De quoi vous convaincre de vous lancer dans cette aventure !

Le webinar : Kesako

Parlons peu, parlons bien : je dois avant toute chose vous expliquer ce qu’est un webinar ! En fait c’est très simple ! Il s’agit de la contraction des mots « web » et « seminar ». Autrement dit : c’est un séminaire (ou une conférence, un atelier…) organisé par votre entreprise, diffusé uniquement sur le web. Vous n’accueillez donc pas un chat dans vos locaux : vos intervenants interagissent via leur ordinateur, en direct avec leur audience.

Pourquoi vous lancer dans un webinar ?

Si vous n’aviez pas encore compris mes nombreuses allusions, sachez que cet outil à des avantages incontestables ! Je vous en cite quelques-uns :

  • Vos prospects n’ont pas à se déplacer. Ça signifie moins de coûts logistiques et de perte de temps : ils seront donc plus enclins à participer. En plus, vous pouvez même espérer accueillir des participants venus des quatre coins du monde ! Organiser un webinar, c’est donc augmenter sensiblement votre audience par défaut.
  • Le webinar facilite les échanges avec votre audience. C’est sûr, vous avez déjà vécu ce moment : vous venez de poser une question, et voilà que toute l’audience se retourne pour vous écouter. Cool ! Sauf que vous n’êtes pas vraiment à l’aise à l’oral… Note à vous-même : réfléchir à deux fois avant de poser une autre question… Grâce au webinar, vos prospects n’auront pas à se soucier de ce problème ! Ils pourront interagir bien au chaud derrière leur écran, via un système de chat ou de commentaires. Pratique ! En plus, le fait d’interagir en direct avec eux créera de la proximité : c’est un premier pas vers la fidélisation !
  • Et comment parler des avantages sans mentionner le replay ? En publiant la vidéo de votre webinar sur Youtube ou votre site, votre communauté pourra y avoir accès et la partager même après sa diffusion ! Un webinar a donc une durée de vie illimitée. Et plus votre contenu sera partagé, plus votre audience sera susceptible de grimper au prochain webinar !

Petite astuce : pourquoi ne pas y associer un lien vers votre site ou des articles complémentaires? Cette pratique est relativement courante. Elle permet d’une part de vous faire connaître sur le web, mais aussi de vous assurer un trafic ciblé vers des pages clés de votre site. Prenez exemple sur l’entreprise Melbourne SEO Services.

Extrait d’un webinar de Melbourne SEO Services

kjn

Concrètement : les bonnes pratiques

Organiser un bon webinar, ça ne s’improvise pas. Pour ne pas passer à côté des points essentiels, voici un récap’ des bonnes pratiques.

Parlez-en !

Pour attirer des prospects qualifiés lors de votre webinar, ne lésinez pas sur sa promotion ! Qu’il s’agisse de votre tout premier ou de votre 51ème, il faut avant tout informer votre communauté, et susciter son intérêt quant au sujet que vous allez aborder. Réseaux sociaux, site internet…mettez toutes les chances de votre côté !

Pensez aussi à créer des articles associés à votre webinar : date et heure, problématique(s) que vous allez traiter, intervenant(s), durée … ? Ce sont autant d’informations dont vos prospects auront besoin pour se décider d’assister ou non à votre webinar.

Et pour quantifier votre audience, vous pouvez d’ores et déjà mettre en place un système d’inscriptions : vous saurez exactement combien de participants attendre, et s’il vous faut accentuer votre communication !

Le site Kompass a très bien compris ces principes :

Extrait d’un article de blog de Kompass

ghf

Ici, on a accès à toutes les informations essentielles : sujet, intervenants, date et heure et durée… Pas mal !

Optimisez votre présentation

Ce n’est pas parce que c’est sur le web que vous devez négliger la préparation de votre webinar ! Jetez un œil à celui-ci :

 

 

Avouons-le : avec un webinar de ce type, c’est loin d’être gagné !

Imaginez-vous passer 1h21 de votre temps à regarder cette interface pas vraiment attrayante (qui ne varie pas), et à écouter cet orateur qui n’est visiblement pas très au point avec son texte (hésitations, retours en arrière…). Et pas la peine de s’attarder sur la présence de l’enregistreur, et du son pas vraiment clair…

 Pour éviter d’en arriver là, plusieurs conditions sont nécessaires :

  • Investissez dans du matériel de professionnel (caméras, micros…). Vous offrirez ainsi une bien meilleure expérience à vos auditeurs, qui seront moins susceptibles de décrocher.
  • Soignez votre présentation (si vous êtes vous-même filmé) et votre discours (maîtrisez bien votre sujet). Alternez les images et les supports, faites des blagues, soyez sympathique pour vos auditeurs… Bref, faites tout pour qu’ils souhaitent en savoir plus sur vous et vos produits : ne vous cantonnez pas à réciter un texte.

Maîtrisez la durée de votre webinar

Pour ne pas lasser vos internautes, fixez-vous une durée maximum à ne pas dépasser. La bonne pratique est de compter entre 30 min et une heure.  Je ne vous apprends rien : un téléphone qui sonne, une urgence client, un collègue qui vient blaguer avec vous et ça y est, vous décrochez. Et bien c’est pareil pour vos prospects ! En plus, ils auront beaucoup moins de scrupules à quitter votre webinar que s’il s’agissait d’une conférence classique.

N’oubliez pas le reporting !

Organiser un webinar, c’est bien, mais assurer son suivi, c’est mieux ! A la fin de votre webinar, n’oubliez pas de collecter les informations de reporting : temps passé par chacun des prospects, interactions, réponses aux questions, etc… Ça vous permettra notamment d’analyser ceux qui sont susceptibles d’être plus intéressés par votre marque, et qu’il faudra relancer en priorité. Bref, le webinar est aussi un excellent outil de pré-qualification de vos prospects !

Et concernant le budget ?

Aux grands maux, les grands remèdes : l’organisation d’un bon webinar peut facilement monter jusqu’à  plusieurs centaines ou milliers d’euros. Comptez donc quasiment le même budget que pour l’organisation d’un évènement traditionnel. Mais si la plupart des webinars sont proposés gratuitement, vous pouvez aussi faire payer l’entrée au vôtre, de façon à rentabiliser votre investissement. Cependant on ne vous garantit pas que vous aurez la même audience…

Sinon, sachez que vous disposez d’alternatives beaucoup moins coûteuses :

  • La plateforme « Youtube Live » vous permet aussi de partager vos vidéos à moindre coût. Vous pouvez y créer une « chaîne », dédiée à vos différents webinars. L’entreprise VivoTek utilise par exemple cet outil.

Extrait de la chaîne Youtube de VivoTek

vivo

  • Intégré à Google+, « Google Hangouts » vous servira aussi dans l’organisation de votre webinar : vous pouvez modifier et partager en direct des documents avec votre audience, et faire des vidéos à plusieurs.

 Mais pour une meilleure qualité, je vous conseille de faire appel à des plateformes payantes telles que WebinarJam, et d’en organiser aussi souvent que possible pour rentabiliser l’investissement.

En plus, ces webinars finiront par refléter votre identité de marque : vous serez reconnus pour votre expertise et instaurerez des rendez-vous avec votre audience. Ce qui veut dire plus de chances de solliciter le bouche-à-oreilles et d’obtenir de plus en plus d’audience ! Sans parler du fait qu’interagir avec vos cibles permettra de vous rapprocher de votre communauté, et de stimuler l’attachement à votre marque. Bref, c’est cher, mais ça en vaut la peine ! L’entreprise Kompass l’a bien compris, et organise régulièrement des webinars. Elle a même créé un onglet dédié sur son site internet !

Extrait du blog de Kompass

g

Le mot de la fin

Organiser un webinar est donc tout bénéfice, aussi bien pour vous (visibilité web, fidélisation, trafic ciblé…) que pour vos prospects (gain de temps et d’argent, se former gratuitement en écoutant des experts…). En bref, c’est donc tout aussi efficace qu’un séminaire classique (même plus), les contraintes en moins ! Que demander de plus ?

Partagez cet article

FacebookTwitterLinkedinGoogle+

About the Author: 

Hélène GRENOUILLEAU

Baignée depuis peu dans le digital, j'ai développé une véritable connaissance des enjeux du web. Mon premier réflexe en arrivant le matin au boulot ? Me faire un thé bien chaud. Une fois fraîche et dispo, je suis parée pour aider les entreprises à développer leur potentiel sur le web. Retrouvez-moi aussi sur les réseaux sociaux de l’entreprise : je suis fan de community management.

L'infographie du vendredi : les cocktails du Content Marketing.

Une infographie qui sent bon les vacances, l'été et le récapitulatif des outils de marketing digital.

Infographie juin

Business model : pour tout savoir sur le modèle scalable.

On le retrouve également sous le terme d'"ubérisation", le modèle scalable fait rêver les uns et grincer des dents les autres. Mais savez-vous réellement sur quels principes repose ce nouveau business model ?

Stéphane Schultz est fondateur de 15marches, une agence de conseil en stratégie et innovation qui accompagne à la fois jeunes pousses et grands groupes. Pour les inspirer, il analyse les secrets des nouveaux géants du numérique qui changent les usages, modèles économiques, stratégies... Cette semaine, décryptage de cette capacité propre aux start-up de "passer à l'échelle" ou "scalability", via l'étude des modèles Uber RATP et SNCF.

Au fait, c'est quoi un modèle économique scalable ?
Au fait, c'est quoi un modèle économique scalable ?© Adam Fagen - Flickr https://www.flickr.com/photos/afagen/

A LIRE AUSSI

Au fait, c'est quoi une plate-forme ?

Au fait, c'est quoi une plate-forme ?

Pas de transformation numérique sans API... Mais c'est quoi au fait ?

Pas de transformation numérique sans API... Mais c'est quoi au fait ?

Vidéo : Mais au fait, c'est quoi exactement le Deep Learning ?

Vidéo : Mais au fait, c'est quoi exactement le Deep Learning ?

Une startup se différencie des autres entreprises par son modèle économique, et notamment sa capacité à « passer à l’échelle » (en anglais : scalability). Exemples et décryptages avec l’étude des modèlesUberRATP et SNCF.

 

QU’EST-CE QU’UN MODÈLE ÉCONOMIQUE SCALABLE ?

Impossible de lire une publication sur les nouveaux modèles économiques sans tomber sur la formule obscure de “business model (ou modèle économique) scalable”. Par « scalable » on entend "capable de passer à l’échelle", mais le concept est rarement défini. Il est important car il différencie à juste titre les startups des autres types d’entreprise. Seul un modèle scalable permet d’atteindre les “rendements croissants” caractéristiques d’une jeune pousse. Dans un modèlescalable, plus l’activité se développe, plus la rentabilité est importante, de manière non linéaire et sans effet de palier. Mais comme on ne peut pas définir un concept par son résultat, j’ai préféré partir d’un exemple concret et le comparer aux modèles non-scalables qu’il vient concurrencer.

 

L’exemple choisi n’est pas anodin : je vais analyser le modèle économique d’Uber, et le comparer aux modèles classiques du transport, le “modèle RATP”, ainsi qu’à un modèle plus élaboré mais toujours pas scalable, le “modèle TGV”. J’espère en décryptant ces trois exemples vous aider à comprendre ce qu’est la scalabilité, et plus globalement ce que recherchent les startups par rapport aux entreprises “classiques” (pour les puristes, je ne détaillerai pas ici les business models au sens du “business model canvas” mais simplement leurs éléments essentiels).

 

1. LE MODÈLE UBER

Je m’appuierai pour cette explication sur un schéma de David Sacks, fondateur de Yammer et ex-COO de Paypal. J’ai utilisé en 2014 ce schéma dans une présentation qui détaille les clés du succès de Uber, Blablacar et Airbnb (à découvrir ici). Il est temps maintenant de la décrypter point par point.

 

Dans un modèle de plateforme comme celui d’Uber, les forces de production (les conducteurs) sont des professionnels indépendants ou des particuliers. Ils doivent répondre à des contraintes – être titulaire d’un permis de conduire, posséder un véhicule, avoir un casier vierge,… – dont ils portent seuls la responsabilité. Non seulement leur coût unitaire, à l’instar d’autres travailleurs indépendants, est plus faible que celui d’un salarié, mais leur capacité de production est totalement "liquide" : on parle de travail "à la demande" ou "à la pige" (gig economy). Ils ne sont payés que quand ils travaillent, et ne coûtent rien au client (ni à la plateforme) quand ils ne travaillent pas.

 

 

Le cercle proposé ci-dessus indique donc logiquement qu’à une hausse de la demande répond une hausse de l’offre, ce qui se traduit en matière de transport par une meilleure couverture géographique (et temporelle), ce qui réduit le temps d’attente du voyageur et augmente sa satisfaction : c’est le cercle vertueux qui permet à la demande initiale de générer de la demande supplémentaire.

 

La spécificité du modèle mis en place par Uber est qu’il adjoint à ce premier cercle un second (à gauche), par lequel la hausse de la demande pour les conducteurs leur permet d’effectuer plus de courses par jour (ou par heure), ce qui permet à Uber debaisser les tarifs unitaires par course. Qui dit baisse des tarifs dit hausse de la demande, grâce à la fameuse élasticité de la demande au prix enseignée dans toutes les bonnes facultés d’économie. Pour celles et ceux qui ne croient pas à la "main invisible" qui semble parfaire ce modèle, j’ai ajouté ci-dessous certains éléments pour mieux comprendre le système mis en place.

 

 

Tout d’abord, Uber n’est pas Le Bon Coin : la plateforme ne se contente pas de mettre face à face offre et demande. La "meilleure couverture géographique" est améliorée par des recommandations de localisation que les conducteurs reçoivent directement sur leur appli (qui n’est pas la même que la vôtre). Ensuite, elle fixe elle-même les tarifs. Contrairement aux taxis qui appliquent des prix fixés par arrêté préfectoral, Uber développe des algorithmes complexes capables d’adapter les tarifs en temps réel en fonction de la demande. Ce système, baptisé surge price, a une double vertu : la hausse des tarifs "lisse" la demande en décourageant les clients de se déplacer à certaines périodes/dans certains lieux, et elle encourage les conducteurs à travailler durant ces périodes (pensez au soir de Noël).

 

Évidemment, tout cela est possible grâce à la géolocalisation des véhicules et des clients, et l’utilisation de modèles mathématiques analytiques et prédictifs (appelez ça big data si vous voulez). Dans une étude de 2014, les ingénieurs d’Uber ont démontré qu’ils étaient capables de prévoir 3 déplacements sur 4 d’une semaine sur l’autre à San Francisco.

 

Concernant la "petite boucle" vertueuse (à gauche), elle est facilité par deux paramètres (en plus du tarif, déjà développé) :

- le coût d’approche est supporté par le chauffeur lui-même : il a tout intérêt à limiter son temps "à vide" et multiplier les courses

- le pouvoir de négociation des chauffeurs, sur les tarifs notamment, est faible. Pas de syndicats (même si cela commence à bouger), et pas la main sur les tarifs - et donc sur leurs revenus. Lorsque Uber a décidé de baisser les tarifs de 20% cet automne, certains ont bien protesté, mais sans résultat. Bienvenue dans le monde des plateformes…

 

Je pourrais ajouter à ce modèle un autre facteur très important pour Uber : lacapacité de transporter plusieurs clients dans une même course. Appelé Uber Pool, ce service permet aux voyageurs de payer moins cher en acceptant de partager leur trajet et faire quelques détours.

 

 

Là encore, le modèle économique d’Uber Pool recèle son propre "double cercle vertueux" :

- les passagers paient moins cher que s’ils voyagent en solo, donc plébiscitent cette fonctionnalité (déjà une course sur deux à San Francisco et 20% dans le monde)

- les conducteurs ne sont pas plus payés, mais ils effectuent des courses plus longues donc plus chères

Uber touche évidemment plus d’argent avec moins de conducteurs.

 

Combinez les trois boucles vertueuses décrites ci-dessus, vous avez les fameux "rendements croissants" : chaque passager supplémentaire et chaque conducteur supplémentaire génèrent de plus en plus de revenus pour la plateforme. Vous comprenez maintenant pourquoi cette entreprise, et ses clones asiatiques, sont valorisés plusieurs dizaines de milliards de dollars. Ce qui n’est pas exactement le cas de leurs concurrents "traditionnels".

 

2. LE MODÈLE RATP

Le modèle économique d’un opérateur de transport comme la RATP estdimensionné par la rigidité de l’offre. Le nombre de véhicules, le nombre de conducteurs, l’emplacement des dépôts, la réglementation des temps de travail… conditionnent des coûts et des effets de seuils importants. Former un conducteur de bus prend plusieurs années et coûte très cher. Acheter un bus également. Ne parlons pas des locaux et garages. En conséquence, les services s’adaptent lentement à la demande et doivent anticiper longtemps à l’avance les réponses à de nouvelles demandes (pensez au métro la nuit). Surtout, les tarifs étant fixés par la collectivité, ils sont structurellement trop bas et ne couvrent pas les charges, ce qui nécessitent des subventions de fonctionnement et d’investissement.

 

 

Tout ceci conduit à un modèle d’adaptation "par la saturation" : la hausse de la demande ne trouve pas de réponse en terme d’offre, ce qui dégrade la qualité perçue (temps d’attente, obligation de marcher pour trouver une ligne). La saturation augmente l’inconfort et le temps de parcours. Au final, les clients insatisfaits qui le peuvent finissent par trouver d’autres modes de transport (pensez aux nombres de scooters à Paris). C’est le cercle vicieux. Enfin, les tarifs ne sont pas modulables et comportent leur propre "boucle vicieuse" : les heures de pointe (fort coût marginal de l’offre) transportent majoritairement des abonnés (faible recette au voyageur), alors que les heures creuses (faible coût marginal de l’offre : c’est le même bus et le même conducteur que tout à l’heure) transportent majoritairement des passagers occasionnels qui paient cher (un ticket à l’unité : 1,80€) et donc sont peu nombreux. Offre limitée + tarifs rigides = baisse de la fréquentation/course + baisse de la recette/course. L’exact inverse d’Uber.

 

3. LE MODÈLE TGV

Ce modèle, inspiré du transport aérien, tente de limiter les effets pervers du premier en tentant de maximiser les recettes à offre constante grâce à deux paramètres : la réservation obligatoire et la modulation des tarifs.

 

 

Le système est capable de prévoir de manière théorique le remplissage des courses (ex. : le TGV de 8h05 dans deux mois) : il fait varier en plus ou en moins les tarifs et promotions selon le nombre constaté de réservation par rapport au remplissage théorique. Il peut également jouer sur le nombre de places "ouvertes" à certains tarifs bénéficiant de réduction (senior, jeunes,…). L’objectif est de maximiser la recette des offres les plus demandées, et d’orienter la demande vers des offres moins demandées et moins chères (les retours en sens inverse des courses "de pointe"par exemple, ou les trajets province-province).

 

Ce système présente des vertus pour le producteur de service, mais n’est pas pour autant "scalable". Les rendements n’augmentent pas de manière proportionnelle. Au contraire, plus il y a d’offre, moins les tarifs élevés se justifient. De plus, cette modulation tarifaire est mal vécue par la clientèle et contribue à l’image de "cherté". Elle fonctionne bien s’il n’y a pas d’alternative ni de concurrence. Blablacar a longtemps communiqué sur ses tarifs "sans changement de dernière minute", visant clairement ceux du TGV. Enfin, la réservation obligatoire colle mal avec le désir de "temps réel" et "dernière minute" des jeunes générations. Pas facile.

 

Stéphane Schultz, fondateur de 15marches, une agence de conseil en stratégie et innovation

Les avis d'experts et points de vue sont publiés sous la responsabilité de leurs auteurs et n’engagent en rien la rédaction.

L'infographie du vendredi : Le pitch du call en télémarketing BtoB.

Sans que l'appel soit trop formaté, il faut tout de même avoir une trame des différentes possibilités pour être préparé aux différentes éventualités et ne pas se retrouver décontenancé par une objection. Voici celui que nous utilisons généralement :  

Schema de la prospection it

L'infographie du vendredi : le Chief Data Officer, le nouvel indispensable.

Le CDO est une fonction très récente et pourtant déjà quasiment incontournable. A l'ère de la Data-toute-puissante, il devient la pierre angulaire qui relie l'IT, les enjeux business et les métiers.

Infography cdo wanted v2

Travail collaboratif et management transverse.

Grâce à (ou à cause de) la digitalisation, les cloisons tombent entre les services et les projets qui sont engagés se retrouvent partagé par différents département... "Plus de collaboratif, c'est bien !" direz-vous. Et vous avez raison, à condition que le management évolue dans la même direction...

Le travail collaboratif a le vent en poupe. Favorisé par le développement des nouvelles technologies, il permet une meilleure collaboration entre les membres d’une entreprise. Cependant, cette méthode de travail ne fait pas que des émules. En effet, elle peut donner lieu à certaines dérives : surcharge de travail, mauvaise gestion des priorités, sollicitations de tout ordre.

 

Le travail collaboratif et ses limites

Mieux collaborer pour optimiser les ressources

Le travail collaboratif part d’une idée simple : partager les compétences de chacun et optimiser les ressourcesde l’entreprise pour en améliorer la performance. Ainsi, si un de vos commerciaux est spécialisé dans les négociations B2B2C, c’est lui, dans le cadre du travail collaboratif, que vous allez solliciter pour ces sujets. En retour, ce même commercial pourra s’appuyer sur la compétence d’un de ses collègues sur un autre sujet. Vu ainsi, le travail collaboratif semble être un compromis idéal. Tout le monde y gagne : les salariés comme l’entreprise. Cependant, sous ses apparences vertueuses, le travail collaboratif n’a pas que des bons côtés.

Le revers de la réussite

Le travail collaboratif peut très vite atteindre ses limites et entraîner certaines dérives. L’exemple le plus flagrant étant la « sollicitation à outrance » d’un commercial compétent. En effet, plus un individu va se montrer efficace, plus on va lui confier de tâches. Ces sollicitations vont venir de plusieurs directions :

  • la hiérarchie directe ;
  • les collègues ;
  • les autres services.

Autant de sollicitations qu’en tant que manager, vous aurez du mal à identifier. En effet, vous ne serez pas systématiquement informé de tout ce qu’on lui demande. Mais une chose est sûre, ces sollicitations auront un impact sur la productivité de votre commercial. Pour répondre aux demandes, il devra se détourner de ses tâches principales. Il risque donc de se déconcentrer et de perdre en efficacité. Sans parler des risques de démotivation ou de  “burn out”… Dans ce cas, le cercle vertueux du travail collaboratif peut vite devenir vicieux.

La gestion par le management transverse

Un plan d’actions et une gestion des risques

Pour remédier à cette dérive, le management transverse demeure le meilleur remède. Il implique un pilotage serré et continu des projets et nécessite un suivi régulier. Pour ce faire, le management transverse se développe selon un plan d’actions en quatre étapes :

  • Initier le plan d’actions (déterminer son objet et identifier les enjeux).
  • Organiser (fixer les objectifs, recenser les ressources, estimer le temps, définir l’organisation, établir les rôles, les équipes, évaluer les risques et les résistances).
  • Piloter (contrôler les actions, suivre l’avancement, corriger et ajuster, communiquer).
  • Clore le projet (rassembler l’intégralité des informations liées au projet, analyser les points positifs et négatifs, proposer un plan d’amélioration et communiquer).

Grâce aux plans d’actions du management transverse, vos commerciaux pourront mieux s’organiser et mieux gérer leurs actions. Ils éviteront ainsi de se disperser ou de se faire “happer” par certaines tâches. Enfin, grâce aux indicateurs de pilotage que propose cet outil, vous pourrez adapter au mieux votre organisation à l’objectif à atteindre :

  • taille du projet ;
  • durée et délais ;
  • importance des enjeux ;
  • complexité technique…

Le travail collaboratif présente de nombreux avantages. Il peut être un élément favorable à la croissance de vos ventes. Cependant, il vous faudra bien l’encadrer pour éviter certaines dérives. Le management transverse vous aidera grandement dans cette tâche.

La prospection n'est plus "mécanique" et quantitative mais intelligente.

Avec les nouveaux canaux de communication et d'information, la prospection a évolué vers une démarche intelligente. La prospection classique à toujours son intérêt, mais elle doit aujourd'hui être couplée avec un marketing digital informatif pertinent

Et si, en 2016, les commerciaux arrêtaient de prospecter ? Au vu des difficultés qu'ils éprouvent dans ce domaine, l'idée mérite sans doute d'être soulevée. Au point que certains, à l'instar de Raphaël Ducottet, 

Au vu des difficultés qu'ils éprouvent dans ce domaine, l'idée mérite sans doute d'être soulevée. Au point que certains, à l'instar de Raphaël Ducottet, consultant et coach commercial expert en social selling et sales intelligence, affirment que " si vous continuez à demander à vos commerciaux de prospecter, vous allez droit dans le mur ! ". Une prise de position qui n'est pas passée inaperçue sur le Web et qui a suscité de nombreuses réactions sur les réseaux sociaux (+ de 50 000 vues sur LinkedIn en quelques jours), tant la prospection dans le dur est devenu inefficace. Sans oublier que la très grande majorité des commerciaux n'aiment pas prospecter!

Une prise de position qui n'est pas passée inaperçue sur le Web et qui a suscité de nombreuses réactions sur les réseaux sociaux (+ de 50 000 vues sur LinkedIn en quelques jours), tant la prospection dans le dur est devenu inefficace. Sans oublier que la très grande majorité des commerciaux n'aiment pas prospecter! Et face au coût salarial d'un commercial, difficile pour l'entreprise de s'y retrouver si ses commerciaux se cassent les dents dans une prospection chronophage et énergivore. Mais avant de se poser la question de savoir si la prospection est encore de la compétence des commerciaux, il est peut-être nécessaire de reconsidérer votre façon de prospecter ! Avec, désormais, des clients qui ont relevé leur niveau d'exigence et d'information, la prospection se doit, elle aussi, d'évoluer. Les commerciaux sont donc confrontés à la nécessité d'ajuster leurs méthodes aux nouveaux comportements du marché. 67% des décideurs utilisent les réseaux sociaux (principalement Linkedin) pour faire de la veille de marché. Source : étude sur la prospection et la prescription B to B réalisée par l'agence Quatre Vents. Impliquer les commerciaux très en amont S'obstiner à prospecter de manière traditionnelle, en employant les techniques et stratégies d'antan, alors que l'environnement a profondément muté et que la concurrence est exacerbée, conduit inexorablement à échouer et à un rejet de la part des forces de vente. " Aujourd'hui, les prospects ne vous attendent plus, ne ressentent plus le besoin de prendre contact avec vous pour commencer leur réflexion d'achat ; ils sont devenus autonomes et proactifs ", rappelle Sylvain Tillon, à la tête de l'éditeur de logiciels Tilkee, dans son récent livre "Je veux vendre mieux". Et lorsque l'on prend conscience que les clients et prospects recourent pour 64 % d'entre eux à des moteurs de recherche, consultent articles de presse et blogs à 51 %, et sont 75 % à utiliser plusieurs fois par semaine les réseaux sociaux à des fins professionnelles (baromètre Infodécideurs 2015), il est peut-être temps d'être sur le même terrain que votre cible en démontrant, notamment, la légitimité de votre offre en proposant des contenus et une réflexion à forte valeur ajoutée. De quoi passer du commercial vendeur au commercial expert de son domaine... " Je recommande toujours aux clients que j'accompagne, indique Cécile Fournier, coach pour commerciaux, d'adopter une logique de blogueur ". L'inbound sales consiste à produire du contenu sur le Web et le mettre en avant pour attirer les prospects. Parler au prospect des problématiques qui lui sont familières, démontrer en publiant, sur le site de l'entreprise ou sur un blog, que les solutions maison sont une réponse à ses problématiques, " c'est un passage obligé dans un monde où la légitimité est une quête permanente ", continue Cécile Fournier. Mais encore faut-il que ces contenus soient visibles et accessibles au-delà des canaux traditionnels (prise de parole dans la presse, participation à des salons ou événements professionnels) ! Et c'est là que les réseaux sociaux, et notamment les techniques d'inbound sales, peuvent être utiles. Pour Raphaël Ducottet, cela consiste " à produire du contenu sur le Web, le mettre en avant par les réseaux sociaux et le référencement naturel, pour attirer des prospects ". Parmi les outils à privilégier si vous souhaitez vous inscrire dans cette démarche : Linkedin Pulse. Une fois les contenus publiés, vous savez qui les a consultés, partagés, commentés... Quoi de plus pertinent, pour un commercial, que d'entrer en contact avec un décideur qui a interagi avec vos contenus ? " Plus simplement, on peut se contenter de créer des groupes d'intérêt sur des espaces tels que Viadeo ou Linkedin ", confirme Nicole Antonietti, qui dirige Additif, une entreprise spécialisée dans la prospection commerciale B to B. Mais attention, chaque médaille a son revers, et l'inbound sales est un processus qui prend du temps !


Retrouvez cet article sur : www.actionco.fr - "Mettre de l'intelligence dans la prospection"

L'infographie du vendredi : la transition numérique, effet de mode ou révolution ?

La perception de la Transition Numérique diffère selon la taille de l'entreprise concernée. "Une révolution" pour 69% des PME et 85% des grandes entreprises mais un effet de mode pour la 50% des TPE interrogées.  Les salariés sembleraient bien moins sceptiques...

Infographie chefs entreprise numerique est effet mode t

Dépenses IT, le casse-tête de la DSI.

Tous les services ont des besoins informatiques et si la DSI gèrent tout ou parti des projets, ce n'est pas à elle d'en assumer seul le coût financier. D'autant que l'allocation de ces coûts permet d'en avoir une meilleure maîtrise et donc d'optimiser le business d'entreprise.

Le climat économique tendu a renforcé les impératifs de maîtrise des coûts pour toutes les fonctions supports de l’entreprise. La Direction des Systèmes d’Information ne déroge pas à cette règle. Pourtant, avec la transformation digitale, même si leurs budgets sont en augmentation chaque année, les activités informatiques d’une entreprise génèrent de plus en plus de dépenses.

Le DSI se retrouve face à un dilemme, car lorsqu’il investit dans un logiciel, un data center ou un projet, c’est au service du business de l’entreprise. Il est donc capital pour lui de comprendre de façon fine ses coûts afin de pouvoir les justifier de manière exhaustive, complète et détaillée, les répartir vers ses clients internes ou éventuellement les réduire.

 

La nécessaire justification des coûts informatiques 

Pour cela, le DSI doit pouvoir savoir comment sont structurés ses dépenses et investissements et comment ils s’affectent auprès du business. Or, de plus en plus, l’entreprise supporte des coûts informatiques partagés. Par exemple, lorsque l’on monte un data center pour héberger plusieurs serveurs, un ERP pour la comptabilité, un outil de CRM pour les équipes commerciales, c’est un coût transverse. L’enjeu pour la direction informatique va être de trouver des clés pour refacturer leurs services de la façon la plus pertinente possible auprès des directions qu’ils adressent.
De ce fait, si la DSI met en place un outil de comptabilité, elle va répartir les coûts de cet outil vers le service comptabilité, et ce dernier va lui-même se refacturer auprès des services métiers qu’il supporte.

De plus, il peut y avoir des coûts en cascade. Si les dépenses de la DSI se répartissent sur le service comptabilité et d’autres comme le service ressources humaines, ces autres directions sont elles-mêmes des services supports pour le business et vont répartir à leur tour leurs propres coûts vers le marketing, les ventes ou encore les achats. Par conséquent, il s’agit d’une mécanique où les coûts informatiques sont déversés de service en service.

In fine, ce que la DSI veut comprendre c’est la pertinence des coûts qu’elle génère au regard des biens ou des services que l’entreprise vend auprès de ses clients finaux.

Trouver la clé d’allocation des coûts la plus pertinente pour leur affectation 

Historiquement, plusieurs méthodes d’allocation ont été mises en œuvre : allocation des coûts directs, indirects, méthode ABC (Activity-based costing). Quelle que soit la méthode choisie, une des principales difficultés est de déterminer les bons mécanismes d’allocation. Par exemple, sur quelles bases l’informatique peut-elle répartir ses coûts auprès de ses clients internes : nombre de postes informatiques, de serveurs, consommation des données ?

Quelle que soit la méthode employée, il s’agira obligatoirement d’une vision arbitraire. Car il n’y a pas une réalité unique des coûts. Dans l’absolu, on ne peut pas dire qu’il existe une méthode plus exacte qu’une autre.

Une méthode n’est bonne que dans un contexte et des objectifs donnés.

Une solution logicielle unifiée permet de faciliter la collecte des données nécessaires (données réelles, prévisions, indicateurs métiers pouvant servir de clé…). Celle-ci doit être complètement agnostique par rapport aux méthodes de répartition ou d’allocation de coûts. La DSI peut de ce fait comparer de manière très simple les résultats qui sont produits par deux méthodes différentes et les challenger par les clients internes afin de valider la méthode la plus pertinente. La solution logicielle doit également permettre la mise en place des règles sans avoir à employer la moindre ligne de code informatique pour y arriver. La construction des règles d’allocation doit se faire par un utilisateur métier avec une interface qui fonctionne sous forme de fenêtrage.

Enfin la solution doit être capable, non seulement de répartir les dépenses de manière plus ou moins complexe, mais aussi d’en donner l’origine en proposant une piste d’audit sur les coûts qui ont été alloués aux clients internes.

Une véritable valeur ajoutée pour le business de l’entreprise

 

Aujourd’hui, nombreuses sont les entreprises assez mal équipées sur ce sujet. L’allocation des coûts se fait beaucoup sur Excel et parfois de manière hasardeuse. En effet, la DSI doit récupérer beaucoup d’informations auprès de systèmes hétérogènes, faire une extraction et les dupliquer en les saisissant à nouveau dans Excel à plusieurs endroits pour pouvoir faire les calculs.
Avec une solution logicielle unifiée, au contraire, les drivers ou les clés d’allocation sont stockés à un seul endroit et disponible très facilement pour la personne qui réalise son modèle d’allocation. On évite, par conséquent, énormément de ressaisies, d’interfaces, etc. Et lorsque l’on a besoin de créer de nouvelles clés d’allocation et d’aller les collecter auprès des métiers, on peut aisément réaliser une interface de saisie dans laquelle les utilisateurs impliqués dans le process de répartition des coûts peuvent saisir simplement ces nouvelles clés d’allocation.

Ce sujet d’une allocation pertinente des coûts devient primordial car l’entreprise demande de plus en plus à la direction informatique de réduire ses dépenses. Grâce à une solution logicielle unifiée, la DSI met les clients internes face à leurs responsabilités et les exigences qu’ils peuvent avoir pour répondre à un double enjeu : expliquer les coûts et mieux les maitriser.

Dès lors qu’une direction support ou métier réclame à la DSI un nouveau produit ou plus de performances, très rapidement l’informatique sera capable d’en chiffrer l’impact auprès de la direction support ou métier en particulier, et de l’entreprise en général. Par exemple, dans le cadre de la migration de postes de travail, une direction métier choisit une solution qui nécessite la toute dernière version de Microsoft Office. La direction informatique va être capable d’indiquer à la direction métier qu’il n’y a pas que le coût de la solution qui va impacter l’entreprise mais aussi le coût de la licence de la dernière version d’Office, ainsi que le coût matériel des serveurs et de la migration des postes qui vont se répartir sur d’autres directions métiers ou supports.

Ainsi, c’est par la compréhension et la maîtrise de ses propres coûts grâce à une solution logicielle unifiée, que la DSI pourra mettre en avant la valeur ajoutée qu’elle apporte non seulement aux directions métiers ou supports, mais aussi au business de toute l’entreprise.

 

__________
Vincent Salmon est Vice President Professional Services France chez Tagetik

L'infographie du vendredi : l'optimisation "business" de votre site web.

Votre site web, c'est votre vitrine certes... mais pas que ! Voici 10 trucs pour améliorer le taux de conversion des visiteurs sur votre site.

Taux de conversion

Le salon professionnel du futur est déjà là !

Même si les salons professionnels restent un bon moyen de rencontrer son éco-système (partenaires, clients, prospects...) et que rien ne vaut le contact réel, le fait est qu'ils sont aujourd'hui, pour certains domaines d'activités notamment tertiaires, moins fréquentés et moins rentables. Et si on passait au salons virtuels ? 

Mis en ligne par :  , Catégories :,

Les salons professionnels font partie des canaux de communication et de prospection privilégiés en BtoB. Si les budgets des entreprises pour ces événements ont tendance a diminué, la rencontre reste un objectif essentiel. C’est pourquoi, les entreprises se laissent de plus en plus tenter par l’expérience des salons virtuels.

Un salon virtuel, vous avez dit ?

Un salon virtuel se définit comme un lieu de rencontre entre exposants et visiteurs dans un cadre virtuel. Ainsi comme dans les salons traditionnels, il y a d’un côté les exposants qui exposent sur un thème précis et de l’autre côté, les visiteurs que ce thème intéresse. Toutefois, c’est en ligne que tout se passe et les parties ne se rencontrent pas physiquement. C’est donc assis derrière son ordinateur que le visiteur entreprend la visite du salon grâce à une plateforme interactive.

Côté design, le salon virtuel se calque sur la représentation graphique d’un salon physique : hall d’accueil, exposants,stands … Les plus néophytes sauront y naviguer grâce à une interface ergonomique et intuitive. De plus, les exposants ont la possibilité de personnaliser totalement leur environnement 3D, voire d’en créer sur mesure.

De ce fait, le salon virtuel devient un véritable outil et vecteur de communication basé sur l’échange entre exposants et visiteurs. On parle d’un nouveau média, innovant et moderne.

Mais quel est son rôle ?

Un salon virtuel est un site web interactif riche en informations collectées sur les visiteurs car chacune de leur action est enregistrée.

Le salon devient donc un moyen actif et performant d’entrer en liaison avec son public et de développer ses performances grâce aux informations collectées.

Quels en sont les avantages ?

Grâce aux salons ou forums virtuels 3D, les exposants pourront :

  • Rencontrer des visiteurs, acheteurs ciblés et prospects

  • Tracer les visiteurs

  • Gagner du temps (organisation, déplacement etc) et de l’argent

  • Donner une visibilité internationale à leur marque

  • Promouvoir leur activité

  • Être vu et connu à moindre coût

  • Valoriser simplement leur image grâce à l’utilisation d’une plateforme 3D

Avec un simple accès à Internet, les visiteurs pourront :

  • Échanger avec les exposants grâce aux « tchats » (audio/vidéo) sur les stands,

  • Consulter et télécharger en quelques clics toute la documentation souhaitée,

  • Visionner les vidéos de produits ou services présentées par les exposants,

  • Acheter les produits et nouveautés sur les sites marchands des exposants.

Et côté business, qu’en est-il ?

Qu’on ne s’y trompe pas, le support a beau être ludique, les « visiteurs » sont des professionnels et ils sont là pour le business, comme lors de salons traditionnels. L’objectif est de prendre contact pour poursuivre l’échange, la présentation et l’étude des besoins lors d’une réunion téléphonique ou si on le peut, en rendez-vous.

Est-ce la fin des salons traditionnels ?

Si le salon virtuel est idéal pour des secteurs où l’immatériel domine comme le secteur de la finance ou des services de manière générale, on imagine en revanche mal un salon de l’agriculture virtuel. Toucher, voir et sentir le produit reste essentiel dans bien des secteurs.

Dans l’industrie, les exposants ont des machines très imposantes à montrer et à déplacer, le virtuel peut aussi avoir tout son sens pour optimiser les coûts.

Les salons virtuels n’ont donc pas vocation à remplacer les salons traditionnels ! Il est même également possible de coupler un événement physique à un événement virtuel. C’est ce que l’on appelle un « événement hybride ».

Convaincu du potentiel des salons 3D, SYNTHES’3D est en train de finaliser son propre salon virtuel spécialisé dans le secteur de l’orthopédie, l’OrthoVirtualConvention.com. Affaire à suivre …

2015, une année de croissance pour les éditeurs de logiciels.

Avec 9% de croissance et 15% d'augmentation des investissements R&D, le logiciel français se porte bien. Une santé à tempérer tout de même, car le chiffre d'affaire 2015 est généré à 54% par les 5 premiers éditeurs à eux seuls ...

2015 est un bon millésime : 9% de croissance du chiffre d’affaires, doublement des résultats, 15% d’augmentation des investissements en R&D, des créations d’emplois qualifiés portant l’effectif total à 107 000 salariés avec une très faible propension à la délocalisation…

Tels sont les principaux chiffres de cette 12e édition du Truffle100 qui classe les 100 éditeurs de logiciels français.  Le chiffre d’affaire atteint 7,5 milliards d’euros en 2015, en croissance de 13% contre 6,6 milliards d’euros en 2014. Le marché français de l’édition de logiciels reste également largement tiré par le haut du classement, les 5 premiers éditeurs représentant 54% de ce chiffre. Ces bons chiffres ne doivent pas faire oublier la dimension très modeste du logiciel français à l’échelle mondiale et même européenne. Le premier de ce classement, Dassault Systèmes, qui représente plus du tiers de ce chiffre d’affaires est le seul éditeur de dimension mondiale.

Le Palmarès de tête par ailleurs en mouvement : Sopra Steria monte à la 2ème place derrière Dassault Systèmes, suivie par Murex. Cegedim précédemment à la deuxième place du classement, descend au 4ème rang, et Axway conserve la 5ème place.

Parmi les faits marquants pouvant expliquer ces évolutions on peut citer la forte croissance du chiffre d’affaire de Sopra-Steria suite au rapprochement des deux entreprises, ainsi que la vente de sa division « CRM et données stratégiques » à IMS Health par Cegedim. De nombreuses évolutions sont ainsi menées dans un secteur en profonde mutation avec l’arrivée de nouveaux enjeux et la recherche de nouveaux modèles économiques.

On notera par ailleurs l’augmentation de la part des sociétés en décroissance qui passe de 1% en 2014 à 11% en 2015.
– 24 éditeurs ont progressé dans le classement (ils étaient 60 en 2014)
– 9 ont conservé leur place (stable par rapport à 2014)
– 7 sociétés sont sorties du classement, dont deux suite à des rachats : Dictao (#66 du classement en 2014 avec un chiffre d’affaires logiciel de 14,9 M€) racheté par Morpho (Safran) et Ordirope (#87 du classement en 2014 avec un chiffre d’affaires logiciel de 10 M€) racheté par GFI Informatique

Le résultat net du Top 100 est par ailleurs en très nette augmentation à 1,2 milliard d’euros contre 600 M€ en 2014. Cette évolution est portée notamment par la croissance des résultats de Dassault Systèmes (576 M€ en 2015 contre 465 M€ en 2014) et du groupe Cegedim qui passe d’une perte de 200 M€ en 2014 à un bénéfice de 67 M€ en 2015.

Effectifs globaux et R&D

La nette croissance globale du chiffre d’affaire se reflète également au niveau des recrutements, avec des effectifs en augmentation à 107 000 (+3500) en 2014. Les effectifs de R&D sont également en légère augmentation et représentent 15,7% de l’effectif total contre 15% en 2014 ; soit près de 1 000 recrutements sur ce seul secteur.

Après une légère érosion en 2014, les investissements globaux en R&D repartent également à la hausse et atteignent 1 176 millions d’euros, contre 1 024 millions d’euros en 2014. La R&D reste par ailleurs très largement internalisée, 73% des éditeurs n’envisageant pas de délocaliser cette activité placée au cœur de leur développement. La plupart des éditeurs considèrent en effet que l’internalisation de la R&D est un facteur stratégique clé qui permet notamment de favoriser la réactivité.

L’Île-de-France conserve sa place centrale

La région Île-de-France conserve sa position prédominante dans le classement, regroupant toujours 83% du chiffre d’affaires Edition, 88% de l’effectif total et 82% des effectifs R&D ; chiffres stables depuis 2014. Elle est toujours suivie par la région Auvergne-Rhône-Alpes qui totalise 9% du chiffre d’affaires Edition (8% en 2014), 6% de l’effectif total (5% en 2014) et 9% des effectifs R&D. A elles deux, les régions Ile-de-France et Auvergne-Rhône-Alpes représentent toujours 91% du chiffre d’affaires Edition.

A l’international, le classement des implantations a par ailleurs évolué avec la montée des Etats-Unis et de l’Espagne tous deux ex-aequo à la 2ème position. L’Allemagne descend de la 2ème à la 4ème place.

Tendances et prévisions

La révolution apportée par les offres en SaaS et le cloud continue d’impacter fortement le secteur. Pour faire face à l’évolution des usages et la demande en croissance, 74% des éditeurs du Top 100 disposent désormais d’une offre en Saas (contre 68% il y a un an). 64% des éditeurs estiment que cette tendance continuera à influencer grandement le marché, porté également par les applications de mobilités (61%) et le Big Data (33%).

Le marché devrait toujours afficher une bonne santé en 2016, 42% des éditeurs du Top 100 anticipant une croissance située entre 5% et 15%. Cette croissance devrait se refléter sur les effectifs (pour 66% des éditeurs), le développement de projets de R&D (63%) et le déploiement des activités à l’international (60%).

Du nouveau dans le monde de l'infrastructure IT...

L'infrastructure informatique a connu de fortes évolutions ces dernières années. Préparez-vous à l'arrivée dans le Cloud de l'Infrastructure as a Utility (une adaptation du IaaS, as a services).

Infrastructure as a Utility : prochaine évolution du cloud ? 
Philippe Fossé, EMC

Le temps des mainframes où les revendeurs devaient créer des solutions pour leurs clients est maintenant révolu. Tout cela a bien changé, tant par les infrastructures dorénavant disponibles que par les modes de fonctionnement. Et plus récemment encore, on observe une nouvelle avancée, vers l’infrastructure informatique « as a Utility », une sorte d’infrastructure informatique intelligente. Au-delà du principe d’innovation, quel est le réel intérêt pour les revendeurs ?

Vers une nouvelle redistribution des ressources informatiques

La virtualisation, bien entendu, a changé la donne. Au lieu d’une allocation de ressources dédiées à chaque application, l’infrastructure désormais virtualisée est au service d’applications multiples, ce qui réduit les coûts pour les partenaires comme pour les clients. Aujourd’hui tout est virtualisé, y compris le stockage et le réseau, apportant une facilité sans précédent aux revendeurs pour créer des solutions répondant aux problématiques métiers de leurs clients.

Une nouvelle ère en matière d’allocation des ressources informatiques vient de commencer dans laquelle non seulement les applications mais aussi les workloads bénéficient d’une prise en charge dynamique par des technologies Cloud, notamment au niveau des modes de stockages. Chaque application doit voir ses données sauvegardées mais où faut-il conserver ces sauvegardes ?

De toute évidence, c’est l’infrastructure qui répond à ce besoin mais pourquoi cette infrastructure devrait-elle être statique ? En fait, une approche dynamique de workloads spécifiques est bien plus avantageuse pour les clients. Ainsi les sauvegardes critiques peuvent être stockées dans une infrastructure sécurisée sur site, contrôlée et gérée par le client, tandis que les données moins sensibles sont externalisées vers une infrastructure Cloud plus économique.

Cependant, ce n’est en aucun cas la fin d’une ère. Le Cloud ne fait que monter en puissance et les limites de ses capacités sont encore loin d’avoir été testées. Par conséquent, quelle est l’étape suivante pour les revendeurs ?

L’infrastructure informatique « as a Utility », qu’est-ce que c’est ça ?

Il y a une véritable mouvance vers une nouvelle étape, celle de l’infrastructure informatique « as a Utility ». A l’image d’un réseau d’eau ou d’électricité, le prestataire peut adapter le service fourni à vos besoins. Une allocation dynamique des workloads ne suffit plus : le processus doit être simplifié au point que, si une application a besoin de certaines ressources pour réaliser une tâche donnée, l’infrastructure informatique définie par logiciel soit à même d’allouer les ressources exactes – puissance de traitement, stockage et réseau – nécessaires pour exécuter le workload avec un maximum d’efficacité, en fonction du besoin spécifique de l’entreprise.

Il s’agit d’IaaS (Infrastructure as a Service) mais d’un service sur mesure, « intelligent » dans la mesure où il tient compte du contexte propre à chaque workload.

Toute innovation va de pair avec une opportunité, qui s’offre ici clairement aux revendeurs cherchant à devenir des prestataires de services Cloud. En traitant les ressources selon le modèle Utility, ceux-ci pourront proposer à leurs clients des offres personnalisées, permettant aux applications de fonctionner à un niveau optimal de performances au juste prix. Cela va constituer un facteur clé de différenciation dans les années à venir à mesure qu’un nombre croissant de revendeurs se transforment en prestataires de services Cloud.

Vers une équipe informatique dispatchée par service ?

La cellule DSI comme elle est aujourd'hui tendrai à se détacher en petites équipes embarquées au sein des différents services pour mieux répondre aux besoins des métiers. Va-t-on vers la fin de la DSI ?

Les DSI jugent sévèrement l'informatique de leur entreprise

De l'aveu même des DSI, l'IT est en danger. (crédit : D.R.)

De l'aveu même des DSI, l'IT est en danger. (crédit : D.R.)

D'après une étude menée par Arlington Research, les DSI estiment que l'informatique de leur organisation peine à s'adapter aux enjeux de l'évolution de l'activité.

Directions métiers et DSI ne sont décidément pas d'accord. Selon une étude réalisée par Arlington Research sur la commande de VCE, 40% des DSI jugent que le défi principal qu'ils ont à affronter est la création de valeur à partir des données, 37% des directions métiers jugeant, elles, que l'essentiel est de s'adapter au business temps réel, notamment au niveau de la variabilité du niveau d'activité. Or l'adaptabilité du SI à l'évolution du niveau d'activité n'inquiète « que » 50% des directions métiers contre 70% des DSI...

Toutes fonctions confondues, les deux tiers des répondants jugent que la convergence entre matériels, logiciels et réseaux sera essentielle pour l'adaptabilité du SI aux enjeux métiers. Pour ce même objectif, un peu moins de la moitié des répondants est convaincue que la collaboration IT/métier est absolument indispensable.

Plus des deux tiers des DSI identifient bien que leur fonction est essentielle à l'innovation business. Mais, dans les trois ans, une majorité des DSI comme des directions métiers jugent que la DSI en tant que telle disparaîtra au profit d'équipes IT embarquées dans les directions métiers.

 

 

A PROPOS DE L'ÉTUDE

L'étude Endangered IT a été réalisée par le cabinet Arlington Research sur la commande de VCE, la division Converged Platforms de EMC. Elle est basée sur une enquête menée auprès de 2741 répondants, responsables IT ou métiers, répartis dans une quinzaine de pays (Royaume Uni, Irlande, France, Allemagne, Suisse, Benelux, Suède, Danemark, Norvège, Afrique du Sud, Emirats Arabes Unis, Arabie Saoudite et Qatar). Le questionnaire a été administré en ligne en janvier et février 2016

L'environnement à l'heure de l'Entreprise Numérique.

Alors que l'on tend vers une digitalisation totale du poste de travail d'un salarié, savons-nous réellement quel est l'impact environnemental de la vie professionnelle de chacun ?

Quelle est l’empreinte numérique d’un salarié ?

Par Frédéric Bordage  -  22/04/2016

Pas terrible

Correct

Bien

Super

Excellent

 

ImprimerImprimer

Benchmark Green IT 2016 - Infographie

Si vous lisez régulièrement GreenIT.fr, vous connaissez déjà l’empreinte d’un internaute et les gestes clés pour la réduire. Mais qu’en est-il d’un salarié dans le cadre de sa vie professionnelle ?

Pour la première fois en France et en Europe, 9 grandes entreprises privées et publiques ont agrégé les données de leurs systèmes d’information pour évaluer l’empreinte environnementale associée et identifier les principaux leviers et bonnes pratiques à mettre en œuvre pour la réduire.

Réalisé par GreenIT.fr pour le compte du Club Green IT et du Cigref, en collaboration avec laFing et le programme Transitions2, ce benchmark a porté sur :

  • 515 000 utilisateurs ;
  • 2,6 millions d’équipements informatiques et télécoms ;
  • et 56 400 m2 de salle informatique ;

Sauf exception, tout le système d’information situé en France a été pris en considération. La fabrication et l’utilisation des équipements ont été prises en considération au travers de trois indicateurs environnementaux :

  • énergie (dont énergie grise et incluant l’électricité) ;
  • eau (eau bleue, sauf pour le papier qui inclut l’eau verte) ;
  • gaz à effet de serre ;

23 000 litres d’eau par an et par utilisateur

L’empreinte environnementale annuelle du système d’information des 9 organisations étudiées totalise :

  • 782 344 MWh d’énergie (soit 5,8 millions d’ampoules basse conso allumées pendant 1 an) ;
  • 264 440 t CO2e (soit 1,6 milliard de kms en voiture) ;
  • 11 988 530 m3 d’eau (soit 1,3 milliards de packs d’eau minérale).

Soit une empreinte numérique par utilisateur et par an de l’ordre de :

  • 1 520 kWh d’énergie (l’équivalent de 50 ampoules basse consommation allumées pendant 2000 heures) ;
  • 514 kg CO2e (l’équivalent de 3 100 kms en voiture, soit un Paris-Moscou) ;
  • 23 555 litres d’eau (l’équivalent de 428 douches ou de 2617 packs d’eau minérale).

Les organisations qui ont participé au Benchmark Green IT 2016 du Club Green IT sont plus matures que la moyenne. Elles ont toutes initié une démarche Green IT / de numérique responsable depuis des années. Ces chiffres doivent donc être pris avec du recul et majorés significativement pour obtenir une empreinte plus représentative de la moyenne nationale.

Dans une prochaine série d’articles nous présenterons les autres enseignements du Benchmark Green IT 2016 : sources d’impacts, bonnes pratiques à mettre en œuvre, etc. Stay tuned !

Si vous avez fait cet exercice dans votre entreprise, vos chiffres nous intéressent ! Partagez-les en commentaire.

Sources : GreenIT.fr et http://club.greenit.fr/benchmark.html

L'infographie du vendredi : le content marketing au service du SEO.

Les bienfaits du marketing de contenu sont multiples, mais savez-vous pourquoi il influe positivement aussi sur votre référencement naturel ?  

Infographie 4 raisons dintegrer le marketing de contenu dans une strategie de referencement min4

La conversion des prospects en clients...

Avec un cycle de vente est de plus en plus long en BtoB, les services commerciaux et marketing ont dû réinventer leurs métiers et mettre en oeuvre une qualification plus précise des contacts et un nurturing évolutif pour accompagner et amener leur prospects à maturation

4 CONSEILS POUR ACCÉLÉRER LA CONVERSION DES PROSPECTS

En BtoB et dans l’univers de la tech et de l'IT, il est fréquent qu’un laps de temps important sépare le moment où votre prospect se rend sur votre site et celui ou le contrat est signé. Ce délai est d’autant plus long que l’achat est stratégique pour lui. Pour obtenir des leads qualifiés prêts à signer plus rapidement, la solution la plus adaptée est de l’accompagner tout au long de son parcours.

En suivant nos 3 conseils, vous pourrez accélérer la conversion des prospects dans votre funnel.

1. Alimentez vos prospects en contenus 

Le lead nurturing vous permet d’alimenter vos prospects tout au long de leur parcours, ce qui correspond au temps de qualification et de maturation nécessaire à la prise de décision.

Pour faire "maturer" un lead, vous devez avoir récolté au moins son adresse mail. C'est pourquoi il vous faut un blog proposant un abonnement et/ou des guides à télécharger. Ceux-ci doivent être proposés gratuitement en veillant à ne demander que les informations qui vous sont nécessaires, cela rassurera votre contact.

Ainsi, vous allez être en capacité d'envoyer des emails automatisés, lui permettant d'avancer dans sa "buyer's journey", grâce à des contenus correspondant aux étapes préalablement définies.

Les bénéfices

  • Faire gagner du temps aux équipes commerciales en évitant la gestion de leads peu qualifiés,
  • Automatiser la conversion des prospects et améliorer sans cesse le parcours d'achat.

Quels contenus en fonction du niveau de maturité de vos prospects ?

  • TOFU : Top of funnel
    Le prospect démarre son parcours d'achat. Il est face à une problématique et va chercher à la résoudre. Il faut lui apporter des réponses pertinentes, des données de marché, des comparatifs, etc.
    Contenus : Articles et guides très pédagogiques, données chiffrées.
  • MOFU : Middle of the funnel
    Vos prospects sont maintenant rassurés par votre capacité à comprendre les données de ses problèmes. Ils n'ont pas arrêté leur choix, ils ont besoin de plus d'informations. Vous devez les accompagner.
    Contenus : Articles experts, ebook et guides beaucoup plus détaillés, témoignages clients et use cases.
  • BOFU : Botton of the funnel
    Vos leads sont qualifiés et "presque" prêts à acheter. Il faut les aider à confirmer leur choix en levant les derniers freins.
    Contenus : considération plus commerciale : offre d’essai, démonstration, documentation technique, documentation corporate.

2. Faites du "nurturing" automatisé

Le lead nurturing automatisé est une des composantes du marketing automation. Il s'agit de créer des scénarii qui sont déclenchés en fonction du type de prospect qui revisite votre site. En fonction de votre stratégie de contenus et de l'étape du funnel dans laquelle se trouvent les leads (voir chapitre précédent), des informations sont automatiquement envoyées à vos contacts.

Les bénéfices :

  • Une accélération du processus de conversion,
  • Un gain important de temps dans le traitement des relances,
  • Une qualité de relance pouvant aller jusqu'à l'ultra-personnalisation des messages en fonction des besoins de la cible.
  • Une économie de temps importante pour les services marketing et commerciaux.

 

 

 

 

 

 

3. Qualifiez-les !

Le lead scoring vous permet de surveiller la qualification de vos leads de manière automatique, tout en ajustant les contenus qui pourraient déclencher l’achat et ainsi accélérer le processus.

Les bénéfices :

  • Un gain de temps dans l'évaluation de valeur d'un contact,
  • Une mesure précise des paliers à atteindre et le déclenchement immédiat des actions qui en résultent,
  • Une note pour chaque lead dont le détail et le parcours sont consultables.

 4

 

. Multipliez les points de contacts

C’est un fait, aujourd'hui les prospects utilisent tous les moyens à leur disposition lorsqu'ils entament un processus de recherche. Mettez donc à profit plusieurs voies dans votre distribution de l'information. L'idée est d'aborder les différents canaux (blog, réseaux sociaux, emails, recommandations, guides…) de manière simultanée. L’intérêt de cette stratégie : elle multiplie les points de contact qui représentent autant de stimulations pour le prospect.

Les bénéfices :

  • La complémentarité des différents canaux assure la cohérence du discours de marque et du discours produit/service,
  • Développement de la notoriété de votre marque et de votre audience,
  • Augmentation de l'engagement de vos cibles et augmentation du potentiel de prises de contact.

 

En disposant d'une quantité de prospects peu qualifiés dans leur CRM vos commerciaux perdent du temps avec des prospects peu matures. Concentrer les efforts de votre équipe sur les leads vraiment qualifiés et prêts à être contactés. Il faut donc accélérer la phase de maturation. Le closing, la conclusion de la vente, marque la fin du parcours d’achat de vos leads et le début de la collaboration avec votre nouveau client. Et là c'est à vous de jouer !

L'entreprise numérique pousse à l'évolution du test logiciel.

Le test logiciel monterai sa part dans les dépenses IT à 6% en 2016. Et ce sont notamment les métiers qui amènent à cette forte évolution en plaçant l'utilisateur final (et souvent le client) comme objectif de satisfaction, c'est maintenant lui qui fait remonter ses exigences. 

Le marché français des tests logiciels pèse plus de 5 Md€. Le secteur affiche une croissance de 3,5% alimentée par la montée du numérique et de la mobilité. Les métiers y jouent désormais un rôle clé.

Les tests logiciels ne sont plus le parent pauvre du développement. Et la mutation des modèles d’affaire de l’industrie vers le numérique y est pour quelque chose. C’est une des conclusions que nous aurions pu tirer lors de la 8e journée française des tests logiciels qui s’est tenue ce jour à Montrouge. Un événement qui a d’abord atteint une forme de maturité avec 900 inscrits et quelques 35 sponsors, première illustration d’un secteur qui monte en puissance.

La seconde réside bien dans les chiffres. La France est entrée dans le top 10 des pays ayant le plus de testeurs certifiés ISTQB (la référence du secteur) avec 8 000 personnes (500 000 dans le monde), assure Eric Riou du Cosquer, président du Comité français des tests logiciels, en ouverture de l’événement.

Mais surtout, ce nombre de certifiés français, s’il illustre le dynamisme du secteur, traduit aussi sa croissance. En 2016, le secteur des tests logiciels en France devrait peser 5,3 milliards d’euros et compter pour 6% de la dépense IT dans l’Hexagone. « Cela est devenu un poste très important dans les budgets des entreprises », constate Arnold Aumasson du cabinet d’analyste Pierre Audoin Consultant (Groupe CXP). Même si le secteur connait une forte pression sur les prix. « Le marché en volume est plus élevé avec une phase importante d’industrialisation, ce qui a eu une pression sur les coût », explique-t-il.

Le numérique, conduit par les métiers, comme fil conducteur

Cet appétit pour le numérique par l’ensemble de l’industrie a ainsi contribué à alimenter la croissance du secteur.  Entrainant du coup dans son sillage une légère mutation du segment des tests.

« Les DSI étaient classiquement maîtres des tests », résume ainsi  Rémi Caudwell qui dirige les activités testing et QA Service Line de Sogeti. Mais aujourd’hui, parce les métiers « se sont emparés du digital », ils ont également pris une (grande) partie des budgets. En résulte par exemple « une disparition des centres d’expertise de tests, ajoute-t-il. Expertise dispersée désormais chez les métiers.

Un point que partage Arnold Aumasson qui a assisté à une montée en puissance du numérique (Mobile, Cloud, data) dans ce qui pousse les entreprises vers les tests. Devant la qualité (seconde priorité) et la sécurité (n°3).

Au-delà de la structuration des tests en entreprises, l’influence des métiers sur le secteur est également illustrée par les typologies de tests appliquées. En ligne de mire : la parcours utilisateur et l’interface. « Aujourd’hui, les entreprises placent leur cœur de business dans les apps », explique à son tour Nathalie Bouille, Global Account Manager, chez Dynatrace, un spécialiste du secteur. Pour elle, il est donc logique d’attacher un soin tout particulier à corriger les défauts d’une app qui est en frontal avec le client. La banque, les compagnies d’assurance et le retail, dans leur vaste stratégie de transition vers des modèles de services numériques, y sont fortement exposés, résume-t-elle en substance. Surtout, avec la mobilité, et la complexité grandissante des infrastructures (cloud, hybrides,…), la tâche devient de plus en plus ardue.

« Ce qui compte : l’utilisateur doit pouvoir utiliser son service dans un temps raisonnable », ajoute Rémi Caudwell (Sogeti). Alors qu’auparavant, la disponibilité des serveurs étaient justement un critère qu’il fallait « écouter » dans les tests, ce n’est aujourd’hui plus une priorité – et d’une façon globale, les couches techniques. Désormais, « on remonte les exigences à partir du client final. »

Dans ce contexte, les méthodes et l’outillage s’adaptent. La rapidité de mise à jour des apps, selon un cycle continu, implique aussi une accélération des méthodes de correction et des tests. « Auparavant, soutient Rémi Caudwell, on notait beaucoup de démarches manuelles, et une faible automatisation. Aujourd’hui, on attend un ROI rapide ». Et cela implique une montée en puissance des procédures automatisées. Selon lui, 80% des tests sont aujourd’hui automatisés. « Il faut être capable d’exécuter une campagne de tests en une nuit et de récupérer ces tests dans un outil d’ALM », ajoute-t-il, soulignant que les outils se sont adaptés à cette nouvelle donne.

Les plateformes Cloud, avec leur agilité inhérente, y ont donc bien leur carte à jouer. Ce que Neotys et la société française CloudNetCare mettait par exemple en avant lors de cet événement.

L'infographie du vendredi : la qualité des données.

Les données sont aujourd'hui le nerf de la guerre pour les entreprises ! Que ce soit pour améliorer leur relation client, booster leur efficacité (dont commerciale) ou optimiser les décisions, les données sont au coeur de toutes les attentions... à condition qu'elles soient bonnes.

Infographie qualite des donnees 2016

×