Blog

La base contacts : le pilier de la stratégie commerciale et marketing

La base du marketing ? C’est la base !

Que ce soit dans le cadre d’actions directes ou indirectes, toute la stratégie commerciale et marketing repose sur une base prospect/client qualifiée.

Nous allons ici voir le pourquoi du comment.

 

Mais pourquoi construire une telle base ?

 

Je sais, ça paraît évident. Mais croyez moi, ce n’est pas encore un acquis pour tout le monde.

La base de prospection comme la base client est le socle de chacune de vos actions :

  • de fidélisation 
  • de visibilité
  • de détection de leads
  • de nurturing

 

Sans une base à jour et valide, vos emailing, invitations, newsletters, campagnes de prospections et autres n’auront qu’un faible impact.

C’est donc grâce à une base qualifiée et informée que le marketing devient pertinent. Car nous sommes en 2016 ! Le marketing se doit aujourd’hui d’être personnalisé et informatif : la qualité avant la quantité.

 

Bon d’accord, mais comment la construit-on ?

 

Mettre à jour et étoffer sa base est souvent une activité délaissée des commerciaux. Et pour cause, c’est la partie la plus fastidieuse. Mais il y a 3 grands principes pour avoir une jolie base actualisée.

Tout d’abord le CRM… Non Mesdames et Messieurs les commerciaux, ce n’est pas l’outil du diable pour surveiller vos journées mais bel et bien l’outil qui garantit la mise à jour régulière des contacts, regroupe et optimise les données et organisent   le suivi et le nurturing.

Ensuite il y a les réseaux sociaux. C’est effectivement une mine de contact avec en plus la possibilité de pouvoir se mettre en relation de façon moins formelle. Seul petit bémol, tous vos interlocuteurs potentiels ne sont pas sur LinkedIn ou Viadeo et quand ils y sont, leur profil n’est pas forcément à jour.

Enfin la prospection téléphonique… Activité fastidieuse certes mais qui garantit le plus l’exactitude des informations obtenues. On obtient ainsi le nom de la personne en place, ses coordonnées et on peut même échanger en direct et récolter ainsi des informations actuelles et à venir (projet, changement d’organisation etc.).

D’accord, mais où est-ce que je trouve le temps de faire ça ?

Entre les projets, les réunions, les campagnes marketing, les rendez-vous etc. nous le savons, le travail sur la base de prospects/clients passe souvent au dernier plan… et finalement à la trappe. 

Pour le CRM, un peu de pédagogie interne et un outil adapté devrait permettre de bien mettre en place de nouvelles habitudes de saisies.

Pour le reste, il y a toujours l’externalisation. Récurrente ou ponctuelle, une mission de qualification par un prestataire vous permet de réactualiser ou de compléter une base tout en vous laisser le temps de vous consacrer à vos tâches à plus forte valeur ajoutée. De plus cette solution offre la possible de moduler les missions selon vos besoins.

Pour en savoir plus, retrouver notre offre de qualification :http://www.altermarket.net/pages/externalisation-commerciale/qualification-de-bases.html

La transformation numérique est en marche !

Entre challenges et contraintes, cette évolution réorganise l'entreprise et la fonction DSI tout particulièrement. Mais 41% des sociétés françaises ont déjà défini leur stratégie.

4 entreprises françaises sur 10 ont défini une stratégie globale pour leur transformation numérique

mercredi 29 juin 2016

41 % des entreprises françaises ont défini une stratégie globale pour leur transformation numérique. Tel est le constat dressé par BMC qui vient de dévoiler les résultats d'une étude sur la transformation numérique menée auprès de 169 entreprises françaises. Elle fait le point sur les principaux enjeux, obstacles et risques identifiés par les répondants, ainsi que le niveau de maturité auquel ils pensent se situer sur cette question. De manière générale, les entreprises avancent de manière encourageante sur cette question et cernent bien les tenants et aboutissants inhérents à la transformation digitale de leur entreprise. Revue point par point des principales conclusions.


Un niveau de maturité encourageant

41% des répondants déclarent avoir défini une stratégie globale pour mettre en œuvre la transformation numérique de leur entreprise, et 40% déclarent qu’il existe des initiatives individuelles ou par entité métiers. Seuls 12% d’entre eux en sont encore au stade de la réflexion. Sur une échelle de 1 à 7, 7 étant le niveau le plus mature, les répondants se situent en moyenne à 3,9, avec 82% des répondants dans les catégories 3, 4 ou 5.


Les objectifs poursuivis par la transformation numérique

On retrouve l’amélioration de l’expérience client en tête des enjeux que les entreprises considèrent comme « très important » dans le cadre de leur transformation numérique (58%), au même niveau que la fluidification du parcours client. Mais les enjeux ne sont pas seulement externes, puisqu’en 3ème position, c’est l’amélioration de la performance opérationnelle qui est considérée par 53% des répondants. Ces priorités font écho aux principaux points faibles des entreprises: la relation client reste souvent difficile à optimiser au regard du décalage qui sépare souvent les pratiques des clients et celles des entreprises. Leur besoin d’agilité est également fort tant les conditions de travail et de collaboration entre métiers restent difficiles.


Les risques, contraintes et challenges rencontrés

La disponibilité et l’intégrité des données sont considérées comme le principal challenge technologique de la transformation numérique (49%). L’amélioration de l’expérience client implique l’intégration de nouvelles technologies, de nouvelles parties prenantes et ouvre davantage l’entreprise vers l’extérieur. Dans ce contexte, il semble logique que la sécurité soit un sujet essentiel à relever pour garantir qu’il n’y ait aucun dysfonctionnement ou failles conduisant à une perte de confiance des utilisateurs. Pas surprenant alors que le principal risque associé par les répondants à la transformation numérique soit la perte de confidentialité des données (53,7%).

Parmi les principales contraintes rencontrées dans le processus, on retrouve en tête la lourdeur de l’organisation et des processus (53,7%), qui représente un véritable frein à la transformation numérique rapide des entreprises. Les contraintes techniques elles (BYOD, infrastructures hybrides, identification des fournisseurs…) ne sont pas considérées comme déterminantes. D’autres points d’attention sont cependant considérés comme des obstacles, dont le déficit de culture numérique des collaborateurs, le manque de proactivité des métiers et l’inadaptation des compétences de la DSI.

Ce sont pourtant les plus impliqués dans les projets de transformation numérique, avec 73% des répondants déclarant une implication forte, voire très forte de la DSI. Ils sont suivis par les DG (63%), les directions marketing (57%) et les CDO (53%).


Le nouveau DSI

Par conséquent, le métier de DSI s’en retrouve fortement impacté. 77,5% de répondants considèrent qu’un rapprochement de la DSI avec les autres directions métiers est essentiel à la transformation numérique, afin de combiner la vision stratégique des DG, les besoins des métiers, les attentes des utilisateurs et les expertises des DSI. La transformation numérique implique également une évolution des compétences du DSI (69%) principalement sur trois dimensions :

· Technique : pour mettre en place de nouvelles architectures et des infrastructures renouvelées (Cloud, …)

· Managérial : pour le leadership dans la conduite du changement et des relations plus étroites avec les métiers

· Organisationnel : avec un changement nécessaire de processus et d’approches dans la gestion de projets


Enfin, les répondants mettent en avant l’évolution du rôle de DSI vers un broker de services (56%), d’applications et d’infrastructures qu’il fournira aux métiers, afin de passer d’une logique de « faire » à une logique de « faire faire ». Ce qui n’impliquera pas nécessairement une marginalisation de la DSI à mesure que les métiers seront de plus en plus autonomes, puisque seuls 10% des répondants voient cette tendance émerger.



Méthodologie
L'étude a été menée fin 2015 par Best Practices Systèmes d’Information via un questionnaire en ligne auto-administré. Les réponses portent sur 169 entreprises de tous secteurs, dont 42,5% de plus de 5000 salariés. Près d’un répondant sur deux occupe une fonction de DSI.

Source: infoDSI.com

L'infographie du vendredi : les enjeux de la dématérialisation.

Que ce soit pour les factures, les procédures, les devis ou autres, la dématérialisation est aujourd'hui incontournable pour moderniser et fiabiliser les processus de son entreprise. Synonyme d'économie de temps et d'argent, les solutions logiciels qui répondent à ces besoins sont multiples, selon les besoins de chacun.

Infographielesenjeuxdeladematerialisationenentreprise

Le CRM, un ami qui vous veut du bien.

Et pour cause... le CRM est à la croisée des chemins du marketing, du commercial et de l'administratif. Il vous accompagne tout au long du cycle de vente et même après dans la fidélisation et le suivi de vos clients.

De la génération de leads à la signature – voire au-delà – le CRM peut se transformer en atout majeur pour les commerciaux. État des lieux des fonctionnalités et des bonnes pratiques d’un logiciel de gestion de la relation client à chaque étape du cycle de vente.

Un outil de « flicage » destiné au management, le CRM ? Pas si sûr ! Pour les commerciaux sur le terrain aussi, l’outil représente une formidable opportunité pour être plus efficace. Selon le cabinet CSO Insights, plus d’un quart des dirigeants se plaignent de cycles de vente trop longs, première cause du manque d’efficacité de leur stratégie commerciale. Et si le CRM accélérait tout cela ?

 

1. La génération de leads

 

Le commercial n’entre pas encore en scène mais le CRM lui prépare déjà le terrain. En reliant ses campagnes marketing à son outil, l’entreprise alimente automatiquement son CRM en contacts et rassemble des données qui seront indispensables aux commerciaux par la suite. Quelles offres intéressent le prospect ? Sur quels sujets a-t-il montré le plus d’appétence ? Autant de réponses qui se révéleront essentielles pour le travail du commercial dans la suite du cycle de vente.

 

2. La qualification

 

Que cela se fasse via un lead manager efficace ou au travers d’un service de télémarketing, la qualification des contacts générés prend à nouveau pour ciment le logiciel de CRM. Les informations recueillies sont ajoutées à la plate-forme collaborative pour faciliter le travail de vente. Dès qu’un lead « chaud » est détecté, il est immédiatement transmis à un commercial qui dispose d’ores et déjà d’informations précises et complètes, centralisées dans l’outil de CRM. Fini les e-mails récapitulatifs, incomplets et chronophages.

 

3. Le rendez-vous sur mesure

 

Ces informations détaillées en poche, le commercial détient tout ce dont il ou elle a besoin pour préparer son premier rendez-vous. Objectif : personnaliser le discours dès la première prise de contact et éviter ainsi les présentations toutes faites. Le futur client se projette immédiatement et les barrières tombent rapidement grâce à des réponses adaptées à ses problématiques.

 

4. La signature

 

Une fois le contact convaincu, l’importance du CRM persiste. Les données supplémentaires récoltées lors des entretiens sont centralisées dans l’outil pour le travail à venir de fidélisation. Les devis, les e-mails et lettres types sont ensuite générés automatiquement. Un gain de temps considérable pour les commerciaux qui ne se perdent plus dans les tracasseries administratives et se concentrent sur la signature.

 

5. Et après ?

 

Et, parce que devis signé n’est pas synonyme de retrait du commercial, le CRM, lui aussi continue son rôle central. Les équipes commerciales créent en un clic des tâches de relance dès les premiers mois pour contacter leurs nouveaux clients, suivre le projet, jauger du niveau de satisfaction, fidéliser, et – pourquoi pas – proposer de nouveaux produits ou services en fonction des informations présentes dans le logiciel de CRM. De quoi gagner non seulement un temps précieux mais aussi en efficacité commerciale et donc en chiffre d’affaires.

 

delphineDelphine Steinsultz

Ingénieure commerciale - INES CRM

Pourquoi opter pour l'externalisation de votre télémarketing ?

Gagner du temps, de l'argent et la possibilité de vous concentrer sur votre métier... Retrouvez les témoignages de nos clients : 

Les activités de télémarketing qui impliquent la réalisation de campagne marketing en ligne ou par l’intermédiaire de divers outils de communication comme le téléphone nécessitent une stratégie outsourcing pour être plus rentables. De plus en plus de sociétés optent pour cette option stratégique, mais pourquoi ?

Une stratégie qui permet de réduire les charges.

L’outsourcing ou externalisation est un bon moyen pour une société de réduire les charges dans l’application d’une campagne de télémarketing. En effet, en engageant du personnel externe, et notamment dans un pays où la main d’œuvre est moins chère, l’entreprise diminue les frais salariaux. Mais également, en externalisant et en attribuant des services de télémarketing pour développer votre entreprise et sa clientèle à une agence externe, elle n’aura pas à engager du personnel à 100 %, mais seulement, selon le volume et la charge de travail. Les coûts liés aux matériels seront aussi réduits étant donné que, selon le contrat établi, généralement, ils sont supportés en totalité par le prestataire. En outre, si le prestataire effectue des actions de campagnes par téléphone, il sera possible à la société d’obtenir de meilleurs résultats qui contribueront à améliorer son chiffre d’affaires. En ce sens qu’il sera possible d’atteindre des objectifs plus audacieux en collaboration avec une structure bien rodée et qui fait des contrôles et des suivis minutieux.

Une option qui permet de gagner en temps.

Plusieurs fonctions qui devraient être un engagement de la société sont déléguées au prestataire en faisant l’externalisation dans la campagne de télémarketing. De ce fait, la société n’aura pas à faire le processus de recrutement ni la démarche de formation, elle n’aura qu’à faire le suivi. Il en est de même pour la réalisation des travaux étant donné que 100 % des tâches et des opérations peuvent être assignées au prestataire, selon le contrat. Ainsi, la société peut se concentrer un peu plus sur le cœur de son métier et se focaliser sur la stratégie et la relation client. Un autre avantage dans ce contexte c’est que la société pourra pleinement profiter des qualités et des compétences du prestataire.

En effet, en tant que fournisseur de service, ce dernier mettra tout en œuvre pour fournir la meilleure des qualités à la société qui se positionnera dans l’externalisation comme un client à part entière. Par ailleurs, c’est une aubaine pour la société étant donné que les prestataires externalisés dans les campagnes marketing sont de plus en plus spécialisés. De ce fait, ils sont de plus en plus compétents dans un domaine donné. Ce qui permettra de gagner énormément de temps, mais aussi, avoir la confiance d’une prestation fiable.

L'infographie du vendredi : le salarié ambassadeur.

Vous dynamisez votre stratégie marketing et souhaitez-vous vous tourner vers le web et le marketing digital ? Alors ne négligez pas l'importance des salariés ambassadeurs dans cette démarche. Ils véhiculeront et crédibiliseront le discours et l'image de l'entreprise.

Beaucoup d’entre eux l’ignorent, pourtant les salariés ont une fonction de porte-parole de l’entreprise sur les réseaux sociaux. Même s’ils les utilisent à titre personnel, ils sont associés à l’image de leur employeur et peuvent donc l’influencer de manière positive comme négative. Les entreprises ont tout intérêt à sensibiliser leur personnel sur cette influence et à trouver comment les intégrer pleinement à leur communication, pour les transformer en salariés-ambassadeurs. Surtout qu’une telle stratégie multiplie la viralité des contenus.

Markentive vous présente aujourd’hui une infographie de Dynamic Signal qui explique l’importance de mettre en place des programmes Ambassadeur au sein des entreprises.

Why employee advocacy is now mainstream

La transformation digitale des entreprises : le passage obligé

L’acquisition de leads, l’utilisation des réseaux sociaux, la maîtrise des comportements des prospects et la mise à disposition de contenus de qualité représentent les enjeux de la digitalisation auxquels les entreprises doivent faire face.

Il est donc essentiel pour elles d’opérer une transformation digitale complète au sein de leur structure pour rester concurrentielles sur le marché. Cette importance, de nombreuses entreprises l’ont déjà constatée : 88% d’entre elles sont en train de se digitaliser. D’ailleurs, la stratégie digitale représente 75% du budget marketing.

Les réseaux sociaux : vecteurs de communication importants pour les marques

L’infographie nous apprend que 87 % des marketeurs B2B utilisent les réseaux sociaux pour diffuser leurs contenus. Et ils ont raison, car 78% des entreprises présentes sur ces plateformes génèrent plus de ventes que celles qui ne les utilisent pas.

C’est à cet instant qu’intervient le rôle des salariés, qui eux aussi assurent une présence sur les réseaux sociaux : 88% affirment être inscrit pour des raisons personnelles, mais seulement 50% ont déjà posté des informations relatives à leur entreprise.

Les dirigeants et directeurs marketing ont compris que la présence sur les réseaux sociaux de l’entreprise peut intelligemment se combiner avec celle de ses salariés les plus engagés dans la sphère digitale. À condition de savoir comment encourager les collaborateurs à diffuser des informations liées à l’entreprise sur leurs profils sociaux.

Les salariés : des ambassadeurs qui inspirent confiance

Sur les réseaux sociaux, la cote de confiance des salariés d’une entreprise est plus élevée que le compte officiel d’une marque. L’infographie révèle qu’un message émanant d’une marque, mais mis en ligne par un employé, est 24 fois plus partagé que lorsqu’il est diffusé par la marque elle-même.

Il s’agit d’un véritable changement de paradigme qui guide les entreprises à reconsidérer leur approche des salariés en matière de présence sur les réseaux sociaux. Pour le moment, seuls 33% des employeurs encouragent les salariés à partager des contenus provenant de l’entreprise.

Cependant, les encourager n’est pas suffisant. Les réseaux sociaux obéissent à des codes spécifiques et selon la plateforme, ainsi que le profil des buyers persona, les attentes diffèrent. Les collaborateurs doivent être en mesure d’appréhender ces spécificités. C’est d’autant plus important qu’en moyenne, un salarié profite d’une portée naturelle de 1 140 internautes et d’une communauté élargie : seuls 8% des abonnés d’un employé suivent aussi le compte de l’entreprise.

Les résultats d’une politique de salariés ambassadeur

Pour terminer, l’infographie nous propose les résultats de la mise en place d’une politique de salariés ambassadeur. Les entreprises interrogées ont constaté un taux de conversion de 9,6% en moyenne après la mise en place d’une campagne soutenue par les employés. Le fait que ces derniers partagent du contenu de marque permet de quintupler le trafic sur le site institutionnel de l’entreprise et d’acquérir 25% de leads supplémentaires. La visibilité de la stratégie Content Marketing est multipliée par 11, tandis que les inscriptions aux événements augmentent de 20%.

 

 « L’employee advocacy » permet de dynamiser les contenus réalisés par les marques et de booster leur notoriété. Les salariés transmettent une image positive des entreprises, ce qui entraine une amélioration de la marque employeur, de l’e-réputation et de l’acquisition de leads. Vous avez tout à y gagner et vos collaborateurs également…

Comment ?!?!? Vous n'animez pas de webinaires ?

Le webinaire est un moyen ludique et peu contraignant d'améliorer la visibilité de votre société et de votre offre. Démonstration visuelle, identité marquée, contacts avec votre cible de prospect... Les bénéfices sont multiples. Un petit bilan sur pourquoi et comment mettre en place des sessions de webinaires.

Vous connaissez mal les webinars et vous n’avez pas pris le temps de vous renseigner plus jusqu’à maintenant ? Erreur ! Car si cet outil est encore peu utilisé, il peut vous permettre d’optimiser d’augmenter considérablement votre base de prospects et l’attachement à votre marque. Vous vous demandez comment ? Lisez cet article, j’y détaille tous les secrets du webinar. De quoi vous convaincre de vous lancer dans cette aventure !

Le webinar : Kesako

Parlons peu, parlons bien : je dois avant toute chose vous expliquer ce qu’est un webinar ! En fait c’est très simple ! Il s’agit de la contraction des mots « web » et « seminar ». Autrement dit : c’est un séminaire (ou une conférence, un atelier…) organisé par votre entreprise, diffusé uniquement sur le web. Vous n’accueillez donc pas un chat dans vos locaux : vos intervenants interagissent via leur ordinateur, en direct avec leur audience.

Pourquoi vous lancer dans un webinar ?

Si vous n’aviez pas encore compris mes nombreuses allusions, sachez que cet outil à des avantages incontestables ! Je vous en cite quelques-uns :

  • Vos prospects n’ont pas à se déplacer. Ça signifie moins de coûts logistiques et de perte de temps : ils seront donc plus enclins à participer. En plus, vous pouvez même espérer accueillir des participants venus des quatre coins du monde ! Organiser un webinar, c’est donc augmenter sensiblement votre audience par défaut.
  • Le webinar facilite les échanges avec votre audience. C’est sûr, vous avez déjà vécu ce moment : vous venez de poser une question, et voilà que toute l’audience se retourne pour vous écouter. Cool ! Sauf que vous n’êtes pas vraiment à l’aise à l’oral… Note à vous-même : réfléchir à deux fois avant de poser une autre question… Grâce au webinar, vos prospects n’auront pas à se soucier de ce problème ! Ils pourront interagir bien au chaud derrière leur écran, via un système de chat ou de commentaires. Pratique ! En plus, le fait d’interagir en direct avec eux créera de la proximité : c’est un premier pas vers la fidélisation !
  • Et comment parler des avantages sans mentionner le replay ? En publiant la vidéo de votre webinar sur Youtube ou votre site, votre communauté pourra y avoir accès et la partager même après sa diffusion ! Un webinar a donc une durée de vie illimitée. Et plus votre contenu sera partagé, plus votre audience sera susceptible de grimper au prochain webinar !

Petite astuce : pourquoi ne pas y associer un lien vers votre site ou des articles complémentaires? Cette pratique est relativement courante. Elle permet d’une part de vous faire connaître sur le web, mais aussi de vous assurer un trafic ciblé vers des pages clés de votre site. Prenez exemple sur l’entreprise Melbourne SEO Services.

Extrait d’un webinar de Melbourne SEO Services

kjn

Concrètement : les bonnes pratiques

Organiser un bon webinar, ça ne s’improvise pas. Pour ne pas passer à côté des points essentiels, voici un récap’ des bonnes pratiques.

Parlez-en !

Pour attirer des prospects qualifiés lors de votre webinar, ne lésinez pas sur sa promotion ! Qu’il s’agisse de votre tout premier ou de votre 51ème, il faut avant tout informer votre communauté, et susciter son intérêt quant au sujet que vous allez aborder. Réseaux sociaux, site internet…mettez toutes les chances de votre côté !

Pensez aussi à créer des articles associés à votre webinar : date et heure, problématique(s) que vous allez traiter, intervenant(s), durée … ? Ce sont autant d’informations dont vos prospects auront besoin pour se décider d’assister ou non à votre webinar.

Et pour quantifier votre audience, vous pouvez d’ores et déjà mettre en place un système d’inscriptions : vous saurez exactement combien de participants attendre, et s’il vous faut accentuer votre communication !

Le site Kompass a très bien compris ces principes :

Extrait d’un article de blog de Kompass

ghf

Ici, on a accès à toutes les informations essentielles : sujet, intervenants, date et heure et durée… Pas mal !

Optimisez votre présentation

Ce n’est pas parce que c’est sur le web que vous devez négliger la préparation de votre webinar ! Jetez un œil à celui-ci :

 

 

Avouons-le : avec un webinar de ce type, c’est loin d’être gagné !

Imaginez-vous passer 1h21 de votre temps à regarder cette interface pas vraiment attrayante (qui ne varie pas), et à écouter cet orateur qui n’est visiblement pas très au point avec son texte (hésitations, retours en arrière…). Et pas la peine de s’attarder sur la présence de l’enregistreur, et du son pas vraiment clair…

 Pour éviter d’en arriver là, plusieurs conditions sont nécessaires :

  • Investissez dans du matériel de professionnel (caméras, micros…). Vous offrirez ainsi une bien meilleure expérience à vos auditeurs, qui seront moins susceptibles de décrocher.
  • Soignez votre présentation (si vous êtes vous-même filmé) et votre discours (maîtrisez bien votre sujet). Alternez les images et les supports, faites des blagues, soyez sympathique pour vos auditeurs… Bref, faites tout pour qu’ils souhaitent en savoir plus sur vous et vos produits : ne vous cantonnez pas à réciter un texte.

Maîtrisez la durée de votre webinar

Pour ne pas lasser vos internautes, fixez-vous une durée maximum à ne pas dépasser. La bonne pratique est de compter entre 30 min et une heure.  Je ne vous apprends rien : un téléphone qui sonne, une urgence client, un collègue qui vient blaguer avec vous et ça y est, vous décrochez. Et bien c’est pareil pour vos prospects ! En plus, ils auront beaucoup moins de scrupules à quitter votre webinar que s’il s’agissait d’une conférence classique.

N’oubliez pas le reporting !

Organiser un webinar, c’est bien, mais assurer son suivi, c’est mieux ! A la fin de votre webinar, n’oubliez pas de collecter les informations de reporting : temps passé par chacun des prospects, interactions, réponses aux questions, etc… Ça vous permettra notamment d’analyser ceux qui sont susceptibles d’être plus intéressés par votre marque, et qu’il faudra relancer en priorité. Bref, le webinar est aussi un excellent outil de pré-qualification de vos prospects !

Et concernant le budget ?

Aux grands maux, les grands remèdes : l’organisation d’un bon webinar peut facilement monter jusqu’à  plusieurs centaines ou milliers d’euros. Comptez donc quasiment le même budget que pour l’organisation d’un évènement traditionnel. Mais si la plupart des webinars sont proposés gratuitement, vous pouvez aussi faire payer l’entrée au vôtre, de façon à rentabiliser votre investissement. Cependant on ne vous garantit pas que vous aurez la même audience…

Sinon, sachez que vous disposez d’alternatives beaucoup moins coûteuses :

  • La plateforme « Youtube Live » vous permet aussi de partager vos vidéos à moindre coût. Vous pouvez y créer une « chaîne », dédiée à vos différents webinars. L’entreprise VivoTek utilise par exemple cet outil.

Extrait de la chaîne Youtube de VivoTek

vivo

  • Intégré à Google+, « Google Hangouts » vous servira aussi dans l’organisation de votre webinar : vous pouvez modifier et partager en direct des documents avec votre audience, et faire des vidéos à plusieurs.

 Mais pour une meilleure qualité, je vous conseille de faire appel à des plateformes payantes telles que WebinarJam, et d’en organiser aussi souvent que possible pour rentabiliser l’investissement.

En plus, ces webinars finiront par refléter votre identité de marque : vous serez reconnus pour votre expertise et instaurerez des rendez-vous avec votre audience. Ce qui veut dire plus de chances de solliciter le bouche-à-oreilles et d’obtenir de plus en plus d’audience ! Sans parler du fait qu’interagir avec vos cibles permettra de vous rapprocher de votre communauté, et de stimuler l’attachement à votre marque. Bref, c’est cher, mais ça en vaut la peine ! L’entreprise Kompass l’a bien compris, et organise régulièrement des webinars. Elle a même créé un onglet dédié sur son site internet !

Extrait du blog de Kompass

g

Le mot de la fin

Organiser un webinar est donc tout bénéfice, aussi bien pour vous (visibilité web, fidélisation, trafic ciblé…) que pour vos prospects (gain de temps et d’argent, se former gratuitement en écoutant des experts…). En bref, c’est donc tout aussi efficace qu’un séminaire classique (même plus), les contraintes en moins ! Que demander de plus ?

Partagez cet article

FacebookTwitterLinkedinGoogle+

About the Author: 

Hélène GRENOUILLEAU

Baignée depuis peu dans le digital, j'ai développé une véritable connaissance des enjeux du web. Mon premier réflexe en arrivant le matin au boulot ? Me faire un thé bien chaud. Une fois fraîche et dispo, je suis parée pour aider les entreprises à développer leur potentiel sur le web. Retrouvez-moi aussi sur les réseaux sociaux de l’entreprise : je suis fan de community management.

L'infographie du vendredi : les cocktails du Content Marketing.

Une infographie qui sent bon les vacances, l'été et le récapitulatif des outils de marketing digital.

Infographie juin

Business model : pour tout savoir sur le modèle scalable.

On le retrouve également sous le terme d'"ubérisation", le modèle scalable fait rêver les uns et grincer des dents les autres. Mais savez-vous réellement sur quels principes repose ce nouveau business model ?

Stéphane Schultz est fondateur de 15marches, une agence de conseil en stratégie et innovation qui accompagne à la fois jeunes pousses et grands groupes. Pour les inspirer, il analyse les secrets des nouveaux géants du numérique qui changent les usages, modèles économiques, stratégies... Cette semaine, décryptage de cette capacité propre aux start-up de "passer à l'échelle" ou "scalability", via l'étude des modèles Uber RATP et SNCF.

Au fait, c'est quoi un modèle économique scalable ?
Au fait, c'est quoi un modèle économique scalable ?© Adam Fagen - Flickr https://www.flickr.com/photos/afagen/

A LIRE AUSSI

Au fait, c'est quoi une plate-forme ?

Au fait, c'est quoi une plate-forme ?

Pas de transformation numérique sans API... Mais c'est quoi au fait ?

Pas de transformation numérique sans API... Mais c'est quoi au fait ?

Vidéo : Mais au fait, c'est quoi exactement le Deep Learning ?

Vidéo : Mais au fait, c'est quoi exactement le Deep Learning ?

Une startup se différencie des autres entreprises par son modèle économique, et notamment sa capacité à « passer à l’échelle » (en anglais : scalability). Exemples et décryptages avec l’étude des modèlesUberRATP et SNCF.

 

QU’EST-CE QU’UN MODÈLE ÉCONOMIQUE SCALABLE ?

Impossible de lire une publication sur les nouveaux modèles économiques sans tomber sur la formule obscure de “business model (ou modèle économique) scalable”. Par « scalable » on entend "capable de passer à l’échelle", mais le concept est rarement défini. Il est important car il différencie à juste titre les startups des autres types d’entreprise. Seul un modèle scalable permet d’atteindre les “rendements croissants” caractéristiques d’une jeune pousse. Dans un modèlescalable, plus l’activité se développe, plus la rentabilité est importante, de manière non linéaire et sans effet de palier. Mais comme on ne peut pas définir un concept par son résultat, j’ai préféré partir d’un exemple concret et le comparer aux modèles non-scalables qu’il vient concurrencer.

 

L’exemple choisi n’est pas anodin : je vais analyser le modèle économique d’Uber, et le comparer aux modèles classiques du transport, le “modèle RATP”, ainsi qu’à un modèle plus élaboré mais toujours pas scalable, le “modèle TGV”. J’espère en décryptant ces trois exemples vous aider à comprendre ce qu’est la scalabilité, et plus globalement ce que recherchent les startups par rapport aux entreprises “classiques” (pour les puristes, je ne détaillerai pas ici les business models au sens du “business model canvas” mais simplement leurs éléments essentiels).

 

1. LE MODÈLE UBER

Je m’appuierai pour cette explication sur un schéma de David Sacks, fondateur de Yammer et ex-COO de Paypal. J’ai utilisé en 2014 ce schéma dans une présentation qui détaille les clés du succès de Uber, Blablacar et Airbnb (à découvrir ici). Il est temps maintenant de la décrypter point par point.

 

Dans un modèle de plateforme comme celui d’Uber, les forces de production (les conducteurs) sont des professionnels indépendants ou des particuliers. Ils doivent répondre à des contraintes – être titulaire d’un permis de conduire, posséder un véhicule, avoir un casier vierge,… – dont ils portent seuls la responsabilité. Non seulement leur coût unitaire, à l’instar d’autres travailleurs indépendants, est plus faible que celui d’un salarié, mais leur capacité de production est totalement "liquide" : on parle de travail "à la demande" ou "à la pige" (gig economy). Ils ne sont payés que quand ils travaillent, et ne coûtent rien au client (ni à la plateforme) quand ils ne travaillent pas.

 

 

Le cercle proposé ci-dessus indique donc logiquement qu’à une hausse de la demande répond une hausse de l’offre, ce qui se traduit en matière de transport par une meilleure couverture géographique (et temporelle), ce qui réduit le temps d’attente du voyageur et augmente sa satisfaction : c’est le cercle vertueux qui permet à la demande initiale de générer de la demande supplémentaire.

 

La spécificité du modèle mis en place par Uber est qu’il adjoint à ce premier cercle un second (à gauche), par lequel la hausse de la demande pour les conducteurs leur permet d’effectuer plus de courses par jour (ou par heure), ce qui permet à Uber debaisser les tarifs unitaires par course. Qui dit baisse des tarifs dit hausse de la demande, grâce à la fameuse élasticité de la demande au prix enseignée dans toutes les bonnes facultés d’économie. Pour celles et ceux qui ne croient pas à la "main invisible" qui semble parfaire ce modèle, j’ai ajouté ci-dessous certains éléments pour mieux comprendre le système mis en place.

 

 

Tout d’abord, Uber n’est pas Le Bon Coin : la plateforme ne se contente pas de mettre face à face offre et demande. La "meilleure couverture géographique" est améliorée par des recommandations de localisation que les conducteurs reçoivent directement sur leur appli (qui n’est pas la même que la vôtre). Ensuite, elle fixe elle-même les tarifs. Contrairement aux taxis qui appliquent des prix fixés par arrêté préfectoral, Uber développe des algorithmes complexes capables d’adapter les tarifs en temps réel en fonction de la demande. Ce système, baptisé surge price, a une double vertu : la hausse des tarifs "lisse" la demande en décourageant les clients de se déplacer à certaines périodes/dans certains lieux, et elle encourage les conducteurs à travailler durant ces périodes (pensez au soir de Noël).

 

Évidemment, tout cela est possible grâce à la géolocalisation des véhicules et des clients, et l’utilisation de modèles mathématiques analytiques et prédictifs (appelez ça big data si vous voulez). Dans une étude de 2014, les ingénieurs d’Uber ont démontré qu’ils étaient capables de prévoir 3 déplacements sur 4 d’une semaine sur l’autre à San Francisco.

 

Concernant la "petite boucle" vertueuse (à gauche), elle est facilité par deux paramètres (en plus du tarif, déjà développé) :

- le coût d’approche est supporté par le chauffeur lui-même : il a tout intérêt à limiter son temps "à vide" et multiplier les courses

- le pouvoir de négociation des chauffeurs, sur les tarifs notamment, est faible. Pas de syndicats (même si cela commence à bouger), et pas la main sur les tarifs - et donc sur leurs revenus. Lorsque Uber a décidé de baisser les tarifs de 20% cet automne, certains ont bien protesté, mais sans résultat. Bienvenue dans le monde des plateformes…

 

Je pourrais ajouter à ce modèle un autre facteur très important pour Uber : lacapacité de transporter plusieurs clients dans une même course. Appelé Uber Pool, ce service permet aux voyageurs de payer moins cher en acceptant de partager leur trajet et faire quelques détours.

 

 

Là encore, le modèle économique d’Uber Pool recèle son propre "double cercle vertueux" :

- les passagers paient moins cher que s’ils voyagent en solo, donc plébiscitent cette fonctionnalité (déjà une course sur deux à San Francisco et 20% dans le monde)

- les conducteurs ne sont pas plus payés, mais ils effectuent des courses plus longues donc plus chères

Uber touche évidemment plus d’argent avec moins de conducteurs.

 

Combinez les trois boucles vertueuses décrites ci-dessus, vous avez les fameux "rendements croissants" : chaque passager supplémentaire et chaque conducteur supplémentaire génèrent de plus en plus de revenus pour la plateforme. Vous comprenez maintenant pourquoi cette entreprise, et ses clones asiatiques, sont valorisés plusieurs dizaines de milliards de dollars. Ce qui n’est pas exactement le cas de leurs concurrents "traditionnels".

 

2. LE MODÈLE RATP

Le modèle économique d’un opérateur de transport comme la RATP estdimensionné par la rigidité de l’offre. Le nombre de véhicules, le nombre de conducteurs, l’emplacement des dépôts, la réglementation des temps de travail… conditionnent des coûts et des effets de seuils importants. Former un conducteur de bus prend plusieurs années et coûte très cher. Acheter un bus également. Ne parlons pas des locaux et garages. En conséquence, les services s’adaptent lentement à la demande et doivent anticiper longtemps à l’avance les réponses à de nouvelles demandes (pensez au métro la nuit). Surtout, les tarifs étant fixés par la collectivité, ils sont structurellement trop bas et ne couvrent pas les charges, ce qui nécessitent des subventions de fonctionnement et d’investissement.

 

 

Tout ceci conduit à un modèle d’adaptation "par la saturation" : la hausse de la demande ne trouve pas de réponse en terme d’offre, ce qui dégrade la qualité perçue (temps d’attente, obligation de marcher pour trouver une ligne). La saturation augmente l’inconfort et le temps de parcours. Au final, les clients insatisfaits qui le peuvent finissent par trouver d’autres modes de transport (pensez aux nombres de scooters à Paris). C’est le cercle vicieux. Enfin, les tarifs ne sont pas modulables et comportent leur propre "boucle vicieuse" : les heures de pointe (fort coût marginal de l’offre) transportent majoritairement des abonnés (faible recette au voyageur), alors que les heures creuses (faible coût marginal de l’offre : c’est le même bus et le même conducteur que tout à l’heure) transportent majoritairement des passagers occasionnels qui paient cher (un ticket à l’unité : 1,80€) et donc sont peu nombreux. Offre limitée + tarifs rigides = baisse de la fréquentation/course + baisse de la recette/course. L’exact inverse d’Uber.

 

3. LE MODÈLE TGV

Ce modèle, inspiré du transport aérien, tente de limiter les effets pervers du premier en tentant de maximiser les recettes à offre constante grâce à deux paramètres : la réservation obligatoire et la modulation des tarifs.

 

 

Le système est capable de prévoir de manière théorique le remplissage des courses (ex. : le TGV de 8h05 dans deux mois) : il fait varier en plus ou en moins les tarifs et promotions selon le nombre constaté de réservation par rapport au remplissage théorique. Il peut également jouer sur le nombre de places "ouvertes" à certains tarifs bénéficiant de réduction (senior, jeunes,…). L’objectif est de maximiser la recette des offres les plus demandées, et d’orienter la demande vers des offres moins demandées et moins chères (les retours en sens inverse des courses "de pointe"par exemple, ou les trajets province-province).

 

Ce système présente des vertus pour le producteur de service, mais n’est pas pour autant "scalable". Les rendements n’augmentent pas de manière proportionnelle. Au contraire, plus il y a d’offre, moins les tarifs élevés se justifient. De plus, cette modulation tarifaire est mal vécue par la clientèle et contribue à l’image de "cherté". Elle fonctionne bien s’il n’y a pas d’alternative ni de concurrence. Blablacar a longtemps communiqué sur ses tarifs "sans changement de dernière minute", visant clairement ceux du TGV. Enfin, la réservation obligatoire colle mal avec le désir de "temps réel" et "dernière minute" des jeunes générations. Pas facile.

 

Stéphane Schultz, fondateur de 15marches, une agence de conseil en stratégie et innovation

Les avis d'experts et points de vue sont publiés sous la responsabilité de leurs auteurs et n’engagent en rien la rédaction.

L'infographie du vendredi : Le pitch du call en télémarketing BtoB.

Sans que l'appel soit trop formaté, il faut tout de même avoir une trame des différentes possibilités pour être préparé aux différentes éventualités et ne pas se retrouver décontenancé par une objection. Voici celui que nous utilisons généralement :  

Schema de la prospection it

L'infographie du vendredi : le Chief Data Officer, le nouvel indispensable.

Le CDO est une fonction très récente et pourtant déjà quasiment incontournable. A l'ère de la Data-toute-puissante, il devient la pierre angulaire qui relie l'IT, les enjeux business et les métiers.

Infography cdo wanted v2

Travail collaboratif et management transverse.

Grâce à (ou à cause de) la digitalisation, les cloisons tombent entre les services et les projets qui sont engagés se retrouvent partagé par différents département... "Plus de collaboratif, c'est bien !" direz-vous. Et vous avez raison, à condition que le management évolue dans la même direction...

Le travail collaboratif a le vent en poupe. Favorisé par le développement des nouvelles technologies, il permet une meilleure collaboration entre les membres d’une entreprise. Cependant, cette méthode de travail ne fait pas que des émules. En effet, elle peut donner lieu à certaines dérives : surcharge de travail, mauvaise gestion des priorités, sollicitations de tout ordre.

 

Le travail collaboratif et ses limites

Mieux collaborer pour optimiser les ressources

Le travail collaboratif part d’une idée simple : partager les compétences de chacun et optimiser les ressourcesde l’entreprise pour en améliorer la performance. Ainsi, si un de vos commerciaux est spécialisé dans les négociations B2B2C, c’est lui, dans le cadre du travail collaboratif, que vous allez solliciter pour ces sujets. En retour, ce même commercial pourra s’appuyer sur la compétence d’un de ses collègues sur un autre sujet. Vu ainsi, le travail collaboratif semble être un compromis idéal. Tout le monde y gagne : les salariés comme l’entreprise. Cependant, sous ses apparences vertueuses, le travail collaboratif n’a pas que des bons côtés.

Le revers de la réussite

Le travail collaboratif peut très vite atteindre ses limites et entraîner certaines dérives. L’exemple le plus flagrant étant la « sollicitation à outrance » d’un commercial compétent. En effet, plus un individu va se montrer efficace, plus on va lui confier de tâches. Ces sollicitations vont venir de plusieurs directions :

  • la hiérarchie directe ;
  • les collègues ;
  • les autres services.

Autant de sollicitations qu’en tant que manager, vous aurez du mal à identifier. En effet, vous ne serez pas systématiquement informé de tout ce qu’on lui demande. Mais une chose est sûre, ces sollicitations auront un impact sur la productivité de votre commercial. Pour répondre aux demandes, il devra se détourner de ses tâches principales. Il risque donc de se déconcentrer et de perdre en efficacité. Sans parler des risques de démotivation ou de  “burn out”… Dans ce cas, le cercle vertueux du travail collaboratif peut vite devenir vicieux.

La gestion par le management transverse

Un plan d’actions et une gestion des risques

Pour remédier à cette dérive, le management transverse demeure le meilleur remède. Il implique un pilotage serré et continu des projets et nécessite un suivi régulier. Pour ce faire, le management transverse se développe selon un plan d’actions en quatre étapes :

  • Initier le plan d’actions (déterminer son objet et identifier les enjeux).
  • Organiser (fixer les objectifs, recenser les ressources, estimer le temps, définir l’organisation, établir les rôles, les équipes, évaluer les risques et les résistances).
  • Piloter (contrôler les actions, suivre l’avancement, corriger et ajuster, communiquer).
  • Clore le projet (rassembler l’intégralité des informations liées au projet, analyser les points positifs et négatifs, proposer un plan d’amélioration et communiquer).

Grâce aux plans d’actions du management transverse, vos commerciaux pourront mieux s’organiser et mieux gérer leurs actions. Ils éviteront ainsi de se disperser ou de se faire “happer” par certaines tâches. Enfin, grâce aux indicateurs de pilotage que propose cet outil, vous pourrez adapter au mieux votre organisation à l’objectif à atteindre :

  • taille du projet ;
  • durée et délais ;
  • importance des enjeux ;
  • complexité technique…

Le travail collaboratif présente de nombreux avantages. Il peut être un élément favorable à la croissance de vos ventes. Cependant, il vous faudra bien l’encadrer pour éviter certaines dérives. Le management transverse vous aidera grandement dans cette tâche.

La prospection n'est plus "mécanique" et quantitative mais intelligente.

Avec les nouveaux canaux de communication et d'information, la prospection a évolué vers une démarche intelligente. La prospection classique à toujours son intérêt, mais elle doit aujourd'hui être couplée avec un marketing digital informatif pertinent

Et si, en 2016, les commerciaux arrêtaient de prospecter ? Au vu des difficultés qu'ils éprouvent dans ce domaine, l'idée mérite sans doute d'être soulevée. Au point que certains, à l'instar de Raphaël Ducottet, 

Au vu des difficultés qu'ils éprouvent dans ce domaine, l'idée mérite sans doute d'être soulevée. Au point que certains, à l'instar de Raphaël Ducottet, consultant et coach commercial expert en social selling et sales intelligence, affirment que " si vous continuez à demander à vos commerciaux de prospecter, vous allez droit dans le mur ! ". Une prise de position qui n'est pas passée inaperçue sur le Web et qui a suscité de nombreuses réactions sur les réseaux sociaux (+ de 50 000 vues sur LinkedIn en quelques jours), tant la prospection dans le dur est devenu inefficace. Sans oublier que la très grande majorité des commerciaux n'aiment pas prospecter!

Une prise de position qui n'est pas passée inaperçue sur le Web et qui a suscité de nombreuses réactions sur les réseaux sociaux (+ de 50 000 vues sur LinkedIn en quelques jours), tant la prospection dans le dur est devenu inefficace. Sans oublier que la très grande majorité des commerciaux n'aiment pas prospecter! Et face au coût salarial d'un commercial, difficile pour l'entreprise de s'y retrouver si ses commerciaux se cassent les dents dans une prospection chronophage et énergivore. Mais avant de se poser la question de savoir si la prospection est encore de la compétence des commerciaux, il est peut-être nécessaire de reconsidérer votre façon de prospecter ! Avec, désormais, des clients qui ont relevé leur niveau d'exigence et d'information, la prospection se doit, elle aussi, d'évoluer. Les commerciaux sont donc confrontés à la nécessité d'ajuster leurs méthodes aux nouveaux comportements du marché. 67% des décideurs utilisent les réseaux sociaux (principalement Linkedin) pour faire de la veille de marché. Source : étude sur la prospection et la prescription B to B réalisée par l'agence Quatre Vents. Impliquer les commerciaux très en amont S'obstiner à prospecter de manière traditionnelle, en employant les techniques et stratégies d'antan, alors que l'environnement a profondément muté et que la concurrence est exacerbée, conduit inexorablement à échouer et à un rejet de la part des forces de vente. " Aujourd'hui, les prospects ne vous attendent plus, ne ressentent plus le besoin de prendre contact avec vous pour commencer leur réflexion d'achat ; ils sont devenus autonomes et proactifs ", rappelle Sylvain Tillon, à la tête de l'éditeur de logiciels Tilkee, dans son récent livre "Je veux vendre mieux". Et lorsque l'on prend conscience que les clients et prospects recourent pour 64 % d'entre eux à des moteurs de recherche, consultent articles de presse et blogs à 51 %, et sont 75 % à utiliser plusieurs fois par semaine les réseaux sociaux à des fins professionnelles (baromètre Infodécideurs 2015), il est peut-être temps d'être sur le même terrain que votre cible en démontrant, notamment, la légitimité de votre offre en proposant des contenus et une réflexion à forte valeur ajoutée. De quoi passer du commercial vendeur au commercial expert de son domaine... " Je recommande toujours aux clients que j'accompagne, indique Cécile Fournier, coach pour commerciaux, d'adopter une logique de blogueur ". L'inbound sales consiste à produire du contenu sur le Web et le mettre en avant pour attirer les prospects. Parler au prospect des problématiques qui lui sont familières, démontrer en publiant, sur le site de l'entreprise ou sur un blog, que les solutions maison sont une réponse à ses problématiques, " c'est un passage obligé dans un monde où la légitimité est une quête permanente ", continue Cécile Fournier. Mais encore faut-il que ces contenus soient visibles et accessibles au-delà des canaux traditionnels (prise de parole dans la presse, participation à des salons ou événements professionnels) ! Et c'est là que les réseaux sociaux, et notamment les techniques d'inbound sales, peuvent être utiles. Pour Raphaël Ducottet, cela consiste " à produire du contenu sur le Web, le mettre en avant par les réseaux sociaux et le référencement naturel, pour attirer des prospects ". Parmi les outils à privilégier si vous souhaitez vous inscrire dans cette démarche : Linkedin Pulse. Une fois les contenus publiés, vous savez qui les a consultés, partagés, commentés... Quoi de plus pertinent, pour un commercial, que d'entrer en contact avec un décideur qui a interagi avec vos contenus ? " Plus simplement, on peut se contenter de créer des groupes d'intérêt sur des espaces tels que Viadeo ou Linkedin ", confirme Nicole Antonietti, qui dirige Additif, une entreprise spécialisée dans la prospection commerciale B to B. Mais attention, chaque médaille a son revers, et l'inbound sales est un processus qui prend du temps !


Retrouvez cet article sur : www.actionco.fr - "Mettre de l'intelligence dans la prospection"

L'infographie du vendredi : la transition numérique, effet de mode ou révolution ?

La perception de la Transition Numérique diffère selon la taille de l'entreprise concernée. "Une révolution" pour 69% des PME et 85% des grandes entreprises mais un effet de mode pour la 50% des TPE interrogées.  Les salariés sembleraient bien moins sceptiques...

Infographie chefs entreprise numerique est effet mode t

Dépenses IT, le casse-tête de la DSI.

Tous les services ont des besoins informatiques et si la DSI gèrent tout ou parti des projets, ce n'est pas à elle d'en assumer seul le coût financier. D'autant que l'allocation de ces coûts permet d'en avoir une meilleure maîtrise et donc d'optimiser le business d'entreprise.

Le climat économique tendu a renforcé les impératifs de maîtrise des coûts pour toutes les fonctions supports de l’entreprise. La Direction des Systèmes d’Information ne déroge pas à cette règle. Pourtant, avec la transformation digitale, même si leurs budgets sont en augmentation chaque année, les activités informatiques d’une entreprise génèrent de plus en plus de dépenses.

Le DSI se retrouve face à un dilemme, car lorsqu’il investit dans un logiciel, un data center ou un projet, c’est au service du business de l’entreprise. Il est donc capital pour lui de comprendre de façon fine ses coûts afin de pouvoir les justifier de manière exhaustive, complète et détaillée, les répartir vers ses clients internes ou éventuellement les réduire.

 

La nécessaire justification des coûts informatiques 

Pour cela, le DSI doit pouvoir savoir comment sont structurés ses dépenses et investissements et comment ils s’affectent auprès du business. Or, de plus en plus, l’entreprise supporte des coûts informatiques partagés. Par exemple, lorsque l’on monte un data center pour héberger plusieurs serveurs, un ERP pour la comptabilité, un outil de CRM pour les équipes commerciales, c’est un coût transverse. L’enjeu pour la direction informatique va être de trouver des clés pour refacturer leurs services de la façon la plus pertinente possible auprès des directions qu’ils adressent.
De ce fait, si la DSI met en place un outil de comptabilité, elle va répartir les coûts de cet outil vers le service comptabilité, et ce dernier va lui-même se refacturer auprès des services métiers qu’il supporte.

De plus, il peut y avoir des coûts en cascade. Si les dépenses de la DSI se répartissent sur le service comptabilité et d’autres comme le service ressources humaines, ces autres directions sont elles-mêmes des services supports pour le business et vont répartir à leur tour leurs propres coûts vers le marketing, les ventes ou encore les achats. Par conséquent, il s’agit d’une mécanique où les coûts informatiques sont déversés de service en service.

In fine, ce que la DSI veut comprendre c’est la pertinence des coûts qu’elle génère au regard des biens ou des services que l’entreprise vend auprès de ses clients finaux.

Trouver la clé d’allocation des coûts la plus pertinente pour leur affectation 

Historiquement, plusieurs méthodes d’allocation ont été mises en œuvre : allocation des coûts directs, indirects, méthode ABC (Activity-based costing). Quelle que soit la méthode choisie, une des principales difficultés est de déterminer les bons mécanismes d’allocation. Par exemple, sur quelles bases l’informatique peut-elle répartir ses coûts auprès de ses clients internes : nombre de postes informatiques, de serveurs, consommation des données ?

Quelle que soit la méthode employée, il s’agira obligatoirement d’une vision arbitraire. Car il n’y a pas une réalité unique des coûts. Dans l’absolu, on ne peut pas dire qu’il existe une méthode plus exacte qu’une autre.

Une méthode n’est bonne que dans un contexte et des objectifs donnés.

Une solution logicielle unifiée permet de faciliter la collecte des données nécessaires (données réelles, prévisions, indicateurs métiers pouvant servir de clé…). Celle-ci doit être complètement agnostique par rapport aux méthodes de répartition ou d’allocation de coûts. La DSI peut de ce fait comparer de manière très simple les résultats qui sont produits par deux méthodes différentes et les challenger par les clients internes afin de valider la méthode la plus pertinente. La solution logicielle doit également permettre la mise en place des règles sans avoir à employer la moindre ligne de code informatique pour y arriver. La construction des règles d’allocation doit se faire par un utilisateur métier avec une interface qui fonctionne sous forme de fenêtrage.

Enfin la solution doit être capable, non seulement de répartir les dépenses de manière plus ou moins complexe, mais aussi d’en donner l’origine en proposant une piste d’audit sur les coûts qui ont été alloués aux clients internes.

Une véritable valeur ajoutée pour le business de l’entreprise

 

Aujourd’hui, nombreuses sont les entreprises assez mal équipées sur ce sujet. L’allocation des coûts se fait beaucoup sur Excel et parfois de manière hasardeuse. En effet, la DSI doit récupérer beaucoup d’informations auprès de systèmes hétérogènes, faire une extraction et les dupliquer en les saisissant à nouveau dans Excel à plusieurs endroits pour pouvoir faire les calculs.
Avec une solution logicielle unifiée, au contraire, les drivers ou les clés d’allocation sont stockés à un seul endroit et disponible très facilement pour la personne qui réalise son modèle d’allocation. On évite, par conséquent, énormément de ressaisies, d’interfaces, etc. Et lorsque l’on a besoin de créer de nouvelles clés d’allocation et d’aller les collecter auprès des métiers, on peut aisément réaliser une interface de saisie dans laquelle les utilisateurs impliqués dans le process de répartition des coûts peuvent saisir simplement ces nouvelles clés d’allocation.

Ce sujet d’une allocation pertinente des coûts devient primordial car l’entreprise demande de plus en plus à la direction informatique de réduire ses dépenses. Grâce à une solution logicielle unifiée, la DSI met les clients internes face à leurs responsabilités et les exigences qu’ils peuvent avoir pour répondre à un double enjeu : expliquer les coûts et mieux les maitriser.

Dès lors qu’une direction support ou métier réclame à la DSI un nouveau produit ou plus de performances, très rapidement l’informatique sera capable d’en chiffrer l’impact auprès de la direction support ou métier en particulier, et de l’entreprise en général. Par exemple, dans le cadre de la migration de postes de travail, une direction métier choisit une solution qui nécessite la toute dernière version de Microsoft Office. La direction informatique va être capable d’indiquer à la direction métier qu’il n’y a pas que le coût de la solution qui va impacter l’entreprise mais aussi le coût de la licence de la dernière version d’Office, ainsi que le coût matériel des serveurs et de la migration des postes qui vont se répartir sur d’autres directions métiers ou supports.

Ainsi, c’est par la compréhension et la maîtrise de ses propres coûts grâce à une solution logicielle unifiée, que la DSI pourra mettre en avant la valeur ajoutée qu’elle apporte non seulement aux directions métiers ou supports, mais aussi au business de toute l’entreprise.

 

__________
Vincent Salmon est Vice President Professional Services France chez Tagetik

L'infographie du vendredi : l'optimisation "business" de votre site web.

Votre site web, c'est votre vitrine certes... mais pas que ! Voici 10 trucs pour améliorer le taux de conversion des visiteurs sur votre site.

Taux de conversion

Le salon professionnel du futur est déjà là !

Même si les salons professionnels restent un bon moyen de rencontrer son éco-système (partenaires, clients, prospects...) et que rien ne vaut le contact réel, le fait est qu'ils sont aujourd'hui, pour certains domaines d'activités notamment tertiaires, moins fréquentés et moins rentables. Et si on passait au salons virtuels ? 

Mis en ligne par :  , Catégories :,

Les salons professionnels font partie des canaux de communication et de prospection privilégiés en BtoB. Si les budgets des entreprises pour ces événements ont tendance a diminué, la rencontre reste un objectif essentiel. C’est pourquoi, les entreprises se laissent de plus en plus tenter par l’expérience des salons virtuels.

Un salon virtuel, vous avez dit ?

Un salon virtuel se définit comme un lieu de rencontre entre exposants et visiteurs dans un cadre virtuel. Ainsi comme dans les salons traditionnels, il y a d’un côté les exposants qui exposent sur un thème précis et de l’autre côté, les visiteurs que ce thème intéresse. Toutefois, c’est en ligne que tout se passe et les parties ne se rencontrent pas physiquement. C’est donc assis derrière son ordinateur que le visiteur entreprend la visite du salon grâce à une plateforme interactive.

Côté design, le salon virtuel se calque sur la représentation graphique d’un salon physique : hall d’accueil, exposants,stands … Les plus néophytes sauront y naviguer grâce à une interface ergonomique et intuitive. De plus, les exposants ont la possibilité de personnaliser totalement leur environnement 3D, voire d’en créer sur mesure.

De ce fait, le salon virtuel devient un véritable outil et vecteur de communication basé sur l’échange entre exposants et visiteurs. On parle d’un nouveau média, innovant et moderne.

Mais quel est son rôle ?

Un salon virtuel est un site web interactif riche en informations collectées sur les visiteurs car chacune de leur action est enregistrée.

Le salon devient donc un moyen actif et performant d’entrer en liaison avec son public et de développer ses performances grâce aux informations collectées.

Quels en sont les avantages ?

Grâce aux salons ou forums virtuels 3D, les exposants pourront :

  • Rencontrer des visiteurs, acheteurs ciblés et prospects

  • Tracer les visiteurs

  • Gagner du temps (organisation, déplacement etc) et de l’argent

  • Donner une visibilité internationale à leur marque

  • Promouvoir leur activité

  • Être vu et connu à moindre coût

  • Valoriser simplement leur image grâce à l’utilisation d’une plateforme 3D

Avec un simple accès à Internet, les visiteurs pourront :

  • Échanger avec les exposants grâce aux « tchats » (audio/vidéo) sur les stands,

  • Consulter et télécharger en quelques clics toute la documentation souhaitée,

  • Visionner les vidéos de produits ou services présentées par les exposants,

  • Acheter les produits et nouveautés sur les sites marchands des exposants.

Et côté business, qu’en est-il ?

Qu’on ne s’y trompe pas, le support a beau être ludique, les « visiteurs » sont des professionnels et ils sont là pour le business, comme lors de salons traditionnels. L’objectif est de prendre contact pour poursuivre l’échange, la présentation et l’étude des besoins lors d’une réunion téléphonique ou si on le peut, en rendez-vous.

Est-ce la fin des salons traditionnels ?

Si le salon virtuel est idéal pour des secteurs où l’immatériel domine comme le secteur de la finance ou des services de manière générale, on imagine en revanche mal un salon de l’agriculture virtuel. Toucher, voir et sentir le produit reste essentiel dans bien des secteurs.

Dans l’industrie, les exposants ont des machines très imposantes à montrer et à déplacer, le virtuel peut aussi avoir tout son sens pour optimiser les coûts.

Les salons virtuels n’ont donc pas vocation à remplacer les salons traditionnels ! Il est même également possible de coupler un événement physique à un événement virtuel. C’est ce que l’on appelle un « événement hybride ».

Convaincu du potentiel des salons 3D, SYNTHES’3D est en train de finaliser son propre salon virtuel spécialisé dans le secteur de l’orthopédie, l’OrthoVirtualConvention.com. Affaire à suivre …

2015, une année de croissance pour les éditeurs de logiciels.

Avec 9% de croissance et 15% d'augmentation des investissements R&D, le logiciel français se porte bien. Une santé à tempérer tout de même, car le chiffre d'affaire 2015 est généré à 54% par les 5 premiers éditeurs à eux seuls ...

2015 est un bon millésime : 9% de croissance du chiffre d’affaires, doublement des résultats, 15% d’augmentation des investissements en R&D, des créations d’emplois qualifiés portant l’effectif total à 107 000 salariés avec une très faible propension à la délocalisation…

Tels sont les principaux chiffres de cette 12e édition du Truffle100 qui classe les 100 éditeurs de logiciels français.  Le chiffre d’affaire atteint 7,5 milliards d’euros en 2015, en croissance de 13% contre 6,6 milliards d’euros en 2014. Le marché français de l’édition de logiciels reste également largement tiré par le haut du classement, les 5 premiers éditeurs représentant 54% de ce chiffre. Ces bons chiffres ne doivent pas faire oublier la dimension très modeste du logiciel français à l’échelle mondiale et même européenne. Le premier de ce classement, Dassault Systèmes, qui représente plus du tiers de ce chiffre d’affaires est le seul éditeur de dimension mondiale.

Le Palmarès de tête par ailleurs en mouvement : Sopra Steria monte à la 2ème place derrière Dassault Systèmes, suivie par Murex. Cegedim précédemment à la deuxième place du classement, descend au 4ème rang, et Axway conserve la 5ème place.

Parmi les faits marquants pouvant expliquer ces évolutions on peut citer la forte croissance du chiffre d’affaire de Sopra-Steria suite au rapprochement des deux entreprises, ainsi que la vente de sa division « CRM et données stratégiques » à IMS Health par Cegedim. De nombreuses évolutions sont ainsi menées dans un secteur en profonde mutation avec l’arrivée de nouveaux enjeux et la recherche de nouveaux modèles économiques.

On notera par ailleurs l’augmentation de la part des sociétés en décroissance qui passe de 1% en 2014 à 11% en 2015.
– 24 éditeurs ont progressé dans le classement (ils étaient 60 en 2014)
– 9 ont conservé leur place (stable par rapport à 2014)
– 7 sociétés sont sorties du classement, dont deux suite à des rachats : Dictao (#66 du classement en 2014 avec un chiffre d’affaires logiciel de 14,9 M€) racheté par Morpho (Safran) et Ordirope (#87 du classement en 2014 avec un chiffre d’affaires logiciel de 10 M€) racheté par GFI Informatique

Le résultat net du Top 100 est par ailleurs en très nette augmentation à 1,2 milliard d’euros contre 600 M€ en 2014. Cette évolution est portée notamment par la croissance des résultats de Dassault Systèmes (576 M€ en 2015 contre 465 M€ en 2014) et du groupe Cegedim qui passe d’une perte de 200 M€ en 2014 à un bénéfice de 67 M€ en 2015.

Effectifs globaux et R&D

La nette croissance globale du chiffre d’affaire se reflète également au niveau des recrutements, avec des effectifs en augmentation à 107 000 (+3500) en 2014. Les effectifs de R&D sont également en légère augmentation et représentent 15,7% de l’effectif total contre 15% en 2014 ; soit près de 1 000 recrutements sur ce seul secteur.

Après une légère érosion en 2014, les investissements globaux en R&D repartent également à la hausse et atteignent 1 176 millions d’euros, contre 1 024 millions d’euros en 2014. La R&D reste par ailleurs très largement internalisée, 73% des éditeurs n’envisageant pas de délocaliser cette activité placée au cœur de leur développement. La plupart des éditeurs considèrent en effet que l’internalisation de la R&D est un facteur stratégique clé qui permet notamment de favoriser la réactivité.

L’Île-de-France conserve sa place centrale

La région Île-de-France conserve sa position prédominante dans le classement, regroupant toujours 83% du chiffre d’affaires Edition, 88% de l’effectif total et 82% des effectifs R&D ; chiffres stables depuis 2014. Elle est toujours suivie par la région Auvergne-Rhône-Alpes qui totalise 9% du chiffre d’affaires Edition (8% en 2014), 6% de l’effectif total (5% en 2014) et 9% des effectifs R&D. A elles deux, les régions Ile-de-France et Auvergne-Rhône-Alpes représentent toujours 91% du chiffre d’affaires Edition.

A l’international, le classement des implantations a par ailleurs évolué avec la montée des Etats-Unis et de l’Espagne tous deux ex-aequo à la 2ème position. L’Allemagne descend de la 2ème à la 4ème place.

Tendances et prévisions

La révolution apportée par les offres en SaaS et le cloud continue d’impacter fortement le secteur. Pour faire face à l’évolution des usages et la demande en croissance, 74% des éditeurs du Top 100 disposent désormais d’une offre en Saas (contre 68% il y a un an). 64% des éditeurs estiment que cette tendance continuera à influencer grandement le marché, porté également par les applications de mobilités (61%) et le Big Data (33%).

Le marché devrait toujours afficher une bonne santé en 2016, 42% des éditeurs du Top 100 anticipant une croissance située entre 5% et 15%. Cette croissance devrait se refléter sur les effectifs (pour 66% des éditeurs), le développement de projets de R&D (63%) et le déploiement des activités à l’international (60%).

Du nouveau dans le monde de l'infrastructure IT...

L'infrastructure informatique a connu de fortes évolutions ces dernières années. Préparez-vous à l'arrivée dans le Cloud de l'Infrastructure as a Utility (une adaptation du IaaS, as a services).

Infrastructure as a Utility : prochaine évolution du cloud ? 
Philippe Fossé, EMC

Le temps des mainframes où les revendeurs devaient créer des solutions pour leurs clients est maintenant révolu. Tout cela a bien changé, tant par les infrastructures dorénavant disponibles que par les modes de fonctionnement. Et plus récemment encore, on observe une nouvelle avancée, vers l’infrastructure informatique « as a Utility », une sorte d’infrastructure informatique intelligente. Au-delà du principe d’innovation, quel est le réel intérêt pour les revendeurs ?

Vers une nouvelle redistribution des ressources informatiques

La virtualisation, bien entendu, a changé la donne. Au lieu d’une allocation de ressources dédiées à chaque application, l’infrastructure désormais virtualisée est au service d’applications multiples, ce qui réduit les coûts pour les partenaires comme pour les clients. Aujourd’hui tout est virtualisé, y compris le stockage et le réseau, apportant une facilité sans précédent aux revendeurs pour créer des solutions répondant aux problématiques métiers de leurs clients.

Une nouvelle ère en matière d’allocation des ressources informatiques vient de commencer dans laquelle non seulement les applications mais aussi les workloads bénéficient d’une prise en charge dynamique par des technologies Cloud, notamment au niveau des modes de stockages. Chaque application doit voir ses données sauvegardées mais où faut-il conserver ces sauvegardes ?

De toute évidence, c’est l’infrastructure qui répond à ce besoin mais pourquoi cette infrastructure devrait-elle être statique ? En fait, une approche dynamique de workloads spécifiques est bien plus avantageuse pour les clients. Ainsi les sauvegardes critiques peuvent être stockées dans une infrastructure sécurisée sur site, contrôlée et gérée par le client, tandis que les données moins sensibles sont externalisées vers une infrastructure Cloud plus économique.

Cependant, ce n’est en aucun cas la fin d’une ère. Le Cloud ne fait que monter en puissance et les limites de ses capacités sont encore loin d’avoir été testées. Par conséquent, quelle est l’étape suivante pour les revendeurs ?

L’infrastructure informatique « as a Utility », qu’est-ce que c’est ça ?

Il y a une véritable mouvance vers une nouvelle étape, celle de l’infrastructure informatique « as a Utility ». A l’image d’un réseau d’eau ou d’électricité, le prestataire peut adapter le service fourni à vos besoins. Une allocation dynamique des workloads ne suffit plus : le processus doit être simplifié au point que, si une application a besoin de certaines ressources pour réaliser une tâche donnée, l’infrastructure informatique définie par logiciel soit à même d’allouer les ressources exactes – puissance de traitement, stockage et réseau – nécessaires pour exécuter le workload avec un maximum d’efficacité, en fonction du besoin spécifique de l’entreprise.

Il s’agit d’IaaS (Infrastructure as a Service) mais d’un service sur mesure, « intelligent » dans la mesure où il tient compte du contexte propre à chaque workload.

Toute innovation va de pair avec une opportunité, qui s’offre ici clairement aux revendeurs cherchant à devenir des prestataires de services Cloud. En traitant les ressources selon le modèle Utility, ceux-ci pourront proposer à leurs clients des offres personnalisées, permettant aux applications de fonctionner à un niveau optimal de performances au juste prix. Cela va constituer un facteur clé de différenciation dans les années à venir à mesure qu’un nombre croissant de revendeurs se transforment en prestataires de services Cloud.