Voir pour s’émerveiller


Pix Digital, c’est l’esprit web associé à une expertise technique et créative, un pôle spécifiquement créé pour vous accompagner dans le développement de votre stratégie de communication on line.
De la conception jusqu’à la mise en ligne de votre message, Pix Digital répond à toutes vos problématiques et nous jouons, à ce titre, notre rôle d’agence conseil auprès du professionnel que vous êtes. Parce que nous sommes intimement persuadés que la réussite d’un projet on line dépend de son impact visuel, nous portons une attention toute particulière à la création graphique, au design, aux formes et aux couleurs.
Toujours prompt à vous aider à vous distinguer durablement dans le temps, nous nous positionnons clairement sur les nouvelles tendances créatives, plateformes web et communautaires. Cette approche nous permet d’appréhender la communication on line dans son ensemble afin de garantir la cohérence de vos projets.

6 étapes pour mettre en place une stratégie de Community Management en 2019

Digital

Si l’importance des réseaux sociaux n’est plus à démontrer, les tendances des réseaux sont en constante évolution ! Vous souhaitez lancer votre entreprise sur les réseaux sociaux ou bien ajuster votre stratégie en 2019 ? Voici nos meilleurs conseils pour réussir votre Community Management :

1. Définir votre objectif et votre cible

Il est important de commencer par définir un objectif. Celui-ci peut être similaire ou différent de votre objectif commercial : améliorer votre image de marque ou votre visibilité par exemple.

Il convient également de définir la cible de votre discours sur les réseaux sociaux : le prospect, le client (en BtoB ou BtoC) ou encore le prescripteur.

2.Choisir les réseaux sociaux adéquats

En fonction du segment déterminé (cible) et de l’objectif, vous pouvez choisir le ou les réseaux sociaux à privilégier. Notez qu’en 2019 le Community Management sur Facebook peut tout à fait correspondre à une cible BtoB.

Voici un récapitulatif des cibles selon le réseau social :

  • Facebook : 67% des internautes français étaient actifs sur Facebook en 2018. On y retrouve toutes typologies d’utilisateurs : de l’étudiant au cadre supérieur. Facebook Messenger permet notamment d’axer sa page Entreprise sur un objectif de SAV.

 

  • Instagram : 90% des utilisateurs ont moins de 35 ans. C’est donc le réseau social à privilégier pour cibler la génération Y et Z ! Le format 100% image et vidéo permet de travailler sur son image de marque et sur la conversion. C’est aussi le réseau social numéro 1 pour les influenceurs.

 

  • Twitter : 53% des utilisateurs n’ont jamais tweeté. C’est le réseau social de l’information en temps réel : à privilégier lorsque l’objectif est de communiquer sur son actualité.

 

  • LinkedIn : 45% des CSP+ sont sur LinkedIn. On y retrouve les professionnels de tous secteurs confondus. C’est bien sûr le réseau social à choisir dans le cas d’une communication purement corporate.

 

  • Pinterest : 45% des utilisateurs sont des utilisatrices. C’est le réseau social féminin par excellence. L’objectif principal y est de découvrir de nouveaux produits et tendances. C’est notamment la source de recherche numéro 1 pour la planification de mariage.

 

3. Définir votre discours à l’aide d’une charte éditoriale

La charte éditoriale est le document de référence de toute stratégie éditoriale. Elle permet d’assurer la cohérence du discours de la marque sur les réseaux sociaux : ton décontracté ou formel par exemple. La charte éditoriale aborde à la fois le fond et la forme des publications.

Il est important de définir dans ce document les typologies de contenus à publier selon la cible. Pour cela, nous vous conseillons de faire l’état des lieux des contenus que vous possédez déjà et ceux qui seront à produire.

Véritable feuille de route, cette charte est d’autant plus importante lorsque plusieurs personnes sont en charge du Community Management. En effet, il est important de conserver un discours homogène et cohérent en toute circonstance.

4. Concevoir un planning éditorial

Vous avez défini votre objectif, votre cible, les réseaux sociaux à privilégier et votre charte éditoriale. Il est maintenant temps de planifier le calendrier de vos publications.

La fréquence de publication est à définir en accord avec les préconisations selon le réseau social. Ainsi, on publiera plus fréquemment sur Twitter que sur Facebook par exemple.

Dans ce calendrier, il est nécessaire de mentionner : la date de publication et le contenu du post (texte, image, vidéo, lien…). N’hésitez pas à y ajouter par avance les grands événements marquants de votre activité : convention, fête, période de soldes…

Notez que ce calendrier peut être établi plus ou moins à l’avance selon le réseau social. Pour Twitter par exemple, il est nécessaire de communiquer en temps réel. L’étendue du calendrier est donc relativement courte pour laisser place à la spontanéité.

5. Animer la communauté

Vos publications sont programmées selon votre planning éditorial. Toutefois, le travail ne s’arrête pas là. Les réseaux sociaux nécessitent une interaction entre l’entreprise et sa communauté : répondre aux messages privés, répondre aux commentaires… Cette animation est indispensable pour tisser un lien avec les utilisateurs et atteindre son objectif.

Retrouvez toutes nos bonnes pratiques du Community Manager dans notre livre blanc.

6. Analyser les résultats

L’analyse des résultats est indispensable pour optimiser toute stratégie. Les réseaux sociaux mettent à votre disposition un certain nombre d’outils d’analyse. Tirez pleinement de ces statistiques en procédant à un suivi régulier des résultats.

Notez que pour accéder à ces outils d’analyse sur Instagram, il vous faudra transformer votre profil personnel en profil professionnel au préalable (en quelques clics).

 

Vous souhaitez être accompagné dans votre stratégie de Community Management ? Pix Associates vous accompagne dans l’ensemble des étapes de la définition de vos objectifs à l’analyse des résultats. Contactez-nous !

 

7 conseils pour réussir la refonte de votre site web

Digital

Le but d’une refonte est de capitaliser sur les points forts de son site web actuel et d’améliorer les points faibles. Une refonte de site web réussie, c’est un nouveau site avec de meilleurs résultats. Pour atteindre cet objectif, il est nécessaire de suivre une méthodologie rigoureuse. Voici nos meilleurs conseils pour réussir la refonte de votre site web :

1. Evaluer votre site web actuel

La première étape consiste à déterminer les points forts et les points faibles de votre site actuel. Pour cela, il y a plusieurs méthodes :

  • Utiliser Google Analytics pour déterminer les pages performantes. Selon votre activité cela peut être : les pages les plus consultées, la durée de lecture la plus élevée, le taux de rebond le plus faible, la page d’atterrissage qui convertit le plus etc. En bref, le parcours client le plus efficace. Il convient aussi de faire la liste des pages les moins performantes, celles dont on pourra se séparer lors de la refonte.
  • Mettre en place des questionnaires ou Focus group pour identifier les fonctionnalités attendues par vos utilisateurs. Il est important d’écouter les remarques de vos clients ou prospects pour (re)construire un site web répondant à leurs attentes.
  • Etudier les sites concurrents locaux, nationaux et internationaux à travers un benchmark concurrentiel. Il permet de mettre en évidence les bonnes pratiques de votre secteur pour ne rien manquer !

2.Établir une nouvelle arborescence

Vous avez collecté les points forts et les points faibles de votre site actuel, les fonctionnalités attendues par vos utilisateurs ainsi que les bonnes pratiques des concurrents. Il faut maintenant hiérarchiser les informations de votre futur site web pour définir le parcours utilisateur le plus logique et performant.

La méthodologie la plus courante est le tri de cartes : retranscrire le libellé des informations (ou pages) sur des papiers libres. Puis hiérarchiser et associer ces cartes par thématiques ou objectifs connexes.

Lors de cette phase, il est important de garder en tête que le but d’une refonte est de simplifier la recherche d’information. Toutes les pages du site doivent être accessibles en 3 clics maximum.

3. Concevoir un zoning de votre futur site web

Pour visualiser et optimiser votre nouvelle arborescence et votre parcours client, il est nécessaire de concevoir un zoning. Il s’agit de la représentation de votre futur site web : les pages et fonctionnalités qui seront la base de votre cahier des charges techniques. Un zoning interactif permet également de mettre en lumière le maillage interne de votre site web, précieux indicateur du parcours client et facteur de votre performance SEO.

4. Rédiger le cahier des charges

Le cahier des charges est un élément indispensable pour réussir votre refonte. Il va permettre de constituer la base technique de votre futur site web : la mise en page technique et les fonctionnalités nécessaires à l’optimisation de votre site actuel. C’est le moment d’y inclure tout ce qui assurera le succès de cette refonte : le passage à HTTPs, le passage au Responsive Design, et les redirections des anciennes URL aux nouvelles dans le cas d’un changement d’arborescence par exemple.

5. Rédiger le contenu

La refonte de votre site web c’est aussi l’occasion de revoir le contenu de vos pages. Ces contenus doivent être en accord avec les tendances Expérience Utilisateur (UX) et SEO actuelles. Pour mettre en évidence les pages à optimiser, vous pouvez réaliser un audit SEO : en générant une liste des pages trop longues et trop courtes à réécrire par exemple.

Pour vous aider dans la rédaction du contenu, vous pouvez consulter notre livre blanc sur les règles de la rédaction web.

6. Réaliser une maquette graphique

Votre zoning, votre cahier des charges et vos contenus sont maintenant prêts ! C’est le moment de visualiser graphiquement votre futur site web. Cette étape est indispensable pour offrir une meilleure expérience à vos utilisateurs et assurer une meilleure performance.

Les maquettes graphiques doivent correspondre aux tendances actuelles en matière d’UX : respect des espaces blancs, lisibilité typographique, interactivité, etc…

7. Développer le nouveau site

Si l’ensemble des étapes précédentes ont bien été réalisées, la phase de développement va naturellement découler d’un travail croisé entre le zoning, le cahier des charges et la maquette graphique. Il s’agit tout simplement de la construction du socle technique du site (développement back) et de son apparence graphique (développement front).

La refonte de votre site est désormais prête à être mise en ligne !

 

Vous souhaitez être accompagné dans la refonte de votre site web ? Pix Associates vous accompagne dans l’ensemble des étapes de l’évaluation de votre site actuel jusqu’au lancement de sa refonte. Contactez-nous !

SXO : Qu’est-ce que l’optimisation de l’expérience de recherche ?

Digital

Selon une étude de StatCounter : en 2016, les connexions à internet depuis un support nomade (mobile et tablette) s’élève à 51,3% dans le monde, dépassant ainsi les connexions depuis un ordinateur [1]. Dans la mesure où l’expérience de navigation et d’interaction commence dès le premier contact de l’internaute avec le moteur de recherche, Google tend à améliorer l’expérience de recherche des mobinautes avec le déploiement de la technologie AMP (Accelerated Mobile Pages). Les liens dont le temps de chargement est réduit sur mobile dispose de l’indicateur « AMP » pour guider les mobinautes.

sxo-optimisation-experience-recherche

Comme le souligne le PDG de Google, Éric Schmidt : « Google Search est construit pour les utilisateurs, pas pour les sites » [2], d’où cette volonté de favoriser une expérience de recherche toujours plus satisfaisante, en fournissant aux internautes des résultats qui se rapprochent le plus de leurs attentes, et ceci, de façon immédiate. Placé au cœur de la stratégie SXO (Search eXperience Optimization), le comportement de l’utilisateur a une réelle incidence sur le classement d’un site dans les pages de résultats. C’est pourquoi, il est conseillé de ne pas le négliger !

Stratégie SXO : la fusion de l’UX et du SEO

Définition du SXO ou Search eXperience Optimization

Pour certains, le SXO serait le successeur du SEO, tandis que pour d’autres, il s’agirait simplement d’une prise de conscience de son importance. Démocratisé par l’agence allemande SEO Workers en 2010, le sigle « SXO » désigne l’optimisation de l’expérience de recherche, qui combine la notion d’UX (User eXperience) à celle du SEO (Search Engine Optimization). Autrement dit, le SXO met en évidence le fait que l’expérience utilisateur a une influence directe sur le positionnement d’un site dans les résultats de recherche (SERP). Une URL qui apporte de nombreuses conversions aura donc plus de chance d’être classée parmi les premiers résultats.

Quelles actions mettre en œuvre pour réussir sa stratégie SXO ?

Pour répondre aux exigences de Google en termes de référencement ainsi qu’aux attentes des visiteurs de votre site, il est aujourd’hui indispensable d’élaborer une stratégie SXO. Cette dernière permettra non seulement d’accroître la visibilité de votre site, mais aussi de convertir et fidéliser les internautes de votre audience. La stratégie SXO nécessite d’effectuer certaines actions pour capter l’attention et proposer une navigation user friendly aux internautes.

L’équipe Pix Associates peut vous aider à définir les différentes actions à mettre en œuvre pour augmenter vos conversions, notamment à travers :

  • La création de contenu à valeur ajoutée
  • L’optimisation des pages de destination de votre site
  • L’amélioration des performances de votre site grâce à un audit
  • L’élaboration d’un SEOUT ou SEO Usability Testing avec la création de persona et l’invention de scénarios pour tester l’ergonomie de votre site

La recherche en ligne comme expérience utilisateur

Google, un moteur de réponses

Aujourd’hui, Google Search souhaite avant tout s’imposer comme un moteur de réponses. Grâce à son algorithme basé sur une technologie de machine learning, il parvient à se perfectionner pour fournir des réponses pertinentes et de qualité aux internautes, et cherche ainsi à lutter contre la pratique du pogosticking. Avec l’apparition de nouvelles modalités de réponses, telle que la position 0, les sites basés autour d’une stratégie SXO sont alors valorisés dans les résultats de recherche.

A lire aussi : SEO/SEA ou comment gagner en visibilité dans les pages de résultats ?

L’expérience de la recherche vocale

D’après l’étude de Yooda Insight (2016) : « 40,5% des recherches s’appuient sur des expressions composées de 4 mots minimum » [3]. Avec la forte utilisation des supports nomades, les internautes se tournent de plus en plus vers la recherche vocale, laquelle s’articule autour d’un langage naturel. La longue traîne est ainsi sollicitée.

A lire aussi : Comment booster son SEO avec une stratégie de longue traîne ?

Le phénomène « kill the search »

Pour générer du trafic via votre site, il est capital de capter l’attention et marquer l’esprit de l’internaute afin de l’inciter à visiter votre site ultérieurement, sans avoir à passer de nouveau par le moteur de recherche. Telle est l’idée du concept « kill the search », que l’on traduit littéralement par « tuer la recherche ». Pour engendrer ce phénomène, il est recommandé d’opter pour une stratégie SXO qui s’appuie sur l’optimisation des contenus et de l’ergonomie d’un site.

Afin de vous démarquer de vos concurrents, notre équipe met à votre disposition son expertise pour élaborer votre stratégie SXO. Pour obtenir un devis, n’hésitez pas à nous contacter directement tout en précisant votre projet.

Sources : [1] Blogdumoderateur.com ; [2] Webmarketing-com.com ; [3] E-marketing.fr

L’intelligence artificielle au cœur de la relation client

Digital

L’intelligence artificielle (IA) se démocratise de plus en plus et représente un atout majeur dans la relation client. Intégrée dans les stratégies marketing, l’IA doit être pensée en complémentarité avec l’humain, au sein de la relation client.

intelligence-artificielle-chatbot

D’après une étude mondiale réalisée en décembre 2016 par PegaSystems, société américaine spécialisée dans les applications de gestion et logiciels d’interactions, « 44% des personnes interrogées considèrent que l’intelligence artificielle peut améliorer la relation client d’une entreprise » [1]. Même si elle n’apporte pas une réponse à 100%, « elle vient accompagner les tâches des humains » [2] comme le souligne Henri Pidault, directeur de la technologie chez Deloitte Digital.

Que pensent les français de l’intelligence artificielle ?

Aujourd’hui, l’état français tend à développer des technologies qui favoriseront une meilleure relation client. Pour François Hollande : « les nations qui maîtriseront l’IA seront les puissances de demain » [3], d’où cette volonté de placer la France au cœur de la compétition internationale avec l’élaboration du projet #France IA, dont l’un des axes repose sur la mise en place d’un assistant conversationnel du nom de MarIAnne à destination des services publics.

A lire aussi : De la French Tech à la French Touch : empreinte digitale et culturelle

L’enquête de PegaSystems révèle que « près de 85 % des Français interagissent avec des systèmes d’intelligence artificielle », et pourtant les deux-tiers l’ignorent ! L’IA est élaborée de manière à engager une conversation naturelle et personnalisée avec les utilisateurs, c’est pourquoi cela peut parfois prêter à confusion quant à l’identité de l’interlocuteur : alors plutôt chatbot ou humain ?

Toujours selon cette même étude : « 88 % des Français souhaitent être avertis si ils dialoguent avec un assistant virtuel – et 79 % des interrogés préfèrent un contact humain ». Ces chiffres illustrent bien le fait que malgré la qualité des conversations, l’IA ne peut en aucun cas remplacer le contact humain dans la relation client.

A lire aussi : Qu’est-ce qu’un bot et à quoi cela peut-il servir ? Est-ce l’avenir du web ?

Des technologies intelligentes pour améliorer les services et les produits

A l’occasion de l’évènement « Modern Business Experience » du 29 mars 2017, organisé par Oracle, Stéphanie Arnette d’Accenture explique que « d’ici 2020, les humains auront davantage de conversation avec les bots qu’avec les autres humains » [4]. Une question subsiste tout de même, à savoir si d’ici-là les agents conversationnels auront ou non la capacité de répondre à des questions plus poussées.

Lors d’une interview, la fondatrice de l’Institut de la qualité d’expression, Jeanne Bordeau indique que de nombreuses avancées sont effectuées en « psychologie cognitive pour classer les sentiments et capter le sensible et l’irrationnel par une intelligence artificielle » [5]. D’après Marjolaine Grondin, co-fondatrice et CEO de Jam, « il est illusoire de croire que la machine comprend tout sur tout. » [5], c’est donc à cet instant précis qu’intervient la relation humaine.

A lire aussi : SMO : L’avenir du web social tourné vers la conversation

Pour proposer aux clients des offres correspondant au mieux à leurs besoins, BNP Paribas Cardif utilise le machine learning pour récupérer des données à la fois sémantiques et biométriques, et le deep learning pour obtenir un accès rapide et précis à l’information. Comme le résume le DGA de Cardif, Stanislas Chevalet : « au final, l’intelligence artificielle permet de libérer du temps pour être plus proches des clients » [6].

L’IA possède également un certain potentiel dans le domaine de la créativité. Et pour preuve, en juillet 2016, dans le secteur brassicole, la start-up britannique IntelligentX a conçu une IA pour élaborer des bières idéales en fonction des goûts des consommateurs [7].

Garantir une relation client optimale participe à la fidélisation client, d’où la nécessité de trouver des solutions adéquates pour répondre aux attentes de votre clientèle. L’équipe Pix Associates se met à votre disposition pour élaborer une stratégie efficace et innovante. Contactez-nous pour nous faire part de votre projet.

Sources : [1] Relationclientmag.fr ; [2] Lemondeinformatique.fr ; [3] Boursorama.com ;
[4] Relationclientmag.fr ; [5] Ecoreseau.fr ; [6] Lesechos.fr ; [7] fr.Sputniknews.com ;

SMO : L’avenir du web social tourné vers la conversation

Digital

Afin de gagner en visibilité, une marque ou une entreprise doit publier de façon régulière des contenus qui engagent sa communauté. Dans la mesure où la conversation représente un facteur-clé important d’aide à la décision, le web social tend à basculer vers un web conversationnel. Selon une enquête publiée le 28 novembre 2016 par FiveThirtyEight : sur 8500 commentateurs, « 18% déclarent utiliser les commentaires pour engager la conversation » [1].

web-social-conversation

Plus que jamais, les interactions sociales via les réseaux sociaux confèrent légitimité et popularité à une société. Cependant, construire et alimenter une discussion via les plateformes et interfaces de conversation (telles que les messageries instantanées) nécessitent un certain effort de la part d’une marque ; mais un effort souvent récompensé par les commentaires positifs des internautes.

A lire aussi : Les bonnes pratiques du community manager

La conversation comme facteur d’engagement sur le web social

« Un internaute sur 3 aujourd’hui choisit une marque suite à une recommandation » [2]. En plus des influenceurs et des ambassadeurs qui ont de l’influence sur les comportements des lecteurs, les commentaires des membres d’une communauté ont eux aussi un certain impact. Les discussions que les posts suscitent sur les réseaux sociaux valorisent les sujets et les contenus des publications. Elles favorisent les interactions : partages, commentaires, réactions… et créent ainsi de l’engagement, d’où l’importance de concevoir les contenus comme des sujets de débat.

De la conversation à l’identification des besoins sur le web social

La qualité des conversations digitales

A l’occasion de la 6ème édition du Salon Stratégie Clients qui s’est déroulé du 18 au 20 avril 2017 à Paris, la société européenne Eptica experte en solutions conversationnelles et collaboratives a présenté son étude annuelle : « Les marques françaises et l’expérience client digitale en 2017 ». Axée autour de la qualité des conversations digitales, cette enquête révèle que 43% des questions posées par les internautes n’obtiennent aucune réponse.

D’après le Président d’Eptica, Olivier Njamfa : « il existe une dichotomie relativement forte entre le fait que les marques répondent finalement assez peu et la qualité des réponses » [3]. Une note moyenne de 81/100 a été attribuée à la qualité des conversations sur différents canaux, à partir des 5 critères suivants : pertinence (85/100), rapidité (84/100), contextualisation (80/100), empathie (78/100) et personnalisation (77/100). Ainsi, l’étude démontre que malgré la pertinence des réponses, il y a un réel manque de personnalisation.

Les robots conversationnels dans les messageries instantanées

« 65% des consommateurs se servent des messageries instantanées pour des raisons professionnelles et/ou pour échanger avec une marque. » [4], selon une étude de Mobile Messaging 2016. Pour faciliter les interactions avec leurs clients, certaines marques ont recours aux chatbots. D’avril à novembre 2016, Messenger comptait plus de 33 000 bots, un chiffre assez surprenant qui en dit long sur l’avenir de cette technologie directement liée à l’expérience utilisateur. Le succès des bots conversationnels provient principalement de leur capacité à humaniser une discussion, ce qui rend ainsi l’échange captivant auprès de l’internaute.

A lire aussi : Qu’est-ce qu’un bot et à quoi cela peut-il servir ? Est-ce l’avenir du web ?

En quoi le web social est-il source d’insight ?

Sur les médias sociaux, les conversations correspondent à une masse de données permettant de constituer un « outil d’aide à la décision » [5], selon le directeur de Synthesio, Nicolas Saintagne. Grâce aux commentaires, les clients peuvent s’exprimer, partager leur avis, poser des questions et entrer en contact plus ou moins direct avec la marque. D’après Karine Lecomte, directrice marketing de Sushi Shop : « les réseaux sociaux sont une mine d’insights » [5], et permettent de connaître les tendances à suivre.

L’optimisation du canal social est indispensable si vous souhaitez démarquer votre société de la concurrence. Pix Associates peut accompagner votre projet en vous aidant à définir une stratégie de référencement social (SMO), adaptée à vos besoins. N’hésitez pas à contacter notre équipe pour obtenir une étude.

Sources : [1] Blogdumoderateur.com ; [2] Lesechos.fr ; [3] Itrnews.com ; [4] E-marketing.fr ; [5] Emarketing.fr ;

Pix ouvre ses portes le 28 mars 2017

Digital

L’Association des Agences-Conseils en Communication (AACC) organise le mardi 28 mars 2017 la 7ème édition de la journée Agences Ouvertes, afin de promouvoir et valoriser les métiers de la communication auprès du grand public.

#jao2017

Pour cette occasion, l’agence Pix Associates ouvrira ses portes aux étudiants, annonceurs, institutions, bloggeurs, médias… Un moment privilégié pour plonger dans l’atmosphère créative et rencontrer nos équipes d’experts.

2017 est une année placée sous le signe du rôle citoyen des agences. Le chiffre 7 symbolise la création sous toutes ces facettes. C’est donc tout naturellement que nous avons choisi de vous proposer tout au long de la journée des moments créatifs et engagés :

Au programme :

14h-14h30 : Inscription VIP pour la prochaine édition de la conférence #CreativityRocks2017 qui aura lieu en septembre prochain > Découvrez la 1ère édition de la conférence #CreativityRocks

14h30-15h30 : Happening et immersion. Testez des casques VR et découvrez des vidéos à 360°.

15h30-16h00 : Projection des projets de l’agence en vidéo et projets print, consultation de la bibliothèque des livres blancs sur les différents domaines d’expertise

16h00-18h : Jobdating, vous cherchez un stage de 3 mois minimum dans les domaines du graphisme, digital, du marketing ? Venez avec votre passion et motivation, CV et book et inscrivez-vous pour passer un entretien avec un expert de l’agence.

jobdating-button

Vers plus d’intelligence connectée avec le web ambiant

Digital

Nous sommes « de plain-pied dans le web 3.0, le web sémantique, qui est celui de la mobilité, des objets connectés et des données » [1], d’après la journaliste Emmanuelle Leneuf. Et pourtant, le web 4.0 connu sous le nom de « web intelligent » nous rattrape à grande vitesse… Il semblerait que la transition entre ces deux évolutions s’établisse par le biais du web ambiant, dont l’arrivée est imminente.

objet-connecte-web-ambiant

Le web 3.0, les prémisses du web ambiant ?

Le web 3.0 ou web sémantique

Complexe, le web 3.0 englobe de multiples tendances technologiques qui ne cessent d’évoluer et de se perfectionner. Cette troisième évolution du web aurait fait son apparition en 2010, selon la netnologue Caroline Faillet. Intégré dans notre quotidien, le web 3.0 dit « smart web » est tourné vers la pertinence, l’individualisation et la personnalisation pour une expérience client 3.0 axée autour de technologies innovantes, telles que la réalité virtuelle, la réalité augmentée ou la 3D. Le web 3.0 tend à combiner à la fois l’internet classique, l’internet mobile et l’internet des objets.

D’après le CEO de Linkbynet, Julien Trassard : « il serait étonnant que [les] systèmes [du web 3.0] ne soient pas des standards d’ici 2025 » [2]. Et pour cause, les technologies du web 3.0 vont continuer à se déployer à grande échelle, comme par exemple le Cloud Computing ou encore le web 3D (contenu 3D interactif).

A lire aussi : Une vitrine interactive pour révolutionner l’expérience d’achat

Le Big data

Centré sur la connaissance de l’utilisateur, le web sémantique permet de redonner du sens aux données et de les contextualiser. Du fait que les algorithmes soient plus « intelligents », les moteurs de recherche proposent des résultats plus ciblés et affinés, adaptés aux besoins des internautes et mobinautes, en fonction de leur géolocalisation. Cependant, subsiste la question de la vie privée et de la protection des données, avec notamment la montée en puissance du web mobile et du web ambiant (dont le “Voice ID”).

A lire aussi : L’ePrivacy ou la guerre contre les cookies tiers

Internet of things

L’Internet des Objets (IdO) ou « Internet of Things » (IoT) correspond aux échanges de données entre les objets et les utilisateurs, connectés grâce à internet ; ayant pour visée d’améliorer l’expérience client. D’ici 2018, « le nombre d’objets connectés s’évaluera à 6 milliards. Tandis que d’ici 2025, chaque foyer disposera d’une trentaine d’objets connectés » [3], d’après le cabinet d’études Gartner. Avec l’explosion des objets connectés, notre mode de vie va donc se voir chamboulé, ainsi que les modèles d’affaires des entreprises.

Le web ambiant, le web 4.0 de demain ?

Vers la phygitalisation

A l’occasion de la conférence « L’aube de l’internet ambiant » à l’Unexpected Sources of Inspiration (USI) en 2016, Nicolas Demassieux, vice-président senior d’Orange Labs, est intervenu pour définir ce concept. Selon lui, le monde va être enrichi d’informations : « Les objets du quotidien vont être dotés de capteurs capables d’interagir avec internet. Avec la multiplication de ces capteurs, l’internet cérébral va être doté de sens et de muscles ; et, nous espérons qu’il sera aussi doté de cœur » [4]. Le web ambiant va transformer notre relation au monde physique et au monde digital ; nous parlons déjà d’un phénomène de phygitalisation. Pour Nicolas Demassieux, c’est vers une planète augmentée et donc ultra-connectée que nous allons nous diriger ; où l’objet aura une intelligence locale et de ce fait, ne sera plus inerte.

Vers une ère post-smartphone

Certains prédisent l’arrivée du web 4.0 en 2020 ! Associée au web intelligent, mais aussi perçue comme un web « symbiotique », la quatrième évolution du web s’apparenterait à une ère de l’interconnexion. Bien que cette notion soit encore floue, il semblerait que le web ambiant participe à la construction du web de demain : le web 4.0.

Tourné vers des interfaces conversationnelles qui entrent de plus en plus dans notre quotidien, le web ambiant dessine le début d’une ère post-smartphone où les objets connectés sont équipés d’une interface à commande vocale, dite « naturelle ». Pour le professionnel en marketing Frédéric Cavazza, « interfaces vocales et web ambiant sont donc les deux faces d’une même pièce » [5].

Les objets connectés dotés d’une interface vocale ont pour visée de révolutionner l’expérience des utilisateurs. Pour se préparer à cette ère post-smartphone, Frédéric Cavazza préconise aux entreprises de commencer à jouer avec les chatbots. D’après une prévision de Kantar : « en 2017, les marques mixeront humains et bots pour gérer la relation aux consommateurs » [6]. Tandis que selon le cabinet Motley Fool : « 85% d’interactions avec le client ne nécessiteront plus de main d’oeuvre humaine » [7].

A lire aussi : Qu’est-ce qu’un bot et à quoi cela peut-il servir ? Est-ce l’avenir du web ?

Interfaces vocales et web ambiant : « les deux faces d’une même pièce »

A ce jour, parmi les technologies existantes, mais non disponibles en France, on note l’enceinte connectée Echo d’Amazon avec son assistant personnel Alexa. Récemment, le géant du web a annoncé vouloir améliorer le système de reconnaissance vocale d’Alexa, en lui permettant d’enregistrer des empreintes vocales en vue de différencier ses utilisateurs. Pour faire concurrence à Amazon, en octobre 2016, Google a présenté son enceinte connectée Home, dotée de multiples fonctionnalités.

Notre agence vous apporte des solutions pour développer votre projet de façon créative, en vue d’attirer l’attention de vos clients potentiels. N’hésitez pas à contacter notre équipe pour une étude de votre projet.

Sources :
[1] brandnewsblog.com ; [2] commercemonde.com ; [3] et [7] objetconnecte.com ;
[4] Nicolas Demassieux – L’aube de l’internet ambiant ; [5] fredcavazza.net ; [6] ladn.eu ;

Helvetica : histoire d’une typo célèbre

Digital

La typographie joue un rôle primordial dans la création graphique. Dans l’image d’une marque par la création de son identité et de son logotype, pour donner du caractère à un texte ou en permettre la meilleure lisibilité possible, la typographie combine l’esthétisme et le fonctionnel.

Parmi les nombres polices existantes, l’Helvetica fait partie des plus célèbres et des plus utilisées aussi bien par les grandes marques de luxe que par des petits commerces de proximité.

typographie-helvetica

Histoire

La police Helvetica a été créée en Suisse, en 1957 par Max Miedinger (1910-1980) un graphiste de la fonderie typographique Haas. Inspirée par la police Akzidenz-Grotesk, elle a d’abord été nommée Die Neue Haas Grotesk.
Au début des années 1970, le « parrain de l’Helvetica », Mike Parker, a retravaillé la police pour la rendre compatible avec la machine à composer Linotype. Elle prend alors son nom définitif de Helvetica – qui veut dire suisse en latin – et devient populaire.

Une police linéale

L’Helvetica est une police linéale  (ou « grotesque ») qui se caractérise par l’absence d’empattements. Ces polices, aussi appelées sans sérif, se sont développées au début des années 1920, sous l’influence du Bauhaus. Cette école, devenue courant artistique, mêle de nombreuses disciplines notamment le design et l’architecture et privilégie le fonctionnalisme plutôt que l’esthétisme. Les polices linéales sont issues de la tradition des affiches et enseignes.

Neutralité et lisibilité

Max Miedinger a créé l’Helvetica dans un esprit de neutralité. Ainsi, dans la tradition du Bauhaus, le but est de faire ressortir le contenu et non le caractère en lui-même, la typographie ne doit pas influencer le sens du texte. C’est d’ailleurs une des polices les plus lisibles du monde qui est utilisée notamment, pour la petite anecdote, dans les cabinets d’ophtalmologie.

Un véritable mythe

Cette police de caractères connaît toujours un véritable succès. Depuis le début des années 1970, avec l’essor de la communication et de la publicité, de nombreuses entreprises (Panasonic, American Airlines, Lufthansa, Toyota, American Apparel, Samsung et bien d’autres) l’ont incorporée à leur charte graphique, leur logo ou leurs affiches. Sa simplicité et sa lisibilité en font également une police privilégiée pour la signalisation. Ainsi le métro new-yorkais adopte l’Helvetica comme police officielle en 1989 et l’utilise maintenant pour toute sa signalétique.

Sa présence constante dans notre quotidien et sa popularité sont telles que le designer Michael Vanderbyl dira « au début des années 70, Helvetica n’était pas une police de caractères mais un mode de vie » et qu’à la même époque, elle fut critiquée par les mouvements de contre-culture qui s’érigeaient contre l’uniformise et le consumérisme de la société.

Elle inspire également de nombreux artistes pour leurs pochettes de disque (Massive Attack, Red Hot Chill Peppers, Frank Sinatra, The Beatles…).

La rivalité Helvetica – Arial

Microsoft choisira l’Helvetica pour son logo en 1987. Mais c’est l’Arial, créée en 1982 par Monotype, qui sera choisie comme police par défaut sur les applications Windows par volonté de réduction des coûts, les droits d’auteur de l’Helvetica étant trop importants pour la compagnie américaine.

Les graphistes savent distinguer les deux polices au premier coup d’œil : même si la largeur des caractères est identique, les lettres de l’Helvetica sont coupées à l’horizontale ou la verticale, alors que celles d’Arial sont biseautées entre autres différences.

Un petit test en ligne permet même de tester ses connaissances en la matière.

Helvetica et les medias

Malgré l’omniprésence de l’Arial au niveau informatique, c’est bien l’Helvetica qui fait figure de star, un livre lui est même consacré en 2002 Helvetica: Homage to a Typeface, jouissant d’un succès inattendu avec plus de quinze mille exemplaires vendus.
En 2007, étaient fêtés les 50 ans de la police créée par Max Miedinger. A cette occasion, un film documentaire a été réalisé par Gary Hutswit abordant l’influence de l’Helvetica sur la typographie, le design graphique et la culture visuelle.

Le succès de l’Helvetica démontre l’importance de la typographie dans notre société actuelle. Des webséries (Sacrés caractères) et des jeux vidéo (Type:Rider) y sont même consacrés.

Si vous souhaitez bénéficier de l’expertise typographique de Pix Associates pour la création de votre identité visuelle et de votre logo ou pour vos supports d’édition, n’hésitez pas à contacter notre équipe.

Sources : [1] graphemes.com ; [2] paris.blog.lemonde.fr ; [3] webdesignerdepot.com ; [4] webdesignerdepot.com ; [5] artofteasing.fr

Immersion virtuelle totale au salon Virtuality 2017

Digital

La réalité virtuelle a le vent en poupe ! Fin février a eu lieu la toute 1ère édition de Virtuality au Centquatre-Paris. Un salon dédié à la réalité virtuelle (VR) avec plus d’une centaine d’exposants et 70 talks animés par les acteurs de ce marché. L’occasion pour les professionnels mais aussi le grand public de découvrir pendant trois jours complets la french VR à travers des expériences immersives et des tables rondes. Une belle opportunité aussi de se faire un avis.

salon-virtuality

Une tendance forte

La Réalité Virtuelle n’est pas nouvelle mais la qualité des contenus, le niveau technologique, l’implication des grands industriels et la « démocratisation » via les smartphones et les réseaux sociaux ont redistribué les cartes ! L’adoption est massive et le marché semble désormais mature. A la fois technologiques et narratives, ces nouvelles façons de découvrir la réalité offrent de nouvelles manières de raconter les histoires, de stimuler la créativité et les conversations.

La Réalité Virtuelle et Augmentée pourraient bien redéfinir en profondeur la prochaine évolution des réseaux sociaux.

A lire aussi : Une vitrine interactive pour révolutionner l’expérience d’achat

L’avenir de la VR

La VR est un marché en fort développement. En 2016, le marché s’attaque au grand public avec la commercialisation de nombreux équipements tels que les casques VR. D’après l’étude menée par Goldman Sachs «Virtual & Augmented reality, the next big computing platform» publiée en janvier 2016, le marché de la réalité virtuelle et de la réalité augmentée représentera plus de 80 milliards de dollars d’ici 2025.

Les entreprises françaises excellent dans ce domaine. Elles innovent et s’imposent sur la scène internationale lors d’événements tels que la CES 2017 à Las Vegas. En effet, la start-up Revinax était présente pour promouvoir son application Surgevry qui à l’aide d’un casque VR vous fait vivre à la place du chirurgien des opérations auparavant filmées en bloc opératoire.

Partage de l’expérience Pix

Samedi, Cécile (Chef de projet, Pix Associates) et Clémence (assistante e-marketing Pix Digital) ont tenté l’expérience en participant au salon Virtuality. L’occasion de tester les expériences proposées par les exposants. Voici leurs témoignages et retours sur cette journée :

« Nous avons commencé avec le simulateur de vol créé par la start-up française, Hypersuit. Une fois le casque sur notre tête, nous prenons le contrôle du jeu à l’aide de bras motorisés et nous guidons nos mouvements en baissant ou levant les bras. Nous avions la sensation de planer dans les airs !

Nous avons continué notre tour pour nous arrêter devant Tumulte. Un cylindre de « 4,66 mètres de hauteur et de 6,5 mètres de diamètre dont les parois internes forment un écran à 360° de 80 m2 ». A l’entrée de ce géant, nous avons reçu des lunettes 3D avant d’embarquer dans une expérience collective et interactive.

Après ces deux expériences, nous avons assisté à plusieurs talks. Tout d’abord, celui du co-fondateur de Backlight, une entreprise spécialisée dans l’animation 2D et 3D. Frédéric Lecompte a présenté les travaux réalisés par son équipe en VR. Leur premier projet en VR date de 2014 avec la création de l’application Birdy Kingland. Il a mis en avant l’utilité de cette technologie innovante pour répondre à des problématiques liées à l’immobilier par exemple avec The Camp, un campus qui sera installé dans le Sud de la France et dont Backlight a créé une visite immersive multi-utilisateurs afin d’avoir une prévisualisation architecturale.

A suivi le talk d’Antoine Gilbert, Directeur Brand Strategy de Twitter France. Son intervention visait à présenter l’engagement généré en intégrant une couche VR au live proposé par Periscope lors d’événements. Cette technologie ‘live 360’ a déjà été utilisée lors d’événements internationaux et a rassemblé de nombreux utilisateurs sur les réseaux sociaux. Notamment, le Live 360 lors du défilé de Louis Vuitton en janvier 2017. Avec cette fonctionnalité, les utilisateurs étaient immersion totale avec un contrôle sur les points de vue de la caméra et ils pouvaient twitter en même temps. Une expérience unique qui permet d’être au cœur de l’action. Twitter a mené des études qui mettent en avant que la vidéo 360 a plus d’impact qu’une vidéo classique et crée plus d’engagement.

A lire aussi : Comment réussir son Live vidéo ?

Le salon Virtuality a co-organisé avec Numa un concours de start-up remporté par Timescope. Cette start-up rend accessible et fait vivre des expériences immersives grâce à des bornes pour découvrir l’histoire d’un lieu ou se projeter dans le futur et voir à quoi il ressemblera ».

Et vous, avez-vous envie de vous lancer dans un projet de vidéo immersive à 360° ? N’hésitez pas à contacter nos équipes pour en discuter !

Découvrez l’ensemble des événements où l’équipe Pix s’est rendue :

Sources : [1] Le Monde ; [2] FrenchWeb ; [3]  20Minutes   [4] Usine Digitale  ;  [5] L’ADN 

L’ePrivacy ou la guerre contre les cookies tiers

Digital

Pour lutter contre l’effet intrusif des publicités, de nombreux internautes utilisent des adblockers. « En France, 46% des internautes ont le sentiment « d’être poursuivi par les marques » contre 39% en Europe et 34% dans le monde » [1], selon l’étude Connected Life 2017 réalisée par Kantar TNS. Avec la mise en place du règlement ePrivacy – en parallèle du projet RGPD (Règlement Général sur la Protection des Données), initié par la Commission Européenne et exposé le 10 janvier 2017 à Bruxelles – la publicité en ligne risque de connaître un nouveau frein, en plus de l’adblocking. Quel impact cette proposition de règlement pourrait-elle avoir sur le monde digital ?

eprivacy-cookies-tiers

Le projet de règlement ePrivacy de la Commission Européenne

Cookies non intrusifs et cookies tiers

Devenue obligatoire depuis 2011 en France, l’installation des bandeaux cookies sur les sites internet permet d’avertir les internautes de la dépose de cookies, lors de leur première visite. Cette action repose sur le consentement de l’internaute (opt-in), cela signifie que les cookies sont déposés uniquement si l’utilisateur a donné son accord. Les cookies non intrusifs ayant pour fonction d’améliorer l’expérience de navigation (par exemple mémorisation des préférences) ne sont pas concernés par le règlement ePrivacy.

Avec la directive sur les cookies du 12 juillet 2002, révisée le 25 novembre 2009, la data ne cesse de faire parler d’elle. La proposition de règlement ePrivacy du 10 janvier 2017 a ainsi pour objectif de remplacer la précédente directive, dite « directive vie privée et communications électroniques » [2]. La Commission Européenne prévoit de faire entrer en vigueur ce texte à partir du 25 mai 2018. Si ce nouveau règlement est adopté, les cookies tiers seront alors bloqués par défaut dans tous les navigateurs, et sur tous les supports utilisés (ordinateurs, tablettes et mobiles).

Le contrôle de la data donné aux utilisateurs

« Le Syndicat des Régies Internet (SRI) estime qu’il faut redonner confiance à l’internaute » [3]. Les cookies tiers qui permettent d’affiner le ciblage des campagnes publicitaires sont enclins à être bloqués afin de mieux préserver la vie privée des internautes. En vue de respecter le principe de « consentement préalable obligatoire », les « cookies tiers ne seraient activés qu’à la demande des utilisateurs » [4].

Dans les paramètres de configuration du navigateur, l’utilisateur pourra autoriser ou non la dépose des cookies tiers, et ceci pour l’ensemble des sites qu’il visitera par la suite. L’idée de ce projet consiste ainsi à redonner aux internautes le contrôle sur leurs données personnelles en renforçant le concept de « privacy by design ».

Quel avenir pour la publicité digitale avec le blocage des cookies tiers ?

Les cookies tiers et le ciblage publicitaire

Pour Bertrand Gié, directeur du digital du Figaro, « certains cookies ont de vraies vertus. Ils permettent de proposer des publicités adaptées, pertinentes et donc non intrusives » [5]. Et pourtant, toujours d’après l’étude de Kantar TNS : seulement 21% des français sont « favorables aux publicités adaptées à leurs goûts et centres d’intérêts ».

En juillet 2016, l’Udecam et la SRI ont annoncé la création en 2017 d’un label de qualité de la publicité digitale, à percevoir ainsi comme un « gage de réassurance pour les annonceurs ». Ce label a pour objectifs de garantir une meilleure lisibilité et visibilité de la publicité en ligne, et de respecter le règlement en vigueur sur le recueil des données personnelles.

De la data privacy vers de nouvelles formes publicitaires

Le blocage par défaut des cookies tiers remet en cause les techniques de retargeting utilisées par les annonceurs. D’après Erwan Le Page, CEO de la régie publicitaire Audience Square, la directive ePrivacy va « mettre le bazar dans le business de la publicité en ligne » [6] dans la mesure où le modèle économique des médias a été bâti à partir des cookies. Tandis que le fondateur de Madvertise, Paul Amsellem, plus optimiste à ce sujet, est convaincu que le projet ePrivacy va redonner de la valeur à la data.

Selon Maurice N’Diaye, membre de l’Adetem (Association Nationale du Marketing), le débat autour des cookies tend à faire émerger de nouvelles formes publicitaires non intrusives en parfaite adéquation avec le respect de l’expérience utilisateur, comme cela a déjà été le cas avec les native ads. Considéré comme un « modèle d’avenir », le native advertising ou la publicité native est à envisager comme une solution pour les annonceurs. Nés en 2012 aux Etats-Unis, les native ads correspondent à une forme publicitaire qui est insérée de façon naturelle dans un contenu.

Comment les GAFA vont-ils tirer profit de la data privacy ?

Les systèmes et applications qui recueillent les données personnelles, tels que les identifiants, au moment de l’inscription des internautes ou mobinautes, n’utilisent que très peu les cookies pour récupérer la data et faire du ciblage. C’est autour de cet écosystème que fonctionnent les géants du web ou GAFA que sont Google, Apple, Facebook et Amazon. Si le règlement de data privacy est adopté, ces plateformes américaines pourraient largement tirer profit de la situation au détriment des annonceurs européens et ainsi atteindre leur apogée, tout en faisant l’économie des cookies.

Le moteur de recherche Qwant, un modèle de privacy by design

qwant-privacy-by-design

Le 3 février 2017, Pix Associates a assisté à la 3ème édition de l’Azur Digital Day où ont été révélées les réussites digitales caractéristiques de la French Touch que nous vous invitons à découvrir : De la French Tech à la French Touch : empreinte digitale et culturelle. A cette occasion, le moteur de recherche français Qwant (2013) a été présenté par son PDG, Eric Léandri. Fondé autour du concept « privacy by design », le moteur de recherche tend à préserver et respecter les données personnelles des internautes du fait qu’il ne dépose ni cookie et n’enregistre aucun historique de navigation. Qwant se veut neutre et sécurisé afin d’assurer la protection de la vie privée de ses utilisateurs, visant ainsi à instaurer un sentiment de confiance. Comme le précise Eric Léandri lors d’une interview : « Les résultats affichés seront les mêmes, qui que vous soyez et où que vous vous trouviez » [7].

Face à l’émergence de la data privacy, la publicité ciblée semble quelque peu menacée, et il en va ainsi de même de la visibilité des marques et des entreprises, qui, par effet boule de neige, est également impactée. Une nouvelle stratégie, un lancement de projet ? N’hésitez pas à contacter notre équipe pour être accompagné et conseillé.

Sources : [1] ladn.eu ; [2] journaldunet.com ; [3] strategies.fr ; [4] usine-digitale.fr ;
[5] journaldunet.com ; [6] challenges.fr ; [7] tempsreel.nouvelobs.com