Lexique des mots en relation avec la transformation digitale

La Transformation digitale, également appelée transformation numérique, consiste à intégrer les technologies digitales dans les activités d'une entreprise.

Ce processus s’immisce dans le modèle des sociétés, leur rapport au travail et marque ainsi que le passage d’une économie traditionnelle à une économie numérique. On entend souvent les termes de data, cyber sécurité, intelligence artificielle ou machine Learning… sans vraiment savoir ce qu'ils signifient précisément. Focus sur leur définition :

Voici le lexique des mots en lien avec la transformation digitale pour vous aider à y voir plus clair :

API : L’Application Programming Interface ou API permet d’établir des connexions entre plusieurs logiciels pour échanger des données. Lorsqu’elles sont proposées par les programmes de liens commerciaux, les API permettent, par exemple, de créer des campagnes ou annonces à partir d’une base de produits et cela de manière automatique. Aujourd’hui, on retrouve les API dans de nombreux logiciels et notamment les systèmes d’exploitation, serveurs d’applications et aussi dans le monde du graphisme.

Big Data : Le Big Data est un concept qui s’est démocratisé en 2012. Il traduit le fait que les organisations sont confrontées à des volumes de données de plus en plus importants, présentant de forts enjeux commerciaux et marketing. Ces volumes de données considérables sont exploités par les acteurs dans le but d’en tirer des informations intelligibles et pertinentes.

Blockchain : Apparue en 2008 avec le Bitcoin, la Blockchain ou « chaîne de blocs » est une technologie qui révolutionne les transactions en ligne. Ses applications ne se limitent pas seulement au domaine monétaire. Grâce à sa sécurité, sa transparence mais surtout à son caractère décentralisé, la Blockchain peut être utilisée dans le cadre du transfert d’actifs, en tant que registre mais aussi via les smart-contracts. Ces derniers correspondent à des programmes autonomes qui exécutent automatiquement les termes d’un contrat, sans intervention humaine. Ainsi, le potentiel de la Blockchain est immense !

Business Intelligence : La Business Intelligence (BI) ou informatique décisionnelle est un processus d’analyse de données qui vise à booster les performances métier en aidant les entreprises à prendre les décisions les plus avisées. La BI englobe plusieurs outils, applications et méthodologies permettant aux organisations de collecter des données à partir de systèmes internes et de sources externes. Les outils BI peuvent toutefois être des obstacles car ils ne sont pas encore pleinement accessibles.

Chaine 3D : La chaîne 3D a été expérimentée pour la première en 2010 en France par Numéricable avec comme objectif de familiariser les abonnés aux programmes en relief mais aussi de tester leur appétence pour cette nouvelle technologie. Si cette innovation a fait sensation, l’effet 3D est rapidement retombé à partir de 2014 en raison du manque de contenu 3D notamment. Peu de diffuseurs décident désormais d’adapter leurs offres en proposant des versions 3D de leurs chaînes. Tout porte à croire que cette technologie finira toutefois par entrer dans les usages du grand public.

Chatbot : Egalement appelé « agent conversationnel », un chatbot est un programme informatique conçu pour simuler une conversation avec des humains par échange vocal ou textuel. Cet outil est principalement utilisé par les services clients de marques et les e-commerçants à travers la messagerie instantanée. L’usage des chatbots est encore expérimental car il présente des risques à ne pas écarter (dérapages sémantiques, détournements de la part des internautes).

Cloud : Le Cloud Computing est de plus en plus utilisé par les entreprises. Cette nouvelle forme de stockage se décline en de nombreuses variantes et il n’est pas toujours évident de choisir l’offre qui convient le mieux à son activité. Pour faire simple, le Cloud Computing est une technologie qui permet de transférer des données de stockage ou des logiciels habituellement enregistrés sur l’ordinateur d’un utilisateur ou sur des serveurs installés en réseau local au sein d’une entreprise vers des serveurs localisés à distance. L’absence d’infrastructure informatique est donc le principal avantage du Cloud Computing.

Cryptologie : La cryptologie est une discipline qui se décompose en cryptographie et cryptanalyse. La cryptographie est utilisée pour préserver la confidentialité des données, garantir leur intégrité et authenticité. La cryptanalyse permet de décoder un message chiffré à l’aide d’un cryptosystème, on dit alors que l’algorithme de chiffrement a été « cassé ». Aujourd’hui, la cryptologie sert à prouver qui est l’auteur d’un message et permet de savoir s’il a été modifié ou non grâce aux signatures numériques et aux fonctions de hachage.

Cyber-attaque : Une cyber-attaque correspond à une attaque à des systèmes informatiques menée dans un but malveillant. Elle peut cibler différents dispositifs : des ordinateurs, des serveurs isolés ou en réseaux, reliés ou non à Internet, des équipements périphériques ou encore des appareils communicants tels que les téléphones portables. La cyber-attaque renvoie à quatre types de risques qui affectent directement ou non les particuliers, entreprises et administrations : la cybercriminalité, l’atteinte à l’image, l’espionnage, le sabotage. Le risque numérique est désormais un enjeu national.

Cybersécurité : La cybersécurité désigne l’ensemble des outils, politiques, concepts et mécanismes de sécurité pouvant être utilisés pour protéger le cyberenvironnement et les actifs des organisations et utilisateurs. La cybersécurité s’appuie sur les techniques de sécurité des systèmes d’information, la lutte contre la cybercriminalité et la mise en place d’une cyberdéfense. Ce principe est devenu une réelle priorité tant pour le grand public que pour les entreprises confrontées à des attaques toujours plus difficiles à détecter et sophistiquées.

Data analyst: Le rôle du Data analyst est de créer des bases de données indispensable à l’entreprise puis s’assurer de leur bon fonctionnement. Il assure ainsi la gestion de l’administration, l’architecture des bases et prend en charge la modélisation des données. Le Data analyst élabore des critères de segmentation afin d’exploiter au mieux les chiffres et participe à leur analyse. Il s’agit donc d’un acteur clé du service information, garant de la qualité et de la cohérence des données.

Data analytics : La Data analytics représente aujourd’hui un enjeu central pour les entreprises. Cette pratique est essentielle pour accroître son chiffre d’affaires et rester compétitif. Elle consiste à examiner les données brutes pour identifier les patterns non découverts et établir des relations cachées. La Data analytics peut par exemple être utilisée par les banques en vue d’analyser des transactions et ainsi détecter d’éventuelles fraudes ou usurpations d’identité. Dans le domaine scientifique, elle est utilisée pour vérifier des théories ou réfuter des modèles existants.

Data base : Le terme Data base ou base de données, est apparu en 1964 pour désigner une collection d’informations partagée par plusieurs utilisateurs d’un système d’informations militaire. Il s’agit d’un ensemble de données organisées et destinées à être utilisées par des programmes, des applications distinctes. Elles sont créées en vue de permettre leur évolution indépendante.

Data blending : Plusieurs solutions disponibles sur le marché permettent de faire du Data blending. Cette pratique consiste à réconcilier les données de natures et formats différents en mode agile. Le Data blending peut être réalisé quel que soit le format des données (structurées ou non structurées) ou le format de stockage (base de données SQL ou NoSQL). Le Data blending ou brassage de données est aujourd’hui utilisé pour améliorer la performance des traitements analytiques.

Data center : UnData center ou centre de données, est un endroit physique dans lequel sont rassemblées plusieurs machines, généralement des serveurs, intégrant des données informatiques. Les Data centers jouent un rôle majeur dans le monde du web. En effet, les moteurs de recherche, les sites web mais également les entreprises, y stockent d’importants volumes de données. L’utilisation des Data centers a favorisé l’émergence du cloud qui permet de transférer des données de stockage ou logiciels vers des serveurs localisés à distance.

Data dock : Le Data dock est une base de données inter-OPCA et Opacif lancée en janvier 2017. Il s’agit d’un catalogue des organismes de formation répondant aux six critères fixés par la loi sur la formation de 2014 et le décret du 30/06/2015. Chaque centre de formation doit prouver sa capacité à fournir des formations de qualité. Lorsqu’un centre de formation a validé son Data dock, il devient référençable par les financeurs. Dans le cas contraire, il ne pourra pas bénéficier du financement OPCA.

Data driven : Le Data driven, également appelé « marketing piloté ou conduit par les données », renvoie aux applications et techniques du marketing digital. Celles-ci sont basées sur l’exploitation des données et concernent également les domaines plus traditionnels du marketing. Le Data driven est directement lié à l’essor du Big Data. Cette technologie va permettre aux entreprises de développer des stratégies marketing créatives et optimisées : création de messages personnalisés plus valorisants pour les clients, personnalisation sur un site web ou dans le cadre de la publicité programmatique.

Data lake : Le Data lake ou lac de données, est un référentiel de stockage qui enregistre et conserve un important volume de données brutes dans leur format initial jusqu’à ce qu’elles soient nécessaires. Tout comme le Big Data, le terme Data lake est souvent employé abusivement et réduit à la simple étiquette marketing d’un produit. En réalité, l’expression décrit un réservoir de données de grande envergure dans lequel aucune exigence de schéma et de données n’est définie.

Data management platform : Une Data mangement platform ou plateforme de gestion des données est un logiciel qui permet, à partir de cookies et de services tiers, le stockage et le traitement des informations relatives au comportement des visiteurs non identifiés d’un site Internet. Ces informations peuvent ensuite être utilisées pour améliorer l’expérience utilisateur et affiner les ciblages publicitaires.

Data management : Le Data management ou gestion des données, est une discipline de gestion qui regroupe les processus programmés pour définir, stocker, maintenir et garantir une prise en compte efficace et fiable des données au sein d’un référentiel. Face à la croissance des données numériques, le besoin d’anticipation apparaît comme le principal enjeu du Data management. L’exploitation de ces données constitue ainsi une véritable aide à la décision pour les dirigeants.

Data mining : Le Data mining ou exploration des données, fait référence à un ensemble de techniques, méthodes automatiques et semi-automatiques visant à faciliter l’analyse des données contenues au sein d’une société. Le Date mining est récent puisqu’il est apparu dans les années 1980 et s’est rapidement développé avec la multiplication des bases de données. Cet outil peut être utilisé pour détecter des comportements de fraude, sélectionner un échantillon de clients, identifier le profil d’un prospect type. Il aboutit généralement à des résultats très efficaces.

Data protection : Les entreprises stockent des volumes de données croissants, ce qui peut poser des risques en matière de sécurité. Le data protection officer (DPO) a pour mission de s’assurer du respect de la législation, notamment lorsque son client utilise des données à des fins internes et commerciales. La Data protection renvoie donc directement au règlement relatif à la protection des données des utilisateurs.

Data scientist : Le Data scientist est un responsable du croisement des données de l’entreprise avec celles mises à disposition via les services web et autres canaux digitaux. Sa mission consiste à définir ces données et en extraire de la valeur pour aider l’organisation à prendre des décisions stratégiques ou opérationnelles. Le Data scientist est donc spécialisé en statistique et informatique, il connaît parfaitement la fonction d’application des données analysées.

Data storage : Le marché du stockage de données a beaucoup évolué ces dernières années. Le Data storage fait référence aux périphériques et aux données qu’il renferme. Il peut s’agir d’un disque dur, d’une bande ou encore d’un support intégré à l’ordinateur. Le stockage peut être divisé en trois catégories : la mémoire qui conserve les données de manière temporaire, le stockage primaire, le stockage secondaire. Il est au cœur des préoccupations actuelles des entreprises.

Data warehouse : Le Data warehouse ou entrepôt de données, désigne une base de données consacrée au stockage des informations utilisées dans le cadre de la prise de décision et l’analyse décisionnelle. Le Data warehouse est alimenté depuis les bases de production et grâce à des outils spécifiques. Les utilisateurs, analystes et décideurs peuvent ensuite accéder aux données collectées en vue d’étudier des cas précis de réflexion.

Fast IT : Aujourd’hui, les entreprises évoluent dans un environnement toujours plus complexe où les connexions se multiplient. Ces dernières ont abouti à la création de l’Internet of Everything (IoE) qui représente une incroyable opportunité sur le plan économique et de l’innovation. Pour capter le potentiel de l’IoE, un nouveau mode de fonctionnement informatique est nécessaire : le Fast IT. Le Fast IT est donc un nouveau modèle d’organisation qui favorise l’innovation, s’adapte aux changements de business model tout en réduisant les coûts opérationnels.

Fast learning : Le Fast Learning est une méthode regroupant des outils ayant pour objectif la production de contenus pédagogiques multimédia et leur assimilation rapide. Il s’agit donc d’un processus simplifié de création de contenus. Le Fast learning constitue une excellente solution pour l’enseignement et l’apprentissage de savoirs précis et circonstanciés. Il se focalise sur l’essentiel ce qui met également en évidence ses failles.

Hacker : Un hacker est un spécialiste en programmation, en architecture et en sécurité informatique ainsi qu’en administration réseau. Il utilise ses compétences pour mettre en défaut un système informatique. Les hackers peuvent entreprendre cette activité pour plusieurs raisons : détecter les failles de sécurité d’un système afin de le renforcer, offrir l’accès à un produit ou un service à un plus grand nombre d’utilisateurs ou bien pour relever un défi technique. Afin de protéger le contenu de son site Internet, il est vivement conseillé de mettre en place des logiciels de cryptage et un module HTTPS.

Intelligence artificielle : L’intelligence artificielle (IA) désigne un ensemble de théories et techniques développant des programmes informatiques complexes capables de stimuler certains traits de l’intelligence humaine. Parmi les exemples d’usage de l’intelligence artificielle, on peut citer la vision artificielle ou encore la reconnaissance vocale. Celle-ci est désormais implémentée dans un nombre grandissant de domaines d’application.

IoT : L’Internet of Things (IoT) fait référence à l’écosystème des objets connectés intégrant le marché des objets mais aussi les modèles économiques et marketing issus de leur développement. Sur le plan marketing, l’IoT peut entraîner l’apparition de nouveaux modèles de distribution comme ceux basés sur les dispositifs d’approvisionnement. Il contribue par ailleurs au développement du phénomène Big Data grâce aux volumes de données collectées générés. Le terme IoE a été inventé par Cisco pour aller au-delà de l’IoT.

Machine Learning : Le Machine Learning ou apprentissage automatique n’est pas une pratique nouvelle. Elle consiste en la mise en place d’algorithmes dont l’objectif est d’obtenir une analyse prédictive à partir de données. Cette science moderne permet ainsi de découvrir des patterns et d’effectuer des prédictions sur la base de statistiques et du forage de données. Le Machine Learning prend tout son sens avec l’arrivée du Big Data. Il faut d’ailleurs rappeler que ces deux outils sont interdépendants.

Malwares : Un malware est le terme anglais désignant un logiciel malveillant. Il s’agit donc d’un logiciel pouvant se manifester sous forme de virus, vers, spyware, keylogger, cheval de Troie, backdoor. Le malware peut alors prendre plusieurs formes et est généralement conçu pour être utilisé sur le plus grand nombre d’ordinateurs. Pour les éviter, il est nécessaire d’installer un logiciel anti-malware. Il en existe plusieurs centaines téléchargeables gratuitement.

Pilotage CSIRT : Le terme CSIRT pour Computer Security Incident Response Team désigne un centre d’alerte et de réactions aux attaques informatiques destiné aux entreprises et administrations. Le CSIRT a plusieurs missions : centraliser les demandes d’assistance suite aux attaques sur les réseaux et systèmes d’information, traiter les alertes et réactions aux attaques informatiques, assurer la maintenance d’une base de données, la prévention pour minimiser les risques d’incidents, la coordination éventuelle avec les autres entités. Aujourd’hui et face à l’importance des cyber-attaques, il est devenu essentiel de réagir en cas d’incident de sécurité à travers un processus de type CSIRT.

Réponse à incident : La réponse à incident est un défi technologique, juridique mais aussi organisationnel pour les entreprises. Le plan de réponse à incident permet de faire face aux conséquences d’une cyber-attaque et à ses risques. Il consiste à mettre en place une action immédiate pour arrêter ou réduire l’incident, entreprendre des recherches sur l’incident, restaurer les ressources affectées et procéder à l’indication de l’incident sur les canaux corrects. La réponse à incident doit aboutir à une méthodologie alliant vitesse et précision pour être véritablement efficace.

Services cloud : Les services cloud sont généralement proposés par un fournisseur qui représente une société tierce. Celui-ci offre des services cloud de plateforme, d’infrastructure, d’application ou encore de stockage. Les entreprises ne paient souvent que selon le volume de services cloud qu’elles utilisent comme c’est le cas des propriétaires qui paient pour un service public tel que la distribution de gaz ou d’électricité. Ces services permettent aux entreprises de disposer de nombreux avantages, notamment en termes de fiabilité et de flexibilité.

Tests d'intrusion : Les tests d’intrusion consistent à étudier les moyens de protection d’un système d’information en essayant de s’y introduire en situation réelle. Cette démarche nécessite d’obtenir l’accord préalable du plus haut niveau de la hiérarchie de l’entreprise puisqu’elle peut aboutir à des dégâts éventuels. Il s’agit toutefois d’un bon moyen pour mettre en évidence une faille et sensibiliser les acteurs d’un projet. De nombreux outils sont mis à disposition des entreprises pour effectuer ces tests.

Vous maîtrisez désormais les principaux termes liés à la transformation digitale des entreprises. Devenez un expert en intégrant un des MSc – Master of Science en transformation digitale de PSB Paris School of Business. Expertise, double compétence et opportunités professionnelles... Ces programmes vous offrent de réels avantages pour décrocher un emploi dans un secteur porteur : les métiers dédiés à la révolution numérique.

Nos MSC en transformation digitale

Rentrées décalées 2025

N'attendez pas septembre prochain pour faire votre rentrée