La mise en œuvre de la stratégie Digitale demande un alignement des moyens et de l’écosystème technologiques

Notre point de vue sur la Transformation des moyens et écosystème technologiques :

Notre point de vue sur la Transformation des moyens et écosystème technologiques :

La migration vers le Cloud

  • L’adoption du Cloud Public  apparait comme la pierre angulaire de la construction d’une infrastructure digitale. Les grands fournisseurs ayant répondu  aux objections traditionnelles au Cloud Public (le lock-in, les temps de latence, la sécurité, la confidentialité) par des investissements et innovations (capacité réseau, cryptage, choix de la localisation des données, …), le Cloud Public permet aujourd’hui :
    • d’accéder à un grand nombre de services innovants (Big Data, Machine Learning, IOT, Quatum computing, …) actualisés en permanence,
    • d’attirer les Talents digitaux par un environnement de travail attractif, 
    • de provisionner de façon simple et rapide de nouveaux environnements de développement, de test et de production,
    • d’assurer facilement et à moindre coût le  passage à l’échelle et la couverture géographique,
    • d’assurer la transparence, la flexibilité et l’optimisation du coûts des infrastructures,
    • d’éviter les investissements dans les infrastructures informatiques,
    • d’intégrer facilement les écosystèmes technologiques,
    • d’adapter facilement les capacités à la demande,
    • d’assurer un niveau de sécurité inégalé,
    • de simplifier et d’alléger l’exploitation de l’infrastructure informatique.
  • En particulier, le Cloud facilite l’innovation et la culture du « fail fast » (échouer vite) en permettant de mettre très vite à disposition d’une équipe des moyens informatiques et de pouvoir très vite arrêter un projet sans sacrifier d’investissements informatiques.
  • Si le développement des nouvelles applications nativement dans le Cloud est une évidence, la migration des applications existantes nécessite une analyse et le choix d’une stratégie adaptée aux caractéristiques de chaque application.
  • L’adoption du Cloud Public  apparait comme la pierre angulaire de la construction d’une infrastructure digitale. Les grands fournisseurs ayant répondu  aux objections traditionnelles au Cloud Public (le lock-in, les temps de latence, la sécurité, la confidentialité) par des investissements et innovations (capacité réseau, cryptage, choix de la localisation des données, …), le Cloud Public permet aujourd’hui :
    • d’accéder à un grand nombre de services innovants (Big Data, Machine Learning, IOT, Quatum computing, …) actualisés en permanence,
    • d’attirer les Talents digitaux par un environnement de travail attractif, 
    • de provisionner de façon simple et rapide de nouveaux environnements de développement, de test et de production,
    • d’assurer facilement et à moindre coût le  passage à l’échelle et la couverture géographique,
    • d’assurer la transparence, la flexibilité et l’optimisation du coûts des infrastructures,
    • d’éviter les investissements dans les infrastructures informatiques,
    • d’intégrer facilement les écosystèmes technologiques,
    • d’adapter facilement les capacités à la demande,
    • d’assurer un niveau de sécurité inégalé,
    • de simplifier et d’alléger l’exploitation de l’infrastructure informatique.
  • En particulier, le Cloud facilite l’innovation et la culture du « fail fast » (échouer vite) en permettant de mettre très vite à disposition d’une équipe des moyens informatiques et de pouvoir très vite arrêter un projet sans sacrifier d’investissements informatiques.
  • Si le développement des nouvelles applications nativement dans le Cloud est une évidence, la migration des applications existantes nécessite une analyse et le choix d’une stratégie adaptée aux caractéristiques de chaque application.

Les outils du Big Data

  • Le Big Data se caractérise par la distribution de larges volumes de données sur des clusters de machines et nécessite donc des outils de gestion des données distribuées, des outils de gestion de clusters (Hadoop Yarn, Apache Mesos, …), des outils pour définir les programmes de traitement (R, Python, Scala, Hama, Apache Storm, Apache Samza, …) et des outils d’interrogation (Apache Hive, Pig, impala, Drill, …).
  • Il y a quatre types de traitements et d’outils correspondant : DAG (graphe orienté acyclique, traitement des données par étape), traitement de flux, parcours de graphe et Machine Learning.
  • Les outils de Machine Learning permettent en particulier de construire des modèles prédictifs ou prescriptifs.
  • Il existe des plateformes intégrées (comme Apache Spark, Apache Tez, Apache Flink) proposant l’ensemble des outils (gestion des clusters, programmes de traitement et interrogation) pour tous les types de traitement, ce qui simplifie grandement la mise en œuvre, l’usage et la maintenance.
  • Enfin, de plus en plus d’organisations construisent leur Data lake et plateforme de Big Data directement dans le Cloud, les grands fournisseurs de Cloud Public proposant des outils puissants et certains acteurs spécialisés (comme Databricks) proposant des outils spécifiques opérant au sein des plateformes de Cloud Public.
  • Le Big Data se caractérise par la distribution de larges volumes de données sur des clusters de machines et nécessite donc des outils de gestion des données distribuées, des outils de gestion de clusters (Hadoop Yarn, Apache Mesos, …), des outils pour définir les programmes de traitement (R, Python, Scala, Hama, Apache Storm, Apache Samza, …) et des outils d’interrogation (Apache Hive, Pig, impala, Drill, …).
  • Il y a quatre types de traitements et d’outils correspondant : DAG (graphe orienté acyclique, traitement des données par étape), traitement de flux, parcours de graphe et Machine Learning.
  • Les outils de Machine Learning permettent en particulier de construire des modèles prédictifs ou prescriptifs.
  • Il existe des plateformes intégrées (comme Apache Spark, Apache Tez, Apache Flink) proposant l’ensemble des outils (gestion des clusters, programmes de traitement et interrogation) pour tous les types de traitement, ce qui simplifie grandement la mise en œuvre, l’usage et la maintenance.
  • Enfin, de plus en plus d’organisations construisent leur Data lake et plateforme de Big Data directement dans le Cloud, les grands fournisseurs de Cloud Public proposant des outils puissants et certains acteurs spécialisés (comme Databricks) proposant des outils spécifiques opérant au sein des plateformes de Cloud Public.

Les outils de l'analytique

  • Les outils d’analytique sont maintenant disponibles dans le Cloud et de plus en plus d’organisations choisissent de construire directement dans le Cloud Public leur plateforme d’analytique,
  • les solutions de Datawarehouse permettent de créer et gérer des entrepôts de données,
  • Les solutions de qualité des Données permettent d’automatiser le contrôle, l’analyse et la gestion de la qualité des données,
  • les plateformes de Data Integration permettent d’intégrer des données de sources hétérogènes et dispersées, 
  • les plateformes de Master Data Management permettent de gérer les modèles de données,
  • les plateformes d’archivage permettent de stocker à moindre coût les données à faible fréquence d’utilisation,
  • les plateformes de Data Governance facilitent la gouvernance des données,
  • les outils de Business Intelligence et les outils décisionnels permettent d’analyser les données pour la prise de décision,
  • les outils de visualisation des données permettent de construire et distribuer des graphiques et tableaux de bord.
  • Les outils d’analytique sont maintenant disponibles dans le Cloud et de plus en plus d’organisations choisissent de construire directement dans le Cloud Public leur plateforme d’analytique,
  • les solutions de Datawarehouse permettent de créer et gérer des entrepôts de données,
  • Les solutions de qualité des Données permettent d’automatiser le contrôle, l’analyse et la gestion de la qualité des données,
  • les plateformes de Data Integration permettent d’intégrer des données de sources hétérogènes et dispersées, 
  • les plateformes de Master Data Management permettent de gérer les modèles de données,
  • les plateformes d’archivage permettent de stocker à moindre coût les données à faible fréquence d’utilisation,
  • les plateformes de Data Governance facilitent la gouvernance des données,
  • les outils de Business Intelligence et les outils décisionnels permettent d’analyser les données pour la prise de décision,
  • les outils de visualisation des données permettent de construire et distribuer des graphiques et tableaux de bord.

L'environnement de travail des collaborateurs

  • Plusieurs outils constituent maintenant des standards minimaux :
    • la suite bureautique (qui regroupe email, agenda, calendrier, traitement de texte, tableur, outil de présentation telle que Office 365 ou G-Suite)
    • une plateforme de communication unifiée permettant la visio-conference, la messagerie instantanée, la communication voix sur IP à partir d’une unique application,
    • une plateforme de gestion collaborative du contenu permettant de partager des fichiers et travailler en équipes sur des documents partagés en gérant les droits d’accès, les modifications, les versions,
    • un outil de Single Sign-On (connection unique) permettant d’éviter de ressaisir les mots de passe lorsque l’utilisateur passe d’une application à une autre).
  • Mais pour créer un environnement de travail à même d’être attractif pour les jeunes Talents, plusieurs capacités additionnelles doivent être considérées :
    • permettre aux collaborateurs d’utiliser leur ordinateur personnel (« Bring Your Own Device »),
    • disposer d’un réseau social d’entreprise (permettant d’échanger des messages, de partager du contenu, de gérer des groupes et des communautés,
    • disposer d’une application pour tous les processus administratifs et de gestion des Ressources Humaines assurant leur dématérialisation et automatisation,
    • disposer d’applications métiers modernes (ERP, CRM, PLM, MES, CPQ, …),
    • permettre l’accès à distance à ces applications, non seulement depuis un ordinateur mais depuis un mobile,
    • digitaliser les workflows pour permettre les validations électroniques et éviter les validations sur papier,
    • mettre à disposition des outils de traitement des données (analytique, décisionnel, Big Data) adaptés à la nature des tâches,
    • disposer d’une assistance utilisateur moderne et performante (self-help, chatbot, outil de prise de main à distance).
  • Le fait de disposer d’outils opérant dans le Cloud est un autre facteur important d’attractivité.
  • Plusieurs outils constituent maintenant des standards minimaux :
    • la suite bureautique (qui regroupe email, agenda, calendrier, traitement de texte, tableur, outil de présentation telle que Office 365 ou G-Suite)
    • une plateforme de communication unifiée permettant la visio-conference, la messagerie instantanée, la communication voix sur IP à partir d’une unique application,
    • une plateforme de gestion collaborative du contenu permettant de partager des fichiers et travailler en équipes sur des documents partagés en gérant les droits d’accès, les modifications, les versions,
    • un outil de Single Sign-On (connection unique) permettant d’éviter de ressaisir les mots de passe lorsque l’utilisateur passe d’une application à une autre).
  • Mais pour créer un environnement de travail à même d’être attractif pour les jeunes Talents, plusieurs capacités additionnelles doivent être considérées :
    • permettre aux collaborateurs d’utiliser leur ordinateur personnel (« Bring Your Own Device »),
    • disposer d’un réseau social d’entreprise (permettant d’échanger des messages, de partager du contenu, de gérer des groupes et des communautés,
    • disposer d’une application pour tous les processus administratifs et de gestion des Ressources Humaines assurant leur dématérialisation et automatisation,
    • disposer d’applications métiers modernes (ERP, CRM, PLM, MES, CPQ, …),
    • permettre l’accès à distance à ces applications, non seulement depuis un ordinateur mais depuis un mobile,
    • digitaliser les workflows pour permettre les validations électroniques et éviter les validations sur papier,
    • mettre à disposition des outils de traitement des données (analytique, décisionnel, Big Data) adaptés à la nature des tâches,
    • disposer d’une assistance utilisateur moderne et performante (self-help, chatbot, outil de prise de main à distance).
  • Le fait de disposer d’outils opérant dans le Cloud est un autre facteur important d’attractivité.

La servicisation du Système d'Information

  • Après l’architecture orientée service, la mode est à l’architecture microservices qui consiste à décomposer toute application en une myriade de composants de base, les microservices, qui peuvent être utilisés par plusieurs applications indépendamment de leurs langages de programmation grâce à des API (interface de programmation d’application).
  • Chaque microservice est une unité autonome de traitement disponible grâce à un appel à distance.
  • Les microservices permettent une meilleure évolutivité, fiabilité et sécurité des applications et une plus grande productivité des équipes de développement.
  • L’architecture microservices est particulièrement adaptée au Cloud Public et permet de pleinement mettre à profit le grand nombre de services à valeur ajoutée (Machine Learning, Big Data, …) accessibles via API que proposent les grands fournisseurs de Cloud.
  • L’architecture microservices permet également de conjurer la loi de Conway (qui veut que les applications  tendent inévitablement à refléter les structures de l’organisation qui les produit, rendant ensuite l’évolution de celles-ci difficile) et assure la totale indépendance entre l’évolutivité applicative et l’évolutivité de l’organisation.
  • L’architecture microservices facilite aussi la collaboration entre sociétés et la création d’écosystèmes par le partage de microservices.
  • Enfin, l’architecture microservices réduit la dépendance aux fournisseurs d’applications.
  • Il existe des outils pour faciliter la mise en oeuvre d’une architecture microservices comme les plateformes de gestion des API.
  • Après l’architecture orientée service, la mode est à l’architecture microservices qui consiste à décomposer toute application en une myriade de composants de base, les microservices, qui peuvent être utilisés par plusieurs applications indépendamment de leurs langages de programmation grâce à des API (interface de programmation d’application).
  • Chaque microservice est une unité autonome de traitement disponible grâce à un appel à distance.
  • Les microservices permettent une meilleure évolutivité, fiabilité et sécurité des applications et une plus grande productivité des équipes de développement.
  • L’architecture microservices est particulièrement adaptée au Cloud Public et permet de pleinement mettre à profit le grand nombre de services à valeur ajoutée (Machine Learning, Big Data, …) accessibles via API que proposent les grands fournisseurs de Cloud.
  • L’architecture microservices permet également de conjurer la loi de Conway (qui veut que les applications  tendent inévitablement à refléter les structures de l’organisation qui les produit, rendant ensuite l’évolution de celles-ci difficile) et assure la totale indépendance entre l’évolutivité applicative et l’évolutivité de l’organisation.
  • L’architecture microservices facilite aussi la collaboration entre sociétés et la création d’écosystèmes par le partage de microservices.
  • Enfin, l’architecture microservices réduit la dépendance aux fournisseurs d’applications.
  • Il existe des outils pour faciliter la mise en oeuvre d’une architecture microservices comme les plateformes de gestion des API.

La cybersécurité

  • La norme ISO 27001 définie la sécurité des systèmes d’information comme assurant :
    • la confidentialité des données (elles ne sont pas divulguées à des personnes ou organisations non autorisées),
    • l’intégrité des données (c’est à dire leur exactitude et complétude),
    • la disponibilité des systèmes (utilisable à la demande par les personnes et organisations autorisées au moment où elles le souhaitent et selon leurs besoins).
  • La norme ISO 27001 propose une approche structurée pour assurer la sécurité des systèmes d’informations consistant à comprendre les risques (événement redouté, facteurs pouvant provoquer l’évènement, conséquences prévisibles de l’événement, probabilité d’occurrence de l’événement) puis à définir les mesures à mettre en œuvre pour gérer les risques identifiés.
  • Des sources externes (ANSSI, OWASP, OSSF, NIST,  …) proposent des analyses de risques, des méthodologies et des bonnes pratiques de cybersécurité.
  • Le modèle COBIT (Control Objectives for Information and Related Technologies) propose aussi des méthodes de gestion et de gouvernance de la cybersécurité, et définie le rôle de RSSI (Responsable de la Sécurité des Systèmes d’Information).
  • Un grand nombre d’outils de cybersécurité existent comme les outils d’anti-malware et antivirus,  les outils de SIEM (Security information and Event Management).
  • Le Secure By Design (SBD) est une approche permettant d’intégrer la cybersécurité dès la conception et le développement de toute application.
  • Les comportements des collaborateurs étant la première source de vulnérabilité de la sécurité des systèmes d’information, leur formation à la cybersécurité et leur sensibilisation périodique sont donc fondamentales. Des outils de simulation de cyber attaques sont particulièrement efficaces pour  sensibiliser les collaborateurs.
  • Enfin, il est indispensable de s’assurer que les fournisseurs et partenaires ont mis en œuvre les moyens d’assurer un niveau adéquat de sécurité.
  • La norme ISO 27001 définie la sécurité des systèmes d’information comme assurant :
    • la confidentialité des données (elles ne sont pas divulguées à des personnes ou organisations non autorisées),
    • l’intégrité des données (c’est à dire leur exactitude et complétude),
    • la disponibilité des systèmes (utilisable à la demande par les personnes et organisations autorisées au moment où elles le souhaitent et selon leurs besoins).
  • La norme ISO 27001 propose une approche structurée pour assurer la sécurité des systèmes d’informations consistant à comprendre les risques (événement redouté, facteurs pouvant provoquer l’évènement, conséquences prévisibles de l’événement, probabilité d’occurrence de l’événement) puis à définir les mesures à mettre en œuvre pour gérer les risques identifiés.
  • Des sources externes (ANSSI, OWASP, OSSF, NIST,  …) proposent des analyses de risques, des méthodologies et des bonnes pratiques de cybersécurité.
  • Le modèle COBIT (Control Objectives for Information and Related Technologies) propose aussi des méthodes de gestion et de gouvernance de la cybersécurité, et définie le rôle de RSSI (Responsable de la Sécurité des Systèmes d’Information).
  • Un grand nombre d’outils de cybersécurité existent comme les outils d’anti-malware et antivirus,  les outils de SIEM (Security information and Event Management).
  • Le Secure By Design (SBD) est une approche permettant d’intégrer la cybersécurité dès la conception et le développement de toute application.
  • Les comportements des collaborateurs étant la première source de vulnérabilité de la sécurité des systèmes d’information, leur formation à la cybersécurité et leur sensibilisation périodique sont donc fondamentales. Des outils de simulation de cyber attaques sont particulièrement efficaces pour  sensibiliser les collaborateurs.
  • Enfin, il est indispensable de s’assurer que les fournisseurs et partenaires ont mis en œuvre les moyens d’assurer un niveau adéquat de sécurité.

Les partenariats technologiques et la création d'écosystèmes

  • La transformation digitale nécessite la remise en question du portefeuille de  fournisseurs technologiques, tous les fournisseurs technologiques historiques n’ayant pas la même capacité d’accompagner la digitalisation, en particulier les éditeurs de logiciels.
  • La conclusion d’accords de partenariat (c’est à dire co-investissement, équipe projet intégrée et partage des résultats) avec des acteurs du digital peut aussi être un levier important. Par exemple :
    • en 2008, Renault a annoncé un partenariat avec TomTom pour construire une solution de navigation, puis en 2018 un accord avec Google pour équiper ses véhicules de logiciels opérants sur Android,

    • en 2008, Publicis a conclu un partenariat avec Google pour développer VivaKi, un ensemble de services et technologies pour le Marketing Digital,

    • en 2014, La Poste a conclu un partenariat avec la start-up Openways pour commercialiser Postaccess, une solution de serrures connectées.

  • La création d’un écosystème consiste à constituer une communauté d’acteurs aux activités complémentaires pour répondre collectivement à un besoin Clients, souvent à partir de standards technologiques partagés. Par exemple :
    • en 2017, Suez, Sagemcom et GRDF ont fondé l’Alliance WIZE qui regroupe maintenant une quarantaine de sociétés et vise au développement des technologies de télécommunication pour les compteurs intelligents,
    • Schneider Electric, Somfy et Danfoss ont créé le « Connectivity ecosystem » pour développer des technologies ouvertes pour les bâtiments connectés.
  • Enfin, certaines entreprises ont mis en place des incubateurs (qui proposent aux porteurs de projets internes comme aux start-up externes une multitude de services pour faciliter leur développement) ou des accélérateurs (incubateurs + fonds d’investissement) comme Crédit Agricole (Village by CA), LVMH (La Maison des start-up), Orange (Orange Fab), Axa (Kamet Ventures), Vinci (l’Accélérateur Vinci Autoroutes).
  • La transformation digitale nécessite la remise en question du portefeuille de  fournisseurs technologiques, tous les fournisseurs technologiques historiques n’ayant pas la même capacité d’accompagner la digitalisation, en particulier les éditeurs de logiciels.
  • La conclusion d’accords de partenariat (c’est à dire co-investissement, équipe projet intégrée et partage des résultats) avec des acteurs du digital peut aussi être un levier important. Par exemple :
    • en 2008, Renault a annoncé un partenariat avec TomTom pour construire une solution de navigation, puis en 2018 un accord avec Google pour équiper ses véhicules de logiciels opérants sur Android,

    • en 2008, Publicis a conclu un partenariat avec Google pour développer VivaKi, un ensemble de services et technologies pour le Marketing Digital,

    • en 2014, La Poste a conclu un partenariat avec la start-up Openways pour commercialiser Postaccess, une solution de serrures connectées.

  • La création d’un écosystème consiste à constituer une communauté d’acteurs aux activités complémentaires pour répondre collectivement à un besoin Clients, souvent à partir de standards technologiques partagés. Par exemple :
    • en 2017, Suez, Sagemcom et GRDF ont fondé l’Alliance WIZE qui regroupe maintenant une quarantaine de sociétés et vise au développement des technologies de télécommunication pour les compteurs intelligents,
    • Schneider Electric, Somfy et Danfoss ont créé le « Connectivity ecosystem » pour développer des technologies ouvertes pour les bâtiments connectés.
  • Enfin, certaines entreprises ont mis en place des incubateurs (qui proposent aux porteurs de projets internes comme aux start-up externes une multitude de services pour faciliter leur développement) ou des accélérateurs (incubateurs + fonds d’investissement) comme Crédit Agricole (Village by CA), LVMH (La Maison des start-up), Orange (Orange Fab), Axa (Kamet Ventures), Vinci (l’Accélérateur Vinci Autoroutes).

La gouvernance technologique

  • La gouvernance technologique peut se définir par les modalités de prise de décision et de contrôle visant à assurer que :
    • les investissements et les choix technologiques sont optimaux par rapport à la stratégie de l’organisation et aux besoins des métiers,
    • les moyens technologiques sont allouées, gérés et consommés de façon à en optimiser la valeur Business,
    • les Systèmes d’Informations sont en conformité avec les politiques définies par l’organisation et les lois en vigueur.
  • La norme ISO 38500 propose un modèle de gouvernance des Systèmes d’Information et d’autres modèles et bonnes pratiques sont publiquement disponibles (COBIT, ITIL, CIGREF, CEGSI, IGSI, …).
  • Diverses bonnes pratiques ont pu être mises en avant:
    • la gouvernance technologique associe largement les métiers et la Direction Générale,
    • le Digital est une dimension de la stratégie de l’entreprise, notamment pour ce qui concerne la valorisation des données, la réinvention des Business Models, l’expérience client, la digitalisation des produits et services,
    • la stratégie digitale (notamment les paliers d’évolution, les ressources et les investissements nécessaires) est pleinement intégrée à la stratégie de l’entreprise,
    • l’évolution et la performance des Systèmes d’Information sont régulièrement suivis au moyen d’indicateurs (délais, coûts, respect des SLA, satisfaction des utilisateurs, …)
  • La gouvernance technologique peut se définir par les modalités de prise de décision et de contrôle visant à assurer que :
    • les investissements et les choix technologiques sont optimaux par rapport à la stratégie de l’organisation et aux besoins des métiers,
    • les moyens technologiques sont allouées, gérés et consommés de façon à en optimiser la valeur Business,
    • les Systèmes d’Informations sont en conformité avec les politiques définies par l’organisation et les lois en vigueur.
  • La norme ISO 38500 propose un modèle de gouvernance des Systèmes d’Information et d’autres modèles et bonnes pratiques sont publiquement disponibles (COBIT, ITIL, CIGREF, CEGSI, IGSI, …).
  • Diverses bonnes pratiques ont pu être mises en avant:
    • la gouvernance technologique associe largement les métiers et la Direction Générale,
    • le Digital est une dimension de la stratégie de l’entreprise, notamment pour ce qui concerne la valorisation des données, la réinvention des Business Models, l’expérience client, la digitalisation des produits et services,
    • la stratégie digitale (notamment les paliers d’évolution, les ressources et les investissements nécessaires) est pleinement intégrée à la stratégie de l’entreprise,
    • l’évolution et la performance des Systèmes d’Information sont régulièrement suivis au moyen d’indicateurs (délais, coûts, respect des SLA, satisfaction des utilisateurs, …)

Les nouvelles méthodologies de l'IT

Au-delà du Cloud, l’informatique a connu une révolution de ses modes de travail, avec principalement :

  • le DevOps qui est un ensemble de pratiques outillées rapprochant les équipes de développement logiciel (Dev) et les équipes d’exploitation informatiques (Ops) qui travaillaient jusque-là en silo, pour permettre des cycles de développement applicatif beaucoup plus courts avec des livraisons en continue, avec pour bénéfice une meilleure qualité et rapidité d’évolution, pour des coûts plus faibles.
  • l’Agile qui est un ensemble de méthodes de développement applicatif par petites équipes pluridisciplinaires associant étroitement les développeurs et les métiers et procédant par itérations rapides.
  • le Design Thinking qui, s’inspirant des techniques du Design, est une approche de gestion de l’innovation procédant par itérations de prototypage et de tests auprès des utilisateurs, 
  • le Lean IT qui est l’application à la DSI des techniques Lean d’amélioration continue développées dans l’industrie et consistant à privilégier le travail en équipe et les interactions directes entre individus plutôt que les processus formels, à mettre le client final au cœur des pratiques, à reconsidérer en permanence la pertinence des pratiques établies, à traquer les irrégularités de charge et ce qui n’apporte pas de valeur au client, à mesurer en permanence les résultats, …  

Au-delà du Cloud, l’informatique a connu une révolution de ses modes de travail, avec principalement :

  • le DevOps qui est un ensemble de pratiques outillées rapprochant les équipes de développement logiciel (Dev) et les équipes d’exploitation informatiques (Ops) qui travaillaient jusque-là en silo, pour permettre des cycles de développement applicatif beaucoup plus courts avec des livraisons en continue, avec pour bénéfice une meilleure qualité et rapidité d’évolution, pour des coûts plus faibles.
  • l’Agile qui est un ensemble de méthodes de développement applicatif par petites équipes pluridisciplinaires associant étroitement les développeurs et les métiers et procédant par itérations rapides.
  • le Design Thinking qui, s’inspirant des techniques du Design, est une approche de gestion de l’innovation procédant par itérations de prototypage et de tests auprès des utilisateurs, 
  • le Lean IT qui est l’application à la DSI des techniques Lean d’amélioration continue développées dans l’industrie et consistant à privilégier le travail en équipe et les interactions directes entre individus plutôt que les processus formels, à mettre le client final au cœur des pratiques, à reconsidérer en permanence la pertinence des pratiques établies, à traquer les irrégularités de charge et ce qui n’apporte pas de valeur au client, à mesurer en permanence les résultats, …  

La dimension environnementale de l'IT

  • Au niveau mondial, le Digital représenterait 4% des émissions de gaz à effet de serre (soit davantage que les émissions issues du traitement des déchets) avec une croissance annuelle de 9%.
  • L’empreinte carbone des moyens informatiques peut être optimisée par :
    • le choix des matériels et la politique de renouvellement et de recyclage,
    • la promotion des usages responsables (impression, archivage de documents, mise hors tension des équipements, …) 
    • le choix des fournisseurs de technologies qui ont des performances et des ambition en la matière assez hétérogènes:
      • Google a annoncé avoir atteint la neutralité carbone en 2007 et s’est engagé à utiliser 100% d’électricité d’origine renouvelable en 2030
      • Microsoft vise une empreinte carbone négative en 2030 et à effacer l’intégralité du CO2 qu’il a émis depuis sa création d’ici à 2050
      • Apple s’est donné une décennie pour atteindre la neutralité carbone pour lui même et l’ensemble de ses fournisseurs de composants.
      • Facebook vise la neutralité carbone en 2030, Amazon pour 2040
  • Ainsi par exemple, EDF a lancé le programme e.quilibre IT pour sensibiliser ses collaborateurs à l’utilisation sobre des moyens informatiques.
  • Au niveau mondial, le Digital représenterait 4% des émissions de gaz à effet de serre (soit davantage que les émissions issues du traitement des déchets) avec une croissance annuelle de 9%.
  • L’empreinte carbone des moyens informatiques peut être optimisée par :
    • le choix des matériels et la politique de renouvellement et de recyclage,
    • la promotion des usages responsables (impression, archivage de documents, mise hors tension des équipements, …) 
    • le choix des fournisseurs de technologies qui ont des performances et des ambition en la matière assez hétérogènes:
      • Google a annoncé avoir atteint la neutralité carbone en 2007 et s’est engagé à utiliser 100% d’électricité d’origine renouvelable en 2030
      • Microsoft vise une empreinte carbone négative en 2030 et à effacer l’intégralité du CO2 qu’il a émis depuis sa création d’ici à 2050
      • Apple s’est donné une décennie pour atteindre la neutralité carbone pour lui même et l’ensemble de ses fournisseurs de composants.
      • Facebook vise la neutralité carbone en 2030, Amazon pour 2040
  • Ainsi par exemple, EDF a lancé le programme e.quilibre IT pour sensibiliser ses collaborateurs à l’utilisation sobre des moyens informatiques.

Le rôle de la Direction des Systèmes d'Information

  • Le rôle historique de la DSI est triple :
    • élaborer une stratégie technologique à partir de la stratégie de l’organisation,
    • construire un système d’information qui réponde aux besoins des métiers, aux exigences réglementaires, de sécurité, de performance et d’évolutivité,
    • opérer le Système d’Information en assurant la compétitivité de ses coûts, sa performance, sa sécurité, sa fiabilité, sa disponibilité.
  • Les DSI ont parfois été perçues comme résistantes à l’adoption des technologies digitales et en tout cas insuffisamment capables d’aider les métiers à se réinventer à partir des nouvelles technologies car trop longtemps habituées à simplement répondre à leurs demandes et ayant beaucoup externalisé les compétences technologiques.
  • Les métiers ont ainsi été amenés à contractualiser directement avec les fournisseurs de ces technologies, donnant naissance au fameux « Shadow IT »  (l’informatique de l’ombre) et au modèle de l’informatique à 2 vitesses (le front-office innovant versus un back-office industrialisé) qui a eu tendance à reléguer la DSI à la gestion du « Legacy » (les vieilles technologies), souvent sous la supervision du Directeur Financier.
  • Ce modèle a pu être générateur de vélocité mais aussi de surcoûts, de fragmentation du SI, de sous-performance et de manque de sécurité. Et la faible évolutivité du back-office a rapidement limité les innovations du front-office. 
  • Pour répondre à cette problématique, bien des entreprises ont :
    • nommé, souvent au Comité Exécutif et venant de l’extérieur, un CDO (Chief Digital Officer) ayant des compétences avant tout métier, pour travailler avec les métiers, à leur digitalisation,
    • réinternalisé les compétences technologiques qui étaient externalisées chez des prestataires de services.
  • Un certain consensus semble aujourd’hui se dégager pour dire que la nomination d’un CDO est la meilleure façon d’accélérer la Transformation Digitale mais qu’une fois la Transformation  largement avancée, la réintégration de ce rôle au sein de la DSI est la meilleure façon d’assurer la pérennité de la réinvention par le Digital.
  • L’organisme d’analyse IDC prévoit qu’à terme les grandes entreprises européennes regrouperont au sein de leur DSI les rôles de CDO, CTO, Responsable innovation et Directeur des Systèmes d’Information (https://www.idc.com/getdoc.jsp?containerId=EUR146653620).
  • Le rôle historique de la DSI est triple :
    • élaborer une stratégie technologique à partir de la stratégie de l’organisation,
    • construire un système d’information qui réponde aux besoins des métiers, aux exigences réglementaires, de sécurité, de performance et d’évolutivité,
    • opérer le Système d’Information en assurant la compétitivité de ses coûts, sa performance, sa sécurité, sa fiabilité, sa disponibilité.
  • Les DSI ont parfois été perçues comme résistantes à l’adoption des technologies digitales et en tout cas insuffisamment capables d’aider les métiers à se réinventer à partir des nouvelles technologies car trop longtemps habituées à simplement répondre à leurs demandes et ayant beaucoup externalisé les compétences technologiques.
  • Les métiers ont ainsi été amenés à contractualiser directement avec les fournisseurs de ces technologies, donnant naissance au fameux « Shadow IT »  (l’informatique de l’ombre) et au modèle de l’informatique à 2 vitesses (le front-office innovant versus un back-office industrialisé) qui a eu tendance à reléguer la DSI à la gestion du « Legacy » (les vieilles technologies), souvent sous la supervision du Directeur Financier.
  • Ce modèle a pu être générateur de vélocité mais aussi de surcoûts, de fragmentation du SI, de sous-performance et de manque de sécurité. Et la faible évolutivité du back-office a rapidement limité les innovations du front-office. 
  • Pour répondre à cette problématique, bien des entreprises ont :
    • nommé, souvent au Comité Exécutif et venant de l’extérieur, un CDO (Chief Digital Officer) ayant des compétences avant tout métier, pour travailler avec les métiers, à leur digitalisation,
    • réinternalisé les compétences technologiques qui étaient externalisées chez des prestataires de services.
  • Un certain consensus semble aujourd’hui se dégager pour dire que la nomination d’un CDO est la meilleure façon d’accélérer la Transformation Digitale mais qu’une fois la Transformation  largement avancée, la réintégration de ce rôle au sein de la DSI est la meilleure façon d’assurer la pérennité de la réinvention par le Digital.
  • L’organisme d’analyse IDC prévoit qu’à terme les grandes entreprises européennes regrouperont au sein de leur DSI les rôles de CDO, CTO, Responsable innovation et Directeur des Systèmes d’Information (https://www.idc.com/getdoc.jsp?containerId=EUR146653620).

Nos offres connexes

Nos offres connexes :

Transformation
de la DSI

Faites de votre équipe IT le moteur de votre Transformation digitale

En Savoir Plus

Management 4.0

Assurez l'obsession client, l'efficacité et l'alignement avec la génération Z de vos managers

En Savoir Plus

Collaborateur augmenté

Mettez en œuvre les nouveaux modes de travail et les nouvelles technologies pour décupler l'engagement et la productivité de vos collaborateurs

En Savoir Plus