Comprendre les données, et comment les utiliser. Aligner la stratégie et l’accompagnement des métiers.
Comprendre les données, et comment les utiliser. Aligner la stratégie et l’accompagnement des métiers.
Construire une feuille de route de l’acculturation à la donnée autour d’exercices pratiques
Expliquer l’organisation, les métiers, et rendre concrets des sujets tels que la gouvernance ou la qualité
Collecter auprès des utilisateurs leurs forces et leurs craintes pour mieux les accompagner
A la fin de la formation, les participants seront capables d’expliquer en une minute les enjeux de la culture data pour eux et pour leur entreprise
Séminaire réalisé uniquement en présentiel, et en intra-entreprise, afin de le personnaliser par rapport aux particularités de chacun
Durée : 1 journée + ateliers éventuels
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
EXPLIQUER LES ENJEUX DE LA DONNÉE : LA “DATA LITERACY”
Qu’est-ce qu’une donnée, une information, une méta donnée ? Quels types de données existent ? Découvrir des données que l’on n’imaginait pas, et leur valeur pour l’entreprise. Évaluer la maturité donnée de mon entreprise.
Autoévaluation : ce que je comprends des données et de leurs enjeux.
Le rôle de la gouvernance dans l’acculturation à la donnée.
Comment présenter l’organisation data de l’entreprise, et ses rôles, CDO, Data Steward, Data Scientist.
La donnée, un enjeu personnel et professionnel : les données personnelles et comment elles sont protégées.
Les enjeux de la donnée pour la Société et pour l’environnement : comment sensibiliser à une gestion responsable des actifs informationnels.
Atelier en équipe : Prendre conscience des enjeux autour d’exemples de données réelles
ACCÉDER, ÉVALUER, TRANSFORMER ET UTILISER LA DONNÉE
Le cycle de vie de la donnée
Evaluer l’utilité d’une donnée par rapport à un besoin
Dialoguer avec le producteur de la donnée pour comprendre les attentes et les contraintes de chacun
Découvrir des outils simples mais sécurisés pour adapter les données : il y a beaucoup mieux que Excel !
Les miracles et les limites de l’intelligence artificielle : savoir l’utiliser et s’en méfier
LA QUALITÉ DE LA DONNÉE, UN SUJET CENTRAL POUR TOUS, PRODUCTEURS ET UTILISATEURS DE DONNÉES
Expliquons pourquoi la qualité d’une donnée dépend de son usage.
Mesurer, détecter et corriger les données de qualité insuffisante : motiver tout le monde pour atteindre cet objectif.
Faire adhérer les utilisateurs au programme d’amélioration de la qualité des données : atelier en équipe autour de données réelles dont chaque groupe doit comprendre les origines de la non-qualité.
SÉCURITÉ ET CONFORMITÉ : DEUX SUJETS UN PEU RÉBARBATIFS, MAIS Ô COMBIEN IMPORTANTS !
La data est un actif : il est convoité, et peut s’envoler rapidement. Sa protection quotidienne est l’affaire de tous !
Etre conforme c’est respecter l’ensemble des lois (RGPD), règles, et décisions éthiques : chacun doit en prendre conscience.
Quizz conformité et sécurité, pour sensibiliser à des situations quotidiennes où la donnée est en danger.
PASSER DE L’EXPLICATION À LA MISE EN PRATIQUE QUOTIDIENNE
Construire un parcours d’ateliers de sensibilisation auprès des métiers : prioriser les actions, mesurer les objectifs, construire son tableau de bord d’amélioration continue (définir ses KPI d’acculturation à la data)..
Impliquer les autres acteurs de l’entreprise : DPO, RSSI, DRH, Communication…
Aligner les sujets : architecture informatique, gouvernance, sécurité et conformité, par rapport à la stratégie de la direction générale.
Autoévaluation : évaluer la compréhension des enjeux et identifier les futurs points de blocage des participants
Pitch : en une minute, la culture des données pour vous, c’est quoi ?
Catalogue, qualité et conformité : structurer et mettre en place une gouvernance orientée métiers
Catalogue, qualité et conformité : structurer et mettre en place une gouvernance orientée métiers
Aligner la gouvernance des données et des informations, avec les autres formes de gouvernance (SI, d’entreprise, de sécurité…). Définir les équipes, fonctions et processus de travail. Combiner gouvernance du SI et gouvernance des données;
Cartographier les données métiers, mettre en place un catalogue partagé des actifs informationnels.
Améliorer en continu la qualité des données, pour l’adapter aux usages. Mettre en place une gestion des données de référence (MDM);
S’assurer de la conformité des données de toute l’organisation aux règles externes (RGPD, Data Act…), et internes (éthique).
Séminaire également proposé via le catalogue Capgemini Institut
Durée : 3 jours
Formateur : Philippe Nieuwbourg
1ère partie : enjeux et perspectives : aligner les gouvernances
Les enjeux de la gouvernance au service de l’économie des données
Le monde de la donnée, des infocentres au big data
Typologie des données, structurées et non-structurées
Passer du coût de la donnée, à la valeur de la donnée
Particularités des données destinées à l'entraînement des modèles d’intelligence artificielle
Gouvernance des données, gouvernance des informations
Les « régimes » de gouvernance d’entreprise : centralisation, fédéralisme…, comment choisir ?
Aligner les démarches de « gouvernance du système d’information » et de « gouvernance des données »
Approches académiques et théoriques existantes de la gouvernance des SI (TOGAF, COBIT, ITIL, DMBOK..)
Transférer la gouvernance des données aux métiers : pourquoi et comment
La future norme ISO 24143
2ème partie : Mise en place des équipes, et architectures
Équipes, personnes, rôles et fonctions de la gouvernance, de la qualité et de la conformité des données
Les métiers de la gouvernance des données : Chief Data Officer (CDO), data steward, data owner, data product manager, data custodian, data compliance manager, DPO…
Comité de gouvernance des données : organisation et composition, mode de fonctionnement, la charte de gouvernance des données
Les architectures de données et leurs liens avec le choix d’un régime de gouvernance
Concept de gravité des données vs gravité des applications : architecture applicative ou architecture de données ?
Architecture centralisée : construire une plateforme de données autour du data warehouse et du data lake
Architecture fédéralisée : passer du data warehouse au data mesh
Impact des choix d’architecture sur la disponibilité et le partage de l’information
La place du cloud computing dans les architectures de données
Contraintes liées au transfert des données depuis/vers le cloud
Impact du développement du low-code / no-code sur la répartition des rôles
Conduire le projet « Gouvernance des données »
Définir le périmètre global, identifier les priorités, planifier et démarrer les ateliers de gouvernance
Mettre en place les indicateurs et le tableau de bord
3ème partie : Catalogue de données
Créer un dictionnaire-référentiel des données orienté métiers
Cartographier données, personnes et processus
Modéliser les données au travers des processus métiers (du Domain Driven Design au Data Mesh)
Élaborer à partir d’un modèle sa fiche de référentiel et animer les ateliers de cartographie
Étude de cas : comparaison des fiches réalisées par plusieurs entreprises
Encadrer les relations producteurs - consommateurs de données avec des contrats de données (Data Contracts)
Valorisation des données - Mettre en place des métriques de valorisation
Normes IAS vs normes françaises : travaux en cours
Data as a Product : comment les métiers doivent percevoir leurs données
Comment référencer les données ouvertes (Open Data)
Solutions tactiques pour obtenir un premier retour sur investissement
Une base de données graph pour formaliser son catalogue de données
Utiliser l’Intelligence Artificielle Générative pour accélérer certaines étapes
Panorama comparatif des principaux outils du marché : Collibra, Alation, Castor, Data Galaxy, Atlan, Magda, Microsoft PureView…
4ème partie : Démarche qualité, critères et indicateurs
Impact de la qualité des données sur les performances
Construisez le tableau de bord de la santé de vos données - L’observabilité des données
Les 15 indicateurs principaux de mesure de la qualité
Lien entre qualité des données et gouvernance : le rôle du data steward
Le projet « qualité des données » en 10 étapes
Quelles tâches liées à la qualité des données peuvent être automatisées - le rôle de l’Intelligence Artificielle
Panorama et comparatif des principaux outils de gestion de la qualité des données
5ème partie : Master Data Management (MDM)
Enjeux et ROI d’un projet MDM
Définition, sélection et synchronisation des données maîtres
Le MDM, principal outil d’obtention d’un ROI rapide de la gouvernance des données
Comparaison des architectures MDM : Consolidée unique, consolidée avec références multiples, décentralisée, virtualisée
Combiner MDM et Product Information Management (PIM)
MDM et catalogue de données – quelles différences ?
Panorama et comparatif des principaux outils de gestion des données de référence
6ème partie : Conformité
Conformités
Impliquer le DPO dans la gouvernance des données
Les conformités sectorielles : banques, assurances, secteur public, données de santé…
Conformité et sécurité informatique : réduire les risques pesant sur les données
Disponibilité et résilience : aligner PCA (Plan de Continuité d’Activité) et gouvernance des données
Le rôle de la gouvernance dans la recherche de sobriété numérique
Les législations européennes et américaines, en cours et à venir : Data Governance Act, Data Act, CSRD…
Panorama et comparatif des principaux outils de suivi de la conformité des données
Conclusion et synthèse
Améliorer l’alphabétisation à la donnée de l’ensemble de l’entreprise
Erreurs à éviter, meilleures pratiques : partage d’expériences entre les participants
Un guide pratique de prise de fonction, d’organisation du travail, et de fixation des objectifs.
Un guide pratique de prise de fonction, d’organisation du travail, et de fixation des objectifs.
Acquérir la boîte à outils nécessaire pour prendre ses nouvelles fonctions
Comprendre le métier de data steward et sa place dans l’organisation de la gouvernance des données : ses compétences, ses savoir-faire
Décrire les rôles et responsabilités attribuées au data steward, et établir sa fiche de poste; les outils du data steward
Etablir son plan de travail, le tableau de bord de son activité, et évaluer l’atteinte des objectifs
Séminaire également proposé via le catalogue Capgemini Institut
Durée : 1 jour (formation réservée aux participants ayant déjà suivi une formation générale sur la gouvernance des données orientée métiers)
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
Le Data Steward, cheville ouvrière de la gouvernance des informations
Rappel des grands principes de la gouvernance des données (Connaissance, Qualité et Conformité), et du rôle du data steward dans leur application
Définition et contours du métier de data steward : ses objectifs, ses méthodes
Intégration du data steward au sein de l’équipe data : comité de gouvernance, relations avec le data office et son Chief Data Officer, relations avec les équipes informatiques, relations avec les équipes métiers
Différence entre data steward, data owner, data quality manager, data analyst, data architect…
Les principaux types de data steward : Métiers, Techniques, Projets, Opérationnels
Les rôles et responsabilités du data steward
Position du data steward dans l’organigramme : options possibles, conséquences organisationnelles et politiques
Fiche de poste, compétences métiers et techniques nécessaires, qualités requises : analyses de fiches de postes de data steward dans différentes industries
Communiquer en interne et recueillir l’adhésion de tous
Formation du data steward : comment le devenir, comment se maintenir à jour
Comment commencer comme data steward : premières étapes
Auditer l’existant : données, métadonnées, processus, outils…
Description des tâches à réaliser, priorisation et plan de marche : le “projet” du data steward
Définition de l’ontologie de l’entreprise : liens avec les schémas directeurs organisationnels
Documentation de chacune des étapes : les livrables
Définir et limiter son domaine d’action : mettre en place des indicateurs de performance propres
Structurer les relations avec les parties prenantes : data office, DPO, responsables métiers
Mettre en place un système de suivi des tâches (ticketing)
Plan de communication interne
La journée type du data steward : organiser ses tâches
Les domaines d’intervention du data steward
Le rôle du data steward dans :
la diffusion de la culture data dans l’entreprise
la définition des architectures data
l’amélioration de la qualité des données : Plan d’action en 10 étapes et livrables
l’amélioration de la qualité des métadonnées
la création et la mise à jour des données de référence
la conformité réglementaire (RGPD et autres)
la sécurité des données et des systèmes
Gouverner vos données par domaine métier (Domain Driven Design) : le rôle du data steward dans une architecture Data Mesh
Le rôle du data steward dans la valorisation et la monétisation des données
Exemples d’interventions de data stewards dans différentes industries
Les outils du data steward
L’ontologie et le glossaire métier
Son implication dans la mise en place du catalogue de données
Son implication dans la mise en place d’une gestion des données de référence (MDM)
Son implication dans le contrôle de la conformité et ses relations avec le DPO
Mise en place de Data Contracts et de Data Products
Mettre en place un portail dédié aux actions du data steward
Communiquer au travers d’un Wiki dédié
Mesurer les performances du data steward
Ses indicateurs clefs de performance, ses indicateurs opérationnels
Son tableau de bord
Mesurer la maturité de votre programme de gouvernance : le Data Stewardship Maturity Model (DSMM) et ses 5 niveaux
Perspectives d’évolution
Gouvernance de l’IA
Encadrez le déploiement de l’IA en respectant les lois et l’éthique, pour favoriser la création de valeur et mitiger les risques.
Gouvernance de l’IA
Encadrez le déploiement de l’IA en respectant les lois et l’éthique, pour favoriser la création de valeur et mitiger les risques.
Connaître les lois et règlements qui encadreront le développement de l’IA
Elaborer sa feuille de route de la gouvernance de l’IA
Identifier et tempérer les risques liés aux données, aux algorithmes et aux usages
Préparer un cadre d’audit, documenté et outillé
Séminaire également proposé via le catalogue Acadys
Durée : 2 jours
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
Les concepts clés et comment les connecter
Les différentes formes de gouvernance : gouvernance d’entreprise, gouvernance du système d’information, gouvernance des données…
L’intelligence artificielle et ses applications : IA générative, Apprentissage Machine, Apprentissage Profond…
Quels sont les liens existants entre gouvernance de l’IA et les autres formes de gouvernance
Identifier les risques
Cartographier les risques
Les risques liés aux données (erreurs, copyright, représentativité)
Les risques liés aux algorithmes
Les risques liés aux usages (Deepfake
Que sont les biais (cognitifs et algorithmiques), les hallucinations, les discriminations : comment les évaluer et mesurer leur impact
Les IA sous le prisme de la justice sociale
Les risques spécifiques à l’utilisation de l’IA pour créer du code informatique
Etudes de cas : lorsque le risque s’est transformé en crise de communication
Cadres règlementaires, normatifs et réflexions éthiques
Aperçu des régulations internationales et spécificités régionales : USA, Charte de Montréal, AI Act
Les règles sur les marchés de données : alimenter ses modèles d’IA
Comparatif des initiatives réglementaires européennes (AI Act) et américaines
La position de la France
Les autorités à connaitre : AI Board, AI Office et ses autorités nationales
La norme ISO 42001 : se préparer à son application
Etudes de cas : régulation vs innovation, comment préserver les deux approches
Elaboration d’une feuille de route de gouvernance de l’IA
Cartographie des systèmes et initiatives d’IA dans votre entreprise : classification par niveau de risque
Identification des acteurs clefs et de leurs rôles : CDO, Data Scientist, Data Governance Officer, Data Steward, Data Product Manager, Data Owner, Compliance Manager, DPO…
Le rôle des départements juridiques, audit, conformité
Comment intégrer ces compétences dans un comité de gouvernance de l’IA
Fusionner ou séparer gouvernance de l’IA et gouvernance de l’information
Formalisation de la politique de gouvernance des algorithmes : les 10 étapes de la mise en conformité
Alignement de la gouvernance de l’IA avec la gouvernance d’entreprise
Etudes de cas : présentation des stratégies déjà élaborées par certains groupes
Les données
Connecter la gouvernance de l’IA et le catalogue de données
Modéliser son catalogue des données d'entraînement en YAML
Cataloguer les algorithmes (en YAML) et les relier au catalogue des données
Mesurer la qualité des données et son impact sur l’exécution des modèles
Les données synthétiques sont-elles une solution ?
Etudes de cas en équipe : concevoir une ébauche de stratégie de gouvernance IA par rapport à un cas fictif
Echanges et discussions autour des stratégies élaborées en équipe
L’éthique
Les principes éthiques : justice, équité, transparence, non-discrimination, responsabilité sociale et environnementale, inclusion, solidarité, respect, prudence…
Ethique et international : comparer et adapter aux différences culturelles
IA verte et IA décarbonnée : est-ce réaliste ?
Mesurer l’éthique : cadre de référence
Risques et solutions pour respecter les principes éthiques dans les développements de l’IA
Les modèles d’IA : transparence, explicabilité et confiance
Benchmarker les modèles : méthodes et outils - Concept d’AI Observability
Documenter les modèles (données, limites, hypothèses, apprentissage…)
Modèles d’IA et cybersécurité : points de vigilance
Techniques pour mesurer et améliorer l’explicabilité et la transparence
Construire des “bacs à sable” pour tester sa conformité
Passer d’une validation initiale à une validation continue : méthodologie et livrables
Comment construire la confiance (tout en mesurant le risque) auprès des utilisateurs et des parties prenantes
Audit et responsabilisation
La confiance n’exclut pas le contrôle… quels outils pour mesurer le respect des normes : audit interne ou audit externe
Auditer ses systèmes d’IA : surveillance humaine, méthodes, cadre d’audit, outils et tableaux de bord
Se préparer aux futures certifications : modèle de conformité et évaluation
Etude de cas : simulation d’un audit sur un cas pratique
Conclusion et réflexions
Au-delà de l’IA, comment instaurer la gouvernance dans la prise de décision automatisée
L’impact de l’IA sur notre société : éducation, connaissance, alimentation en boucle des modèles
Demain des modèles d’IA dotés de conscience ? Quels impacts ?
IA et travail : comment impliquer les ressources humaines dans la gouvernance des impacts sur le travail et son organisation
Planifier, construire, outiller et mettre en place : le rôle prépondérant de l’architecte de données.
Planifier, construire, outiller et mettre en place : le rôle prépondérant de l’architecte de données.
Comprendre le métier d’architecte de données : ses liens avec le Data Office et avec l’équipe informatique, son rôle dans la mise en place d’une gouvernance, et dans le respect des conformités
Comparer les données, les traitements, les modèles et les architectures de données : de l’entrepôt de données à la modern data stack
Détailler chaque schéma d’architecture, les formes de modélisation adaptées, les outils qui le composent, et l’illustrer d’une étude de cas
Comprendre l’ensemble du cycle de vie des données, connaître et choisir les outils qui interviennent à chaque étape
Séminaire également proposé via le catalogue Capgemini Institut
Durée : 3 jours
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
1ère partie : Architectures et architectes
Le métier d’architecte de données
Liste de ses tâches – Fiches de postes
Les différents « architectes » (applications, données, système, technique, informatique, d’entreprise…)
Points d’interaction avec les autres métiers du Data Office (CDO…)
De l’application à la donnée : la Data Gravity
Les livrables
2ème partie : Typologie et formats de données
Carte mentale des données d’entreprise
Matrice multidimensionnelle de classement des types de données
Structure, accessibilité (ouvertes, lisibles, chiffrées, anonymisées…), origine (données métiers, données techniques), température de stockage (froides, tièdes, chaudes), utilisation
Les métadonnées derrière chaque donnée (de structure, d’exécution)
Cycle de vie de la donnée, traitements et outils
Rôle du catalogue de données
3ème partie : Modélisation des données
Modélisation vs non-modélisation
Les formes de modélisation : Relationnelle, Graphe, Multidimensionnelle, Colonnes, Documents, Clefs-valeurs
Domain Driven Design (DDD)
4ème partie : Cas d’applications et architectures types
Pour chacun des modèles ci-dessous, détaillons schéma d’architecture, technologies utilisées, cas d’application, et avantages / inconvénients de chaque architecture.
Architecture d’un système opérationnel centralisé vs fédéralisé - le Domain Driven Design
Architecture d’un système décisionnel centralisé (autour d’un data warehouse)
Architecture d’un système de type Data Vault
Architecture d’un système décisionnel orienté métiers - le Data Mesh
Architecture d’un système Big Data autour du Data Lake
Architecture de préparation des données pour l’Intelligence Artificielle (Machine Learning et IA générative)
Identification, traitement et stockage des données d'entraînement
Architecture globale d’un plate-forme de données (Data Hub, Data Fabric…) sous plusieurs variantes
Modern Data Stack : composants et positionnement
Architecture globale d’une plateforme IoT (Internet des Objets)
5ème partie : Architectures matérielles
Les serveurs dédiés au stockage de données
Les puces GPU pour le calcul, DPU (Data Processing Unit) et IPU (Infrastructure Processing Unit), les grappes de données (clusters)
Panorama des solutions cloud de plateformes de données
Stockage et conformité : La notion de « cloud souverain »
Cloud, on-premise, hybride, ou edge
Mapper schéma d’architecture et choix d’hébergement
Température des données
Les principales technologies (mémoire, disque SSD, disque dur, Hadoop, Amazon Glacier…) et automatisation des mouvements de données en fonction de leur température
Stratégies de sauvegarde et restauration
Sécurité des données (physique et logicielle)
Sécurité des données et des transactions : Chiffrement, Authentification, Autorisations, Gestion des accès à privilèges
Gestion d’une sécurité de bout en bout
6ème partie : Architectures logicielles
Panorama des bases de données opérationnelles et décisionnelles
Bases de données graphes (Neo4j) et in-memory
Plateformes combinant plusieurs types de données (Snowflake, Databricks…)
Impact du Low-code / No-Code
Bases de données partagées – Database as a Service (DBaaS)
Virtualisation des données (Denodo, TIBCO, Informatica…)
Les architectures d’alimentation :
ETL vs ELT, ESB (Enterprise Service Bus), CDC (Change Data Capture), API (Interfaces de Programmation d’Applications)
Passer du traitement par lots aux flux de données en temps réel
Le cas des objets connectés (IoT)
Intégrité, consistance et gestion des versions
Gestion des données de référence – Master Data Management (MDM)
Sélectionner ses données de référence
Les collecter, les stocker, et les exposer
Panorama des solutions de Master Data Management
La Business Intelligence (BI)
Du reporting à la BI en libre-service
Prévenir, identifier, traiter et intégrer l’informatique fantôme (Shadow IT)
Notion de disponibilité
Répartition, affectation de quotas, priorisation de services, équilibrage automatique…
Bâtir un contrat de service (SLA) interne - Data Mesh et Data Contracts
Mise en production : du DevOps au DataGovSecOps…
7ème partie : Architectures de service
Formes d’hébergement et solutions du marché (Amazon S3, Google Cloud Platform, Microsoft Azure…)
Migrer ses données vers le cloud – solutions logicielles et matérielles (Amazon Snowball…)
Critères de choix d’un prestataire
Dans quels cas rester hébergé en interne
8ème partie : Gouvernance des données
Pas de gouvernance sans métadonnées
9ème partie : coûts et retour sur investissement (ROI)
Budgétisation et mesure des coûts d’un hébergement hybride
Le Finops, contrôleur de gestion de l’architecture de données
Impact de l’architecture sur la valorisation des données : outils de mesure
Participation au reporting CSRD (Comptabilité carbone)
10ème partie : Réglementaire, normes et conformité
Sur quelles normes s’appuyer pour construire son architecture de données
DMBOK, le travail de l’association DAMA, Cobit 2019, ISO 24143 - la norme de gouvernance en devenir, ISO 8000 - Qualité des données…
Contraintes règlementaires applicables aux architectures de données
Sécurité : prévention des pertes / vols de données
Data Act, Digital Act, Data Governance Act… réglementations européennes actuelles et futures
Focus RGPD
Place du registre des traitements dans l’architecture
Position et gestion de la base des consentements
Fédéraliser l’architecture de données, responsabiliser les métiers, et sécuriser les plate-formes.
Fédéraliser l’architecture de données, responsabiliser les métiers, et sécuriser les plate-formes.
Comprendre les concepts de Domain Driven Design, Data Mesh, Data as a Product, et Data Contracts; Aligner ces concepts avec la gouvernance des données
Découvrir les premiers retours d’expériences d’entreprise ayant choisi une architecture Data Mesh
Construire sa feuille de route, lister et prioriser les tâches à réaliser, identifier les équipes à impliquer; intégrer le data mesh dans l’existant informatique de l’entreprise
Identifier et choisir les outils informatiques utiles dans une démarche Data Mesh
Séminaire également proposé via le catalogue Capgemini Institut
Durée : 2 jours
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
Replacer le data mesh dans le contexte des architectures de données
Pourquoi est-on arrivé aux limites du couple data warehouse - data lake
Comment ont évolué les organisations, du paternalisme au managérisme
De l’entreprise centralisée à l’entreprise fédérale
Comparaison des architectures : Data Lake, Lakehouse, Data Fabric, Data Hub…
Le rôle croissant des métiers dans l’organisation : sa traduction en termes de développements informatiques, le Domain Driven Design (DDD)
Evaluer la maturité de votre organisation face au Data Mesh : mise en place d’une matrice de mesure
Identifier les domaines métiers à prioriser
Le Data Mesh et sa proposition de valeur
Les 4 grands principes du Data Mesh
Responsabilisation des métiers
Data Product
Plateforme libre-service de données
Gouvernance fédérée
Le data mesh appliqué aux données opérationnelles, et aux données analytiques
La responsabilisation des métiers
Application du Domain Driven Design aux données
Embarquez les data owners pour valoriser leur travail
Comment passer de la gouvernance actuelle à une gouvernance orientée métiers
Impacts sur l’implémentation
Les Data Products
Appliquer la démarche de création de produits et services aux données
Créer et formaliser les schémas des Data Products
Contractualiser les Data Products : les data contracts et leurs outils
Le rôle du Data Contract dans l’amélioration de la qualité des données
Utilisation de Data Contracts Studio
Comment implémenter les Data Products dans l’organisation
Conduite du changement : passer à une culture “Confiance Vérifiée” de la consommation de la donnée
Mettre en place une plateforme de données en libre-service
Industrialiser les Data Products
Construire une matrice Domaines Métiers / Centralisation Technique et répartir les rôles entre l’informatique et les métiers
Le rôle du Data Steward dans la mise en place du Data Mesh
Passer d’une gouvernance des données centralisée (ou absente) à une gouvernance fédérale
Répartir les rôles et responsabilités entre les métiers, le data office et l’informatique
Faire cohabiter le Data Mesh et la gestion des données de référence (MDM)
Equilibrer les contraintes entre l’autonomie des métiers et l’interopérabilité globale du système
Coder les différents éléments de la gouvernance : les standards, les règles, les tests, les indicateurs
L’architecture Data Mesh
Quel plan de marche pour débuter un projet Data Mesh en un mois
Le Data Mesh est une organisation, pas une architecture clef en main
L’architecture logique
L’architecture technique
Comment définir l’architecture d’un Data Product : Collecter, Transformer / Préparer, et Consommer les jeux de données
Aligner les besoins des consommateurs et les contraintes des producteurs de données : les ateliers de co-création des Data Products, la formalisation des Data Contracts
Publier et partager les Data Products : maximiser l’interopérabilité
Garantir la compatibilité ascendante des Data Products
Observer et contrôler le cycle de vie des Data Products
Respecter les règles de conformité (RGPD et autres)
Stratégie et exécution du projet Data Mesh : plan de marche, personnes à impliquer, rôles, charge de travail, budget initial, budget de fonctionnement
Les outils du Data Mesh
Le Data Mesh : en interne ou en cloud - avantages et inconvénients des différentes solutions
Construire un Data Mesh basé sur les événements - Change Data Capture (CDC) et Data Mesh : les outils de création des pipelines de données
Les solutions spécialisées : Nextdata, Starburst, Snowflake, Databricks, Denodo…
Les briques à assembler : Estuary Flow, K2view…
Les solutions open source : Dremio, Apache…
Les architectures complémentaires : Edge, micro-bases de données, etc.
Sécurité et conformité de l’architecture
Retours d’expériences
Les premières entreprises à avoir mis en place une démarche Data Mesh
Difficultés rencontrées, et comment les contourner
Bénéfices obtenus, et comment les mesurer
Déployer votre premier MVP Data Mesh dans toute l’entreprise
Impact de la mise en oeuvre du Data Mesh sur l’acculturation à la donnée dans l’entreprise
État de l’art : du reporting à l’automatisation prédictive, alimentation, stockage et restitution.
État de l’art : du reporting à l’automatisation prédictive, alimentation, stockage et restitution.
Connaître la chaîne de valeur, et les métiers d’un système décisionnel, de la collecte-alimentation des données, au stockage, puis à leur visualisation
Construire une architecture de données (data warehouse, data lake, data mesh, modern data stack) compatible avec l’organisation de l’entreprise tout en respectant la gouvernance
Découvrir l’état de l’art de l’analyse prédictive (Intelligence Artificielle) et de l’automatisation au travers d’études de cas
Repartir avec une méthodologie pratique de conception, modélisation, et mise en œuvre adaptée à vos enjeux de performance
Séminaire également proposé via le catalogue Capgemini Institut
Durée : 3 jours
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
1ère partie – Du Décisionnel au Big Data
L’impact de l’économie des données sur le système décisionnel : une opportunité de création de valeur
Big Data : révolution ou évolution
De la BI à la Data Science : données In-Memory, temps réel, Embedded BI, NoSQL, Internet des objets, Intelligence augmentée…
Études de cas : valeur créée et impact sur les modèles d’affaires
2ème partie – Nouvelle architecture du Système d’Information décisionnel (SID)
Du reporting à la Business Process Intelligence
Idéation : embarquer les métiers et l’informatique dans le projet décisionnel
De la Business Intelligence à la Business Analytics
Faire évoluer les Data Marts existants vers un système centralisé
Intégrer la confidentialité des données personnelles et les contraintes du RGPD dès la conception
L’architecture d’un système décisionnel
Modèle centralisé ou fédéral : choix technique et de gouvernance
Augmenter l’autonomie des métiers : concept de « Domain Driven Design » (DDS) et de « Data as a Product » (DaaP)
Sécurité et confidentialité des données
Les principaux schémas d’architecture d’un SID
Architecture centralisée autour du data warehouse, du data lake, du “lakehouse”
Gouvernance décentralisée : le data mesh
3ème partie – Plate-forme Data
Outils d’intégration de données
Fonctionnalités attendues d’un logiciel ETL (Extract, Transform, Load) ou ELT
Changed Data Capture (CDC) et collecte en temps réel
Panorama des offres ETL/ELT : Informatica, IBM Datastage, Microsoft SSIS, Talend, etc.
Les nouveaux outils de préparation de données (Talend Data Preparation, Tableau Prep, Qlik, Trifacta…)
Stockage des données structurées et non structurées
Architectures techniques : on-premise, cloud, in-memory, edge computing…
Panorama des offres : Oracle, IBM, Teradata, SAP, Microsoft et les nouveaux entrants.
Différence et complémentarité entre Data Lake et Data Warehouse
Bases NoSQL : Panorama (MongoDB, MarkLogic, Cassandra, ElasticSearch…)
Bases graphes : usages et technologies (Neo4j)
Hadoop / MapReduce
Restitution
Outils traditionnels.
Query et Reporting, Ad Hoc Analysis, Cubes OLAP,…
Positionnement des offres : SAP Business Objects, IBM Cognos, Microstrategy, Information Builders…
Outils de BI agile / Self service BI
Positionnement des offres : Tableau, Qlik, TIBCO Spotfire, Microsoft PowerBI, Domo…
Shadow IT dans le décisionnel
Mise en place d’un CCBI (Centre de Compétences en BI).
Modern Data Stack
Concepts de la Modern Data Stack : quelles différences réelles ?
Panorama des outils : Fivetran, Dbt, Snowflake, DataBricks Looker, Apache AirFlow, Amazon Redshift, Google BigQuery…
4ème partie – Modéliser les informations destinées à l’aide à la décision
Objectifs de la modélisation : est-ce encore utile ?
Modélisation en étoile / flocon
Garantir la fiabilité des consolidations (DQM).
Les référentiels et la stabilité historique du périmètre – Master Data Management (MDM).
5ème partie – Le portail décisionnel
Les interfaces pour « exposer » l’information décisionnelle ?
Data Visualization
Panorama des principaux graphiques que vous ne connaissez pas encore
Raconter l’histoire de ses données, le Data Storytelling
Intégration du portail décisionnel au portail d’entreprise
Monétiser ses données vs Open Data
6ème partie – De l’intelligence artificielle à l’intelligence augmentée
Qu’est-ce que l’intelligence augmentée et l’automatisation des processus décisionnels : machine learning, deep learning, predictive analytics, Generative Artificial Intelligence…
Construction de la matrice d’apprentissage, choix des méthodes et des algorithmes
Focus sur l’Intelligence Artificielle Générative (IAG)
7ème partie – MDM et Gouvernance : comment les intégrer dans le projet décisionnel
Gouvernance des données et catalogue des données
Le Master Data Management
Data Quality Management (DQM) et Master Data Management (MDM)
Étude de cas : Utiliser une base de données graphes pour cartographier les données de référence.
Conformité
Le RGPD, et son impact sur le projet décisionnel – collaboration avec le DPO
Autres règles de conformité en cours de déploiement (spécifiques à un secteur, Digital Services Act (DSA), Digital Market Act (DMA), Norme ISO 24143…)
8ème partie – La mise en œuvre du projet décisionnel
Étude préalable
Facteurs clés du succès d’un Système d’Information Décisionnel
Acculturation à la données : Impliquer les directions générales et les utilisateurs
Groupe de projet
Acteurs, rôles et livrables - Sous-traitance : quoi, quand, comment ?
De l’expression des besoins à la modélisation
Double démarche : prototypage et industrialisation
Du Business Model Canvas (BMC) à l’industrialisation : étapes concrètes
Approche spécifique de la recette
Recette du Système Décisionnel : qui impliquer et comment
Évaluer le retour sur investissement
Le déploiement au-delà du projet pilote
Industrialisation du système décisionnel (du DevOps au DataOps)
Administration, Sécurisation, Mesure des usages et amélioration continue
9ème partie – Valorisation des données
Méthodes actuelles et futures de valorisation des actifs immatériels : Évaluer la valeur du système décisionnel
Évaluer l’impact carbone du système décisionnel
Les actifs immatériels peuvent dès aujourd’hui être valorisés : comment, quelles règles, quelles méthodes.
Les actifs immatériels peuvent dès aujourd’hui être valorisés : comment, quelles règles, quelles méthodes.
Comprendre ce que sont les actifs immatériels et pourquoi ils doivent être valorisés : gouvernance et éthique du patrimoine informationnel
Connaître la place de la valorisation des données et des algorithmes dans les principales normes financières (IAS38 et autres) : la triple comptabilité
Transformer son Data Office en centre de création de valeur : évaluation, méthodes de calcul, tableaux de bord, cessions d’actifs
Gérer les relations avec les parties prenantes : auditeurs, commissaires aux comptes, analystes financiers
Séminaire également proposé via le catalogue Capgemini Institut
Durée : 2 jours
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
Pourquoi devons-nous envisager dès aujourd’hui la valorisation du patrimoine immatériel
Le capital immatériel dans l’évaluation des entreprises de l’économie numérique, et des entreprises innovantes : l’économie de l’immatériel
Le concept d’immatérialité
Transformation digitale et valorisation du capital immatériel
Comprendre la notion de valeur
Les limites de l’approche par la valeur
Qu’est-ce que le capital immatériel
Les parties prenantes dans la création de valeur
Définition des capitaux humain, organisationnel, des systèmes d’information, du savoir, de marque, partenaire, actionnaire, sociétal, naturel
Valorisation individuelle de chacun des éléments qui composent le Goodwill
Le Goodwill devrait-il figurer dans les documents comptables ?
Les applications du capital immatériel
Durabilité et création de valeur (ou destruction)
Détermination de la propriété des données - notion de propriété intellectuelle
Découvrir les normes en vigueur et à venir
Normes internationales IAS/IFRS : IAS38, une norme assez restrictive pour la valorisation des immobilisations incorporelles
Définition, comptabilisation et évaluation
Amortissement, dépréciation et durée d’utilité
Les livrables à préparer
Groupes de travail européen et français (EFRAG) : avancement des travaux de normalisation
Les travaux de la Value Reporting Foundation
Normes ISO : comment est mentionnée la valeur des données et des algorithmes
Les initiatives scientifiques et universitaires en cours : tour d’horizon
Mettre en place une triple comptabilité
Économique, Sociale et Environnementale
Détermination des trois valeurs de l’entreprise : solide, liquide et gazeuse
Création d’un compte de résultat et d’un bilan étendus
La contribution aux calculs des indicateurs extra-financiers (reporting CSRD à partir de 2024-2025)
Comparer les méthodes d’évaluation
La notation qualitative des actifs immatériels
Calcul de la valeur des actifs immatériels
Les approches patrimoniale, actuarielle, et comparative
Modèle de Leontief
Méthode Social Return On Investment (SROI)
Méthode EVA (Economic Added Value)
Calculer la création de valeur d’un projet
Le concept d’analyse de la valeur appliqué aux actifs immatériels
Moduler la valeur en fonction des risques
Etude de cas : comparaison des méthodes de la valeur sociale et économique des activités de divertissement et de sport
Les bases de données de référence disponibles (TEEB - The Economics of Ecosystems and Biodiversity)
Calcul de la valeur dans les organisations à but non lucratif, les secteurs publics et les activités non rentables
Valoriser le capital innovation technologique
Sa couverture : la R&D, les brevets, les secrets de fabrication, les logiciels, les droit d’auteur, les bases de données et de connaissance, les processus métiers, les meilleures pratiques, la chaîne logistique, les outils décisionnels, les algorithmes (robotisation, intelligence artificielle…), les logiciels de production et leurs données (ERP, CRM, SCM…)
Le capital système d’information
Les infrastructures
Les applications, processus, et algorithmes - logiciels développés en interne
Le cas de l’open source, du SaaS, des progiciels
Les données opérationnelles (bases de données et applications)
Les données décisionnelles (Data Warehouse, Data Lake, Données métiers, Indicateurs…)
Les données archivées - comment évolue leur valeur dans le temps
Le cas particulier des données destinées aux modèles d’intelligence artificielle
Le cas du cloud computing, et des places de marché : comment valoriser les données en fonction des contrats avec les fournisseurs
Valorisation de l’intelligence artificielle
Valorisation des jeux de données d’entraînement, des modèles, des résultats futurs
Valorisation des bases documentaires et des bases de connaissance
Valorisation de la présence en ligne (réseaux sociaux, web, métavers, Web3…) : démarches de certification du trafic web, de la qualité du référencement, etc.
Les données conformes (RGPD par exemple) prennent de la valeur; les données non conformes augmentent les risques
Que valent les données ?
Caractéristiques économiques des données : ce qu’elle coûte à produire, ce que l’on peut en faire, est fonction de sa rareté
Créer de la valeur en respectant la gouvernance
L’impact des décisions stratégiques sur la création de valeur
Le management de l’entreprise par la valeur
Valorisation des données et conformité : respect de la réglementation (RGPD entre autres) et des choix éthiques
Monétiser les données et les algorithmes
Les nouveaux modèles économiques basés sur la donnée
Déterminer le prix d’une donnée (peut être différent de sa valeur)
Le Big Data représente-t-il un coût ? Une création de valeur ? Ou un revenu potentiel ?
Mettre en place une stratégie de monétisation : transformer ses jeux de données en revenu
Exemples d’entreprises dans plusieurs secteurs d’activité qui ont créé de la valeur monétaire à partir de leurs données
Les portails de données généralistes ou sectoriels
Création de Data Spaces à l’intérieur d’un écosystème
Le cas particulier de l’Open Data
Les initiatives de reprise de contrôle et de monétisation des données personnelles par les individus
Et si le Data Office devenait un centre de profit…
Données, qualité, tableaux de bord CSRD - ESG : collecter, stocker, analyser et communiquer.
Données, qualité, tableaux de bord CSRD - ESG : collecter, stocker, analyser et communiquer.
Découvrir et comprendre les obligations légales, les calendriers, et les implications des réglementations CSRD et ESG
Identifier les données concernées (production, distribution, administration, informatique…) et mettre en place les outils de mesure
Inclure les données non financières dans les architectures de données existantes
Construire et communiquer sur les outils de reporting et d’évaluation des progrès réalisés
Séminaire également proposé via le catalogue Capgemini Institut
Durée : 2 jours
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
Le reporting CSRD, qu’est-ce que c’est ?
La durabilité : un enjeu de société et une responsabilité de chaque entreprise
Objectifs de la directive CSRD
La directive CSRD, cadre d’amélioration de la qualité et de la disponibilité des données ESG
La double matérialité financière et d’impact
Trois sujets : Environnement, Social, et Gouvernance
Quatre dimensions : Gouvernance, Stratégie, Gestion des impacts, risques et opportunités, et Mesures et objectifs de durabilité
Trois niveaux d’information : Informations communes à tous les secteurs, sectorielles, et propres à une entreprise
Quelles sont les entreprises concernées : les seuils de franchissement
Comprendre la notion de “scope” : direct, indirect, induit
Les échéances de la CSRD, de 2024 à 2029
L’impact positif de la transparence auprès des salariés, clients, investisseurs, même si la loi ne vous y oblige pas
Exemples de communications d’entreprise sur le sujet du développement durable
Les risques de non-conformité (amendes, image…)
Les autres normes
CSRD et ESG : complémentarités et différences
IFRS S1 et S2 : quantifier les risques et les impacts liés au climat dans les perspectives d’une entreprise
GRI, SASB, TCFD… comprendre les différentes normes et leur impact
Se comparer avec d’autres entreprises : le label B Corp, la Banque de France
Planning de préparation à la CSRD
Vérifier les normes applicables, en fonction du secteur d’activité et de la taille
Réaliser un diagnostic de mise en conformité
Collecter les données nécessaires et préparation du rapport
Faire auditer votre rapport de durabilité
Le rôle central du système d’information dans la collecte et la présentation des données nécessaires au reporting CSRD
Identifier les personnes en charge de la production du reporting CSRD
Identifier les données nécessaires à collecter
Détecter et corriger le “Green Washing”
Les impacts de la collecte des données “vertes” sur la gouvernance du SI
Les données en provenance des systèmes industriels et des objets connectés (IoT)
Big Data et données CSRD : où et comment stocker les données collectées
Mettre à disposition des personnes en charge de la CSRD les outils de reporting et de visualisation adaptés
Les données de durabilité propres au système d’information
Où en sont les entreprises en matière d’empreinte environnementale de leur système d’information : le point sur les études et articles de recherche
Qu’est-ce que le GreenIT ? Est-il un objectif réaliste ?
Intégrer les critères RSE dans les appels d’offres informatiques
Anticipation et mesure des choix d’architecture sur l’empreinte carbone
Mesure et comparaison des solutions internes et des solutions cloud
Savez-vous que le choix d’un langage de programmation a un impact sur la consommation carbone du logiciel ? C++, Python ou Java ?
L’empreinte environnementale du stockage de données : comparaison de plusieurs solutions
Etude de cas : Calcul de l’empreinte carbone de la diffusion de campagnes publicitaires digitales
L’intelligence artificielle, énorme consommateur de carbone : au travers des données d’apprentissage, des modèles, et des phase d’amélioration - comment la maîtriser
Comment organiser et mener une démarche de sobriété numérique - choix des indicateurs, tableaux de bord, actions
La mise en place d’une triple comptabilité
Pas de transition écologique sans une transformation comptable : la comptabilité financière actuelle ignore les ressources vivantes
Détermination des trois valeurs de l’entreprise : solide, liquide et gazeuse
Origines et principes de base de la comptabilité carbone
Inventaires officiels et inventaires volontaires : l’approche “empreinte”
Inventaire monétaire : quel est le coût d’une tonne de CO2
Création d’un compte de résultat et d’un bilan étendus
La contribution aux calculs des indicateurs extra-financiers
Demain, l’intégration de la triple comptabilité dans les progiciels de gestion (ERP et Finance)
Les outils d’aide à la construction du reporting CSRD
Les outils de CPM (Corporate Performance Management) : OneStream, CCH Tagetik, Workiva, OneSumX…
Les outils spécialisés : Greenly, Nicomak, Enablon, Worldly, IBM Carbon Calculator, Alibaba Energy Expert…
Construire sa propre solution en interne ?
Passer à l’action : le rôle du système d’information dans l’amélioration de la durabilité de l’entreprise et l’atteinte des objectifs
La transition énergétique exige la transformation numérique
L’intelligence artificielle utilisée pour diminuer l’impact carbone
Réalité virtuelle, augmentée, étendue, jumeaux numériques : Technologies, et retours d’expérience.
Réalité virtuelle, augmentée, étendue, jumeaux numériques : Technologies, et retours d’expérience.
Comprendre la terminologie (réalité virtuelle et étendue, Informatique Spatiale, Web3, jumeaux numériques, Métavers, NFT), les enjeux et les technologies qui composent ce marché
Découvrir des dizaines de cas d’usage d’organisations qui sont déjà dans un métavers : ce qu’elles y proposent et dans quel objectif
Construire une feuille de route, réaliste, valorisée, afin d’accompagner votre entreprise dans ses premiers pas dans les mondes numériques
Tenir compte des évolutions attendues du point de vue juridique, éthique, de l’impact sur les métiers, et vous positionner professionnellement
Séminaire également proposé via le catalogue Capgemini Institut
Durée : 2 jours
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
1ère partie : Découverte des enjeux et des perspectives
Démonstrations interactives de métavers
Analyser de manière critique les messages médiatiques : faire la différence entre effet de mode et impact à moyen terme
Les raisons pour lesquelles le métavers est une suite logique des développements initiés il y a plusieurs décennies
Les risques objectifs qui pourraient freiner ou empêcher son développement
Être absent du métavers représente-t-il un risque pour votre organisation ?
Les réalités augmentées, virtuelles et étendues
Casques, objets connectés et autres dispositifs haptiques
Différences entre réalité virtuelle (3D immersive) et réalité augmentée (3D plate)
Réalité étendue (XR) et Informatique Spatiale
Les métavers de nouvelle génération
Glossaire du métavers, définition des mots-clefs tels que avatars, jumeaux, token, cryptomonnaie, simulations, MMO, univers virtuels…
Présentation des travaux de Facebook, Google, Tencent, Amazon… - Enjeux économiques
Les nouveaux acteurs (Decentraland, Roblox, The Sandbox…)
L’informatique Spatiale sera-t-elle la nouvel interface universelle du web ? Quel rôle jouera l’Apple Vision Pro ?
2ème partie : Les couches technologiques qui composent les mondes virtuels
Côté serveur : le rôle incontournable du cloud
Les outils de développement du métavers
L’architecture multicouche d'un métavers
Métavers et ultra-big data
Métavers et consommation énergétique : un point de vigilance
Comment développer un monde virtuel : De la 3D plate aux environnements immersifs
Quelles grandes entreprises y vont : Facebook, Apple, Nvidia, Niantic, Microsoft, Amazon... qui d'autre ?
Le développement des composants du métavers
Création de mondes, de scènes, d’avatars, de robots d’accueil, de dialogues…
Les outils de développement utilisés : Universal Scene Description (USD), Unity, Get3d (Nvidia), Unreal Engine, WebXR…
Les enjeux technologiques : interopérabilité des métavers, adoption (killer app), immersion…
Budgéter ses premiers pas dans le métavers
Pourquoi et comment investir
Le monde « exponentiel », pourquoi cela ira toujours plus vite que vous ne le pensez
Les secteurs économiques qui en bénéficieront en premier; les modèles économiques
Trois piliers : métavers, NFT et cryptomonnaies - création d’un nouveau monde économique, que l’on appelle le Web3; le rôle des “metafin”
3ème partie : Panorama des applications et démonstrations préfigurant le métavers – les entreprises qui y sont !
Démonstrations et études de cas :
Dans le commerce de détail : Carrefour, Walmart, Decathlon, L’Oréal, The Conran Shop, Nestlé...
Dans le luxe : Bulgari, Gucci, Fred, Vertu, Yves Saint Laurent…
Dans la mode : ElevenParis, H&M, Adidas…
Dans la banque et l’assurance : BBVA, Signum…
Les jumeaux numériques (Digital Twins), des laboratoires de R&D au Métavers
État de l’art
Présentation des premiers jumeaux numériques de l’industrie manufacturière
Création de jumeaux numériques dans les services (banques, assurances, télécommunications)
Jumeaux numériques pour expérimenter (retail, construction, ville intelligente, services publics)
Jumeaux numériques dans la santé, vers le jumeau numérique humain
Construction d’un jumeau numérique
Les couches logicielles de développement d’un jumeau numérique
Les principales plateformes du marché
Le rôle de l’open source
L’écosystème : investisseurs, éditeurs, prestataires, associations (Digital Twin Consortium)
Résoudre l’interopérabilité : est-ce possible ? Le rôle du Metaverse Standards Forum
Prochaine étape : les combiner avec le métavers pour interagir avec les prospects, partenaires, distributeurs
4ème partie : Études de cas : Les secteurs particulièrement concernés
Le rôle des départements métiers dans la découverte de cas d’usage du métavers
Éducation et formation, Marketing et communication, Ressources Humaines
La Digital Workplace
Banques et services financiers
Jeux numériques en ligne - le rôle des héros virtuels
Cinéma et télévision
Quel plan d’action concret initier pour investiguer en limitant les coûts
La DSI et le métavers : comment se positionner ?
Étude de cas en équipe : une PME dans l’agro-alimentaire entre dans le métavers… étudions des scénarios
5ème partie : Un écosystème à construire
Enjeux économiques et sociaux des métavers : comment nos comportements et nos corps évolueront face à ces nouveaux modes de vie
Aspects juridiques et éthiques
Sécurité des données, des échanges, des transactions…
Les DAO (Decentralized Autonomous Organizations)
Métavers et protection des données personnelles : Recommandations de la CNIL et des autorités européennes
Chartes d’éthique
Cybercriminalité et métavers, le “Darkverse”
Points clefs restant en suspens : relations internationales, pays virtuels, imposition, territorialité juridique
Emplois : Liste des nouveaux métiers, compétences existantes et futures; Comment anticiper, recruter ou former les bons profils
Le rôle éventuel de l’informatique quantique
Conclusion – réflexion en commun : le métavers ne nous semble absolument pas indispensable aujourd’hui ; dans 10 ans, sera-t-il devenu aussi indispensable que le téléphone mobile depuis de son développement ?
Comprendre les bases de l’informatique quantique
Comprendre les applications potentielles en entreprise
Découvrir le panorama des solutions matérielles et logicielles
Tracer sa feuille de route (formation, simulation, prototypes)
Séminaire également proposé via le catalogue Orsys
Durée : 1 jour
Formateur : Philippe Nieuwbourg
Pour en savoir plus : contactez-moi !
Comprendre les enjeux de l’informatique quantique
Pourquoi vous n’achèterez sans doute jamais un ordinateur quantique… mais en utiliserez un dans les 5 prochaines années.
Pourquoi 2020 a été l’année des premiers prototypes d’applications quantiques, et 2024 sera celle de leur première industrialisation.
Le concept de suprématie quantique, point de bascule entre l’informatique traditionnelle et l’informatique quantique.
Les États investissent massivement : Chine, États-Unis, Russie, Canada, France, Royaume-Uni, Pays du golfe, Afrique.
De l’ENIAC aux premiers ordinateurs quantiques, l’histoire se répète.
Quelques bases de la physique quantique : les concepts de superposition et d’intrication.
Passer de l’informatique traditionnelle à l’informatique quantique : passer des bits aux qubits.
Les enjeux de la création d’un ordinateur quantique : pourquoi est-ce si complexe ?
Les chiffres du marché potentiel : compilation des principales études des analystes.
Les composants clefs d’un ordinateur quantique, qubits, portes quantiques, correction d’erreurs, etc.
L’architecture d’un ordinateur quantique, les contraintes actuelles de consommation énergétique, de coût.
L’informatique quantique « as a Service », dans le Cloud, et accessible au travers d’une plateforme.
Informatique Haute Performance (HPC), simulateur quantique, puces neuromorphiques.
Complémentarité et préparation du développement de l’informatique quantique.
Les algorithmes quantiques : quelles différences par rapport à l’algorithmique traditionnelle ?
Les premières applications par secteur d’activité
Panorama par secteur d’activité des premiers cas d’usage envisagés.
Finance, Transports, Communications, Santé, Énergie… le tour des entreprises qui investissent en informatique quantique.
Sécurité du système financier, comment les algorithmes RSA et AES pourraient devenir obsolètes, tout comme la blockchain.
Pourquoi doit-on développer de nouveaux systèmes de cryptographie quantique ?
Le coût d’un premier prototype : comment le calculer et comment évaluer le retour sur investissement.
L’informatique quantique au service de l’Intelligence Artificielle, du Machine Learning, du Deep Learning, du Big Data.
Comment positionner les différentes technologies complémentaires : HPC, Supercalculateurs, Cloud Computing.
Présentation d’un modèle de maturité exclusif permettant de positionner votre entreprise.
Valorisez votre modèle de maturité en anticipant une méthode de calcul du ROI prédictifs des prototypes testant l’informatique quantique.
Comment préparer une preuve de concept, et identifier un problème à résoudre dans votre organisation.
Premiers retours des entreprises qui ont investi en informatique quantique. Quels sont les problèmes à résoudre ?
Panorama des acteurs du marché : matériel et logiciel, les tendances
Panorama des fournisseurs de matériel (Google, IBM, Intel, Fujitsu, Rigetti, D-Wave, etc…).
Principales techniques et méthodes de développement des algorithmes quantiques.
Apprendre à développer des algorithmes quantiques avec des langages comme Q# de Microsoft ou Qiskit de IBM.
Différences de programmation avec les langages traditionnels.
Les solutions de simulation, les plateformes logicielles.
Panorama des universités avec lesquelles il est possible de travailler.
Panorama des start-up du secteur.
Les fonds d’investissement publics et privés spécialisés dans l’informatique quantique.
Les tendances probables pour les prochaines années : matériels, logiciels, et services.
L’informatique quantique au service de la modélisation : en quoi la modélisation complexe permettra d’aborder différemment certains problèmes aujourd’hui insolubles.
Les défis que l’informatique quantique peut aider à résoudre : changement climatique, transports, intelligence augmentée.
Téléportation, superposition, pourquoi ces principes remettent en cause certaines certitudes de l’humain ?
Tracer sa feuille de route : veille, formation, prototypes
Comment définir sa feuille de route : attention, c’est un marathon et non un sprint.
Mettre en place une veille technologique et stratégique : en déduire une stratégie industrielle.
Premières actions de formation.
Qui former, qui recruter dans les prochaines années
Définir des PoB (Proofs of Business), qui amèneront à des PoC (Proofs of Concept), les premiers prototypes.
Les impacts sociétaux et éthiques de l’informatique quantique.
Pourquoi il est difficile d’anticiper des règles pour un domaine dont on ne connaît pas encore les contours.
Comment l’informatique quantique nous permettra peut-être de mieux comprendre notre monde.
Comment se connecter aux premières applications concrètes et participer aux recherches : climat, transports, IA.