Dans le contexte du développement d'un système d'information décisionnel
Dans le contexte de préparation des données à des fins d'analyse statistique
En intervenant à toutes les étapes du cycle de vie de la donnée (insertion, modification, extraction, suppression)
En utilisant le modèle de données adapté aux besoins
En s’inscrivant dans une démarche de documentation des réalisations adaptée au public visé
En traduisant correctement les demandes métier en programmes, avec le respect du cahier des charges s'il existe
En écrivant un programme correctement structuré et documenté, respectant les bonnes pratiques
En identifiant les librairies et langages dédiés
Correctement interpréter et prendre en compte le besoin du commanditaire ou du client
Respecter les formalismes de notation
Connaître la syntaxe des langages et savoir l’utiliser
Mesurer l’importance de maîtriser la structure des données à exploiter
Comprendre les structures algorithmiques de base et leur contexte d’usage
Prendre conscience de l’intérêt de la programmation
Comprendre l'organisation des données de l'entreprise
Réaliser le rôle central et spécifique de l'entrepôt de données dans la chaine décisionnelle
Identifier et résoudre les problèmes d’intégration de sources complémentaires et hétérogènes
Comprendre la nécessité de tester, corriger et documenter un programme
Apprécier l’intérêt de briques logicielles existantes et savoir les utiliser
Identifier les solutions technologiques permettant la collecte et la diffusion de données
Comprendre les spécificités des données complexes et de leur exploitation
Savoir mener une veille technologique
Dans le contexte de programmation d'un outil d'aide à la décision
Dans le contexte d'un projet d'étude statistique
En tenant compte du contexte de l’étude (économique, socio-démographique, commerciale, clinique...)
En mettant en évidence les grandes tendances et les informations principales
En identifiant et en mettant en œuvre les techniques adaptées aux attentes du client ou de l’instance décisionnaire
En identifiant et en mettant en œuvre les techniques adaptées aux données complexes (données massives, données mal structurées, flux de données…)
En tenant compte du contexte inférentiel (variabilité de l’échantillon)
Réaliser que les sources de données ont des caractéristiques propres à considérer (variation, précision, mise à jour...)
Comprendre qu’une analyse correcte ne peut émaner que de données propres et préparées
Comprendre l’intérêt des synthèses numériques et graphiques pour décrire une variable statistique
Comprendre l’intérêt des synthèses numériques et graphiques pour mettre en évidence des liaisons entre variables.
Comprendre l'intérêt de l’utilisation d’un modèle probabiliste
Appréhender la notion de fluctuation d'échantillonnage, notamment à l’aide de simulations probabilistes
Prendre conscience de la différence entre modélisation statistique et analyse exploratoire
Saisir la spécificité de l’analyse des données temporelles
Comprendre l’intérêt des analyses multivariées pour synthétiser et résumer l’information portée par plusieurs variables
Appréhender l’idée de confronter une hypothèse avec la réalité pour prendre une décision
Apprécier les limites de validité et les conditions d’application d’une analyse
Prendre conscience des différences entre des outils statistiques pour choisir le plus adapté
Saisir l’importance de la mise en œuvre de méthodes adaptées à des domaines et des données spécifiques (Marketing, Biostatistique, Statistique spatiale, Gestion …)
Prendre conscience des limites des méthodes classiques pour l’analyse des données complexes (données massives, données mal structurées…)
Comprendre les mécanismes de bases de l’intelligence artificielle (apprentissage statistique supervisé, échantillons d'apprentissage et échantillons de test…)
Dans le contexte du développement d'outils décisionnels
Dans le contexte d'une étude statistique
En s’adaptant au niveau d’expertise, à la culture et au statut du destinataire
En s’exprimant correctement, aussi bien en français qu’en anglais, à l'oral comme à l'écrit
En veillant aux aspects éthiques, déontologiques et réglementaires d’utilisation et de diffusion des données
En interprétant et contextualisant les résultats (citations, vérification des sources, esprit critique)
En utilisant la forme de restitution adaptée
En tenant compte des réalités économiques et managériales des entreprises
Prendre connaissance des biais rencontrés dans la mise en place d’une enquête
Identifier l’importance de contextualiser ses données
Mesurer l’importance de mettre en évidence des résultats clés par l’utilisation d’indicateurs pertinents
Lors de la restitution des résultats, mesurer l’importance d’expliciter également la démarche suivie
Comprendre les intérêts de la data visualisation et de l’infographie
Mesurer l’importance d’une expression précise et nuancée dans la communication en français et dans une langue étrangère des résultats
Saisir l’intérêt de mobiliser de manière proactive des ressources métiers liées à l'environnement (y compris économique, international…)
Savoir défendre ses choix d’analyses
Saisir la nécessité de choisir des indicateurs pertinents pour communiquer sur les résultats
Prendre conscience de la rigueur requise dans ses productions et dans la communication à leur propos
Comprendre les enjeux des relations en milieu professionnel adaptées à l’interlocuteur et à sa culture
Savoir transformer la donnée pour la mettre en conformité avec des normes (anonymisation, normalisation)
Mesurer l'impact d'un respect de la législation en terme de droit des données.
Identifier les clés d'une bonne communication (procédures et techniques utilisées)
Mesurer l’importance de comprendre et de répondre à l'ensemble des problématiques posées
Être force de proposition
Prendre conscience de la nécessité d’intégrer la vision de l’interlocuteur (transversalité, international, multiculture, niveau d’expertise…)
Dans le contexte du déploiement d'une solution décisionnelle
Dans le contexte d'automatisation de reporting et de visualisation
En mettant en œuvre une structuration des données adaptée à leurs caractéristiques (type, volume...)
En assurant la qualité des données et minimisant les biais liés à l’incertitude et l’imprécision dans les sources
En étant sensible aux aspects éthiques, déontologiques et juridiques d’utilisation et de diffusion des données
En réalisant des solutions de visualisation spécifiques aux données métier
En intervenant à différents niveaux de la chaîne décisionnelle
En utilisant des méthodes de développement logiciel
Comprendre le rôle fondamental de l’analyse des besoins et de l’existant dans un projet décisionnel (architecture, visualisation...)
Percevoir les enjeux de l’automatisation et de l'interopérabilité d’un ensemble de tâches
Prendre conscience des différences entre outils (logiciels, langages) pour choisir le plus adapté
Comprendre le cycle de vie d’un projet informatique
Prendre conscience de la nécessité d’utiliser des moyens spécifiques pour exploiter les Big Data ou les flux de données
Défendre ses choix de solution par un argumentaire éclairé
Réaliser l’intérêt d’appliquer les méthodes de développement dans la réalisation d’un projet informatique
Apprécier l’intérêt de l’utilisation d’un gestionnaire de versions de code
Dans le contexte d’une analyse statistique
Dans le contexte d'un développement statistique
En choisissant le modèle adapté à la situation
En maîtrisant la qualité du modèle
En s’adaptant aux spécificités (données, enjeux, méthodes) d'un domaine d'application particulier (santé, marketing, assurance, qualité, socio-démographie...)
En s'adaptant à la complexité des données (données massives, données mal structurées, flux de données…)
Comprendre l'intérêt de planifier le recueil des données
Appréhender les difficultés et les limites rencontrées dans la mise en œuvre d'un terrain de collecte
Comprendre l'impact du type de données sur le choix de la modélisation à mettre en œuvre
Apprécier les limites de validité et les conditions d'application d'un modèle
Réaliser l'importance de la mise en œuvre d'une procédure de test statistique pour valider ou non une hypothèse
Comprendre l'intérêt des approches statistiques pour la fiabilisation, la validation, les incertitudes, les imprécisions des données
Comprendre l'intérêt de la problématique métier pour réaliser la modélisation
Viser la réalisation d'un processus de modélisation dans son ensemble
Prendre conscience des différences entre les modèles pour choisir le plus adapté
Prendre conscience de la nécessité d'utiliser des moyens spécifiques pour analyser les données massives ou les flux de données