Dans le contexte du développement d'un système d'information décisionnel Dans le contexte de préparation des données à des fins d'analyse statistique En intervenant à toutes les étapes du cycle de vie de la donnée (insertion, modification, extraction, suppression) En utilisant le modèle de données adapté aux besoins En s’inscrivant dans une démarche de documentation des réalisations adaptée au public visé En traduisant correctement les demandes métier en programmes, avec le respect du cahier des charges s'il existe En écrivant un programme correctement structuré et documenté, respectant les bonnes pratiques  En identifiant les librairies et langages dédiés Correctement interpréter et prendre en compte le besoin du commanditaire ou du client Respecter les formalismes de notation Connaître la syntaxe des langages et savoir l’utiliser Mesurer l’importance de maîtriser la structure des données à exploiter Comprendre les structures algorithmiques de base et leur contexte d’usage Prendre conscience de l’intérêt de la programmation Comprendre l'organisation des données de l'entreprise Réaliser le rôle central et spécifique de l'entrepôt de données dans la chaine décisionnelle Identifier et résoudre les problèmes d’intégration de sources complémentaires et hétérogènes Comprendre la nécessité de tester, corriger et documenter un programme Apprécier l’intérêt de briques logicielles existantes et savoir les utiliser Identifier les solutions technologiques permettant la collecte et la diffusion de données  Comprendre les spécificités des données complexes et de leur exploitation Savoir mener une veille technologique Dans le contexte de programmation d'un outil d'aide à la décision Dans le contexte d'un projet d'étude statistique En tenant compte du contexte de l’étude (économique, socio-démographique, commerciale, clinique...) En mettant en évidence les grandes tendances et les informations principales En identifiant et en mettant en œuvre les techniques adaptées aux attentes du client ou de l’instance décisionnaire En identifiant et en mettant en œuvre les techniques adaptées aux données complexes (données massives, données mal structurées, flux de données…) En tenant compte du contexte inférentiel (variabilité de l’échantillon) Réaliser que les sources de données ont des caractéristiques propres à considérer (variation, précision, mise à jour...) Comprendre qu’une analyse correcte ne peut émaner que de données propres et préparées Comprendre l’intérêt des synthèses numériques et graphiques pour décrire une variable statistique Comprendre l’intérêt des synthèses numériques et graphiques pour mettre en évidence des liaisons entre variables. Comprendre l'intérêt de l’utilisation d’un modèle probabiliste Appréhender la notion de fluctuation d'échantillonnage, notamment à l’aide de simulations probabilistes Prendre conscience de la différence entre modélisation statistique et analyse exploratoire Saisir la spécificité de l’analyse des données temporelles Comprendre l’intérêt des analyses multivariées pour synthétiser et résumer l’information portée par plusieurs variables Appréhender l’idée de confronter une hypothèse avec la réalité pour prendre une décision Apprécier les limites de validité et les conditions d’application d’une analyse Prendre conscience des différences entre des outils statistiques pour choisir le plus adapté Saisir l’importance de la mise en œuvre de méthodes  adaptées à des domaines et des données spécifiques (Marketing, Biostatistique, Statistique spatiale, Gestion …) Prendre conscience des limites des méthodes classiques pour l’analyse des données complexes (données massives, données mal structurées…) Comprendre les mécanismes de bases de l’intelligence artificielle (apprentissage statistique supervisé, échantillons d'apprentissage et échantillons de test…) Dans le contexte du développement d'outils décisionnels Dans le contexte d'une étude statistique En s’adaptant au niveau d’expertise, à la culture et au statut du destinataire En s’exprimant correctement, aussi bien en français qu’en anglais, à l'oral comme à l'écrit En veillant aux aspects éthiques, déontologiques et réglementaires d’utilisation et de diffusion des données En interprétant et contextualisant les résultats (citations, vérification des sources, esprit critique) En utilisant la forme de restitution adaptée En tenant compte des réalités économiques et managériales des entreprises Prendre connaissance des biais rencontrés dans la mise en place d’une enquête Identifier l’importance de contextualiser ses données Mesurer l’importance de mettre en évidence des résultats clés par l’utilisation d’indicateurs pertinents Lors de la restitution des résultats, mesurer l’importance d’expliciter également la démarche suivie Comprendre les intérêts de la data visualisation et de l’infographie Mesurer l’importance d’une expression précise et nuancée dans la communication en français et dans une langue étrangère des résultats Saisir l’intérêt de mobiliser de manière proactive des ressources métiers liées à l'environnement (y compris économique, international…) Savoir défendre ses choix d’analyses Saisir la nécessité de choisir des indicateurs pertinents pour communiquer sur les résultats Prendre conscience de la rigueur requise dans ses productions et dans la communication à leur propos Comprendre les enjeux des relations en milieu professionnel adaptées à l’interlocuteur et à sa culture Savoir transformer la donnée pour la mettre en conformité avec des normes (anonymisation, normalisation) Mesurer l'impact d'un respect de la législation en terme de droit des données. Identifier les clés d'une bonne communication (procédures et techniques utilisées) Mesurer l’importance de comprendre et de répondre à l'ensemble des problématiques posées Être force de proposition Prendre conscience de la nécessité d’intégrer la vision de l’interlocuteur (transversalité, international, multiculture, niveau d’expertise…) Dans le contexte du déploiement d'une solution décisionnelle Dans le contexte d'automatisation de reporting et de visualisation En mettant en œuvre une structuration des données adaptée à leurs caractéristiques (type, volume...) En assurant la qualité des données et minimisant les biais liés à l’incertitude et l’imprécision dans les sources En étant sensible aux aspects éthiques, déontologiques et juridiques d’utilisation et de diffusion des données En réalisant des solutions de visualisation spécifiques aux données métier En intervenant à différents niveaux de la chaîne décisionnelle En utilisant des méthodes de développement logiciel Comprendre le rôle fondamental de l’analyse des besoins et de l’existant dans un projet décisionnel (architecture, visualisation...) Percevoir les enjeux de l’automatisation et de l'interopérabilité d’un ensemble de tâches  Prendre conscience des différences entre outils (logiciels, langages) pour choisir le plus adapté Comprendre le cycle de vie d’un projet informatique Prendre conscience de la nécessité d’utiliser des moyens spécifiques pour exploiter les Big Data ou les flux de données Défendre ses choix de solution par un argumentaire éclairé Réaliser l’intérêt d’appliquer les méthodes de développement dans la réalisation d’un projet informatique Apprécier l’intérêt de l’utilisation d’un gestionnaire de versions de code Dans le contexte d’une analyse statistique Dans le contexte d'un développement statistique En choisissant le modèle adapté à la situation En maîtrisant la qualité du modèle En s’adaptant aux spécificités (données, enjeux, méthodes) d'un domaine d'application particulier (santé, marketing, assurance, qualité, socio-démographie...) En s'adaptant à la complexité des données (données massives, données mal structurées, flux de données…) Comprendre l'intérêt de planifier le recueil des données Appréhender les difficultés et les limites rencontrées dans la mise en œuvre d'un terrain de collecte Comprendre l'impact du type de données sur le choix de la modélisation à mettre en œuvre Apprécier les limites de validité et les conditions d'application d'un modèle Réaliser l'importance de la mise en œuvre d'une procédure de test statistique pour valider ou non une hypothèse Comprendre l'intérêt des approches statistiques pour la fiabilisation, la validation, les incertitudes, les imprécisions des données Comprendre l'intérêt de la problématique métier pour réaliser la modélisation Viser la réalisation d'un processus de modélisation dans son ensemble Prendre conscience des différences entre les modèles pour choisir le plus adapté Prendre conscience de la nécessité d'utiliser des moyens spécifiques pour analyser les données massives ou les flux de données