Dossiers / Programmes / Formation continue - Offre de services

Nouveau programme de spécialisation (AEC) en données massives (Big Data) et intelligence d’affaires au Collège de Bois-de-Boulogne !



Par Mme Halia Ferhat conseillère pédagogique, responsable des programmes informatiques, à la formation continue du collège de Bois-de-Boulogne.

Ingénieure en informatique (option Système d’information), et détentrice d’une Maitrise en informatique décisionnelle et d’une Maitrise en linguistique, elle a enseigné le génie logiciel dans plusieurs universités à Alger, Toulouse, Tunis et Montréal (UQAM) avant de devenir professeure au département informatique du collège de Bois de Boulogne.

Surnommées « le pétrole du XXIe siècle », les données personnelles et les données des entreprises constituent une mine d’or pour les organisations. Les sociétés de commerce en ligne ont été les pionnières dans le profilage dans un but publicitaire. C’est à partir des traces laissées sur le web par les consommateurs (achat d’un billet d’avion, choix musicaux, heures de fréquentation, etc….) que cela est possible. L’acquisition et l’exploitation des données deviennent un passage obligé pour innover et créer de la valeur. Cependant, devenues tellement volumineuses, le traitement de ces données avec des outils classiques de gestion de bases de données ou de gestion de l’information est impossible. Cette réalité a conduit à l’émergence de nouvelles professions. Un nouveau programme de spécialisation développé par le Collège de Bois-de-Boulogne vise précisément le développement des compétences requises pour occuper ces postes.

Le nouveau programme Spécialiste en mégadonnées et intelligence d’affaires (BigData et BI) de Bois-de-Boulogne !

Le programme Spécialiste en « Big DATA et Intelligence d’affaires vise à former des spécialistes dans les différents métiers émergents dans le domaine. Il s’adresse à toutes les personnes qui possèdent des compétences en informatique ou en mathématique et statistiques et qui désirent relever le défi d’appartenir à cette nouvelle race d’informaticiens.

Ce programme a été défini par compétences, à partir du profil des compétences dressé par des spécialistes en big data. Ce sont des experts venus de divers pays et embauchés par des chasseurs de têtes pour venir travailler au Québec pour diverses organisations (Ubisoft, BNA, CGI, Décidéo, etc.)

Le programme est d’une durée de 465 heures et comprend 8 cours, tous obligatoires

En apprendre plus sur les mégadonnées !

À la croisée de l’informatique, des statistiques et de la gestion de l’information, les mégadonnées (Big Data) constituent un marché en pleine croissance.

D’après Wikipédia :

« Les big data, littéralement les “grosses données”, ou mégadonnées (terme recommandé par l’OQLF1 au Canada et par la DGLFLF2, en France, Journal officiel du 22 août 2014), parfois appelées données massives, désignent des ensembles de données qui deviennent tellement volumineuses qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de bases de données ou de gestion de l’information. »

Nous utilisons au quotidien des  applications et des capteurs matériels et logiciels produisant des données qui ne peuvent être, en raison de leur volume ou de leur nature, exploités par les systèmes traditionnels. Le volume de données numériques augmente de manière exponentielle. Ainsi, ces deux dernières années, l’humanité a créé, 90 % de l’ensemble des données. Les ordres de grandeur ont changé. On parle à présent de zettaoctets (de 2,8Zo en 2012, nous passerons à 40Zo en 2020). Le zettaoctet (Zo) valant1021octets, et dont le symbole est Zo.

Le défi aujourd’hui, est de capturer, stocker, rechercher, partager, analyser et visualiser ces données pour faciliter la prise de décision à tous les niveaux (politique, économique, scientifique, sociale, notamment pour l’analyse d’opinions, santé, mobilité, réseaux intelligents, finance, sécurité, etc.).

La gestion et l’analyse des mégadonnées (Big Data), la plus prometteuse et la plus controversée, est probablement la prédiction du futur. Pour demeurer concurrentielles, les entreprises vont devoir utiliser le potentiel du « crowd prediction » (prédication par les foules), pour leur processus de prises de décision.

Une étude du cabinet de conseil américain Gartner prévoit que la demande de compétences autour des mégadonnées (Big Data) atteindra 4,4 millions d’emplois dans le monde en 2015 et que seulement 40 % des besoins pourront être couverts. Au Canada, l’essor de la demande en spécialistes des mégadonnées (Big Data) est en pleine expansion. Le gouvernement canadien espère la création de 10 000 emplois directs dans le secteur d’ici 2018.

Quelles sont les origines de ce changement de paradigme ?

• On parle de la nécessité de comprendre les « 3 V du big data »

Volume : la croissance des quantités d’informations générées par l’humanité est exponentielle. C’est un véritable tsunami de données qui balaye notre planète. On dit que l’humanité a généré ces deux dernières années plus de données qu’elle n’en a générées durant toute son existence 

Variété : avec les réseaux sociaux, les téléphones et les objets intelligents, la nature des données générées est de plus en plus variée. En plus de données structurées, nous échangeons des images, des films, des tweets, etc.

•  Vitesse : La vitesse de capture, d’échange, d’analyse et de traitement des données devient fondamentale pour les usagers. Nous voulons des résultats en temps réel.

• Ces 3 V permettent de créer de la valeur (le 4e « V » du big data). En effet grâce à une meilleure compréhension des besoins du client, l’entreprise a plus de chance de le conserver en lui offrant un produit ou un service personnalisé.

Quelles sont les conséquences de ce changement ?

Le processus de décision dans les organisations est assujetti au traitement de ces données massives. Il faut « trouver l’aiguille dans la botte de foin ». Pour ce faire, les outils classiques de gestion de bases de données ne sont plus en mesure de traiter ces volumes d’information en temps réel . L’évolution des  technologies a engendré la création de nouveaux outils adaptés à cette nouvelle réalité (des outils de traitement de données massif comme Hadoop, Map Reduce, etc. et des outils de visualisations comme R, tableau et Microstratégie, etc.)

Le manque de spécialistes est signalé par les entreprises. C’est en raison de ces manques que les employeurs de nos finissants des programmes « Concepteurs de bases de données » et « Analystes programmeurs »  nous ont sollicités pour développer ce nouveau programme.

Étant donné l’engouement suscité par le nouveau programme, le Collège a rapidement dû revoir à la hausse le nombre de places disponibles dans sa première cohorte. L’ajout d’un 2e groupe, devant débuter le 26 octobre, s’est avéré nécessaire afin de répondre à la demande.

Plusieurs entreprises publiques et privées nous ont contactées pour le recrutement de nos finissants et le montage de projets en mégadonnées. De plus en plus d’entreprises réalisent que les Big Data ne sont pas un simple phénomène de mode mais une nouvelle manière de développer les affaires.

Collaboration Marie Lacoursière Portail du réseau collégial



Les partenaires du Portail