Christophe Ponsard, Annick Majchrowski, Stéphane Mouton, Analyse des exigences pour des SI Big-Data - Retour d’expérience pour la gestion d’alarmes IT, InforSID 2016, Atelier *.data/SI pour l’aide à la décision et la diffusion d’alerte, Grenoble, 31 Mai-3 Juin 2016.
Le "big-data" ou "données massives’’ n’est pas un phénomène nouveau mais qui s’est notablement accéléré ces dernières années soutenu par le développement des réseaux haute vitesse, la connectivité mobile permanente, les réseaux sociaux et le Cloud. Face à la masse de données à laquelle leur Système d’Information (SI) est confronté, les entreprises ont pris conscience de l’enjeu stratégique que représente la capacité d’extraire de la valeur de ces données à la fois rapidement, pour un bon usage et au bon moment.
Afin d’aider à la conception de systèmes d’information ayant de telles capacités, plusieurs méthodes ont vu le jour au fur et à mesure de l’intensification de cette problématique en s’appuyant notamment sur le data-mining (crisp-dm), la business intelligence avant l’émergence de méthodes plus récentes au sein de projets européens tels que le Big Project ou d’acteurs IT majeurs tels qu’IBM (stampede).
Dans le cadre de cet exposé, nous donnons un aperçu des éléments clefs d’une démarche d’analyse des exigences orientée "Big Data" et nous la contextualisons à un exemple inspiré d’une étude de cas industrielle de génération d’alarme IT.