Nous sommes un groupe de quatre étudiants, Alice, Pierre, Rodrigo et Jean Paul, en formation Data Analyst à la Wild Code School.
Dans le cadre de notre apprentissage, nous réalisons un projet ambitieux pour un client fictif : un cinéma situé dans la Creuse qui souhaite se moderniser, dans une région où l’activité cinématographique est en perte de vitesse.
Ce projet combine études de données, machine learning et outils de visualisation afin de concevoir un moteur de recommandation qui répondra aux besoins spécifiques du client.
- Contexte et Objectifs
- Organisation du Projet
- Outils Utilisés
- Phases du Projet
- Missions et Livrables Attendus
Le client, un cinéma local de la Creuse, souhaite moderniser son offre en proposant un service en ligne permettant de recommander des films. L’objectif final est de développer une application intégrant :
- Des indicateurs clés (KPI) sur les films et les acteurs.
- Un système de recommandation de films basé sur des algorithmes de machine learning.
L’application sera mise à disposition des clients comme un service supplémentaire.
Lien lancement Projet : https://wildcodeschool.github.io/data-training-resources/projet/projet-2/
Pour mener à bien ce projet, nous avons établi un planning en plusieurs phases :
-
Phase 1 : Étude de marché
- Analyser la consommation cinématographique dans la Creuse.
-
Phase 2 : Exploration et Nettoyage des Données
- Appropriation des datasets IMDB et TMDB.
- Nettoyage et préparation des données.
-
Phase 3 : Analyse Statistique et Visualisation
- Identifier des tendances : évolution des films, acteurs récurrents, genres populaires.
- Réaliser des visualisations claires et impactantes.
-
Phase 4 : Machine Learning
- Implémenter un système de recommandation basé sur les algorithmes de clustering ou filtrage collaboratif.
-
Phase 5 : Conception d’une Interface
- Développer une interface utilisateur pour consulter les recommandations et visualiser les KPI.
- Python : Pandas, Matplotlib, Seaborn
- Google Colab / Jupyter Notebook/ VS Code : pour coder et documenter notre travail
- Scikit-learn : pour le machine learning
- Power BI
- Streamlit
- Analyser les données de consommation locale.
- Identifier les attentes potentielles des spectateurs de la Creuse.
- Charger et nettoyer les datasets IMDB et TMDB.
- Exporter une version allégée et pertinente des données.
- Tester plusieurs algorithmes pour créer un système de recommandations efficace.
- Développer l’interface utilisateur.
- Finaliser le projet et préparer une présentation claire pour le client.
- Présenter une analyse approfondie des données et des indicateurs pertinents.
- Implémenter un système de recommandation fonctionnel.
- Créer une interface utilisateur intuitive pour le client.
- Un notebook Python documenté : exploration, nettoyage et visualisations.
- Un dashboard présentant les KPI clés.
- Un notebook contenant le système de recommandation.
- Une présentation finale expliquant les étapes du projet, les méthodes employées et les perspectives d’amélioration.
Nous avons décidé de centraliser tous les livrables sous forme d’un dépôt GitHub structuré et dynamique.
Ce dépôt contient :
- Les notebooks documentés avec le code et les analyses.
- Les visualisations et les fichiers associés.
- Un fichier README explicatif pour guider l’utilisation et la compréhension des livrables.
Ce dépôt sera également intégré dans nos portfolios respectifs, servant à démontrer nos compétences de Data Analyst et à valoriser ce projet auprès de futurs recruteurs ou collaborateurs. Il reflète à la fois notre capacité à gérer un projet collaboratif, tout en répondant à des enjeux concrets d’un client. Il allie rigueur, créativité et collaboration pour atteindre les objectifs fixés.