Scraping de données et automatisation de la qualification des données collectées

Qui est COSCIGO ?

 

COSCIGO est une plateforme innovante de mise en relation entre formateurs et apprenants. La plateforme regroupe en un seul endroit tous les outils pour communiquer, créer des liens, transmettre des connaissances et plus largement partager des informations et ce de manière efficiente. COSCIGO met d’ores et déjà à disposition un service de webconférence, et lancera très prochainement les fonctionnalités de bureau virtuel, d’organisation de formation et de développement d’activité.

Contexte et enjeux de COSCIGO

 

 

COSCIGO est un nouvel arrivant dans le secteur du e-learning, secteur en plein développement et étant déjà très concurrentiel. Un des enjeux principaux de COSCIGO était donc de se démarquer des autres acteurs de la formation en ligne. Pour cela, une phase UX et Data était nécessaire afin d’en apprendre plus sur les concurrents et de comprendre leurs utilisateurs, ce qu’ils veulent, et comment ils le veulent. Ceci afin que COSCIGO puisse proposer une plateforme répondant le plus précisément possible aux attentes des utilisateurs de la formation en ligne, qu’ils soient formateurs ou apprenants.

Pourquoi déployer un scraping et une automatisation du tri des données récoltées pour COSCIGO ?

 

La récolte manuelle de données et de feedbacks étant souvent longue et chronophage, une automatisation était indispensable afin d’avancer de manière efficace sur le sujet. COSCIGO se trouvant dans une phase growth, la méthode de scraping afin de récolter des feedbacks précis sur le web concernant les plateformes concurrentes a été la plus évidente. En effet, cette méthode est la plus efficiente pour récolter des informations structurées rapidement et à moindre coût. Une fois les données récoltées, l’utilisation du machine learning afin de classer automatiquement les feedbacks par types était également la solution la plus performante.

 

Comment avons-nous concrètement accompagné COSCIGO sur cette mission ?

 

      Identification des données à extraire

      Mise en place du moteur de scraping (script) avec envoi dans une base Google Sheets

      Machine learning : entraînement au classement des données par types avec l’outil BigML

      Mise en place de l’automatisation de l’extraction et du classement des données récoltées en réécriture sur la base

 

Résultats et performance de cette mission

 

 

  • Livraison prévue pour fin 2020.

 

ETUDE DE CAS
SUIVANTE

 

Cultura

Audit de la performance e-commerce du moteur de recherche interne (Elasticsearch)