Compte rendu du Scrapathon Chilien

Se tenait le samedi 29 juin l’édition chilienne du Scrapathon.  Compte rendu.

25 journalistes, développeurs et ingénieurs ont participé samedi 29 juin à l’édition chilienne du Scrapathon. 

Les équipes étaient constituées de 2 à 5 personnes, avec une moyenne de 4 personnes.

L’accueil des personnes, la présentation de l’événement et la présentation des équipes se sont déroulés de 10h à 11h. De 11h à 12h a eu lieu le cours de scraping avec python, avec une dizaine de personnes assistant au cours.

Les équipes ont ensuite travaillé de 12h à 19h.

De 19h à 20h ont eu lieu les présentations des travaux. 4 membres du jury étaient sur place, les autres sont basés dans d’autres pays d’Amérique Latine.

L’accent avait été mis sur la représentation/visualisation des données :

Lien vers le Dashboard avec les divers projets :

1) « Carte scolaire » – « Busco Escuela »  Projet vainqueur du Scrapathon Chilien

Accéder au projet  : http://graves.cl/scrapaton/

Description
Le système chilien est très différent du système français. L’enseignement privé y est très présent.

Cette équipe propose une cartographie de Santiago répertoriant les écoles/collèges, privés et publics, en fonction du nombre de points obtenus à divers examens (2 en primaire et un en fin de collège, équivalent brevet je pense). Il propose de regarder la distance entre le domicile et les écoles, en fonction de leur « score ». On peut ainsi faire le type de recherche suivante : j’aimerais scolariser mon enfant dans un collège qui a plus de 15/20 de moyenne à l’examen, quelle distance minimum va-t-il devoir parcourir ? Combien vais-je devoir payer (coût des études + coût du transport) ?

Les données proviennent du Ministère de l’Education.

L’équipe gagnante se verra attribuer una MicroGrant de 1000 $US de la part du programme Knight Mozilla Open News, afin de l’aider à transformer le prototype en produit « fonctionnel » pouvant être publié par les médias et être ré-utilisé par d’autre programmeurs et organisations civiques.

2) Santé et qualité de vie pour les personnes du troisième âge

Cartographie du Chili où on peut voir des indicateurs de santé et qualité de vie des personnes âgées au Chili.
Notamment la répartition des gérontologues et voir qu’elle n’est pas du tout corrélée au nombre de personnes âgées dans chaque région.
Les données proviennent du Ministère de la Santé.

3) Vote des parlementaires

Widgets qui illustrent par exemple pour quels projets de loi ont voté les parlementaires.

4) Les primaires selon Twitter

Les primaires – de droite comme de gauche – (en vue des présidentielles en novembre) se sont déroulées hier au Chili. Avant cela il y a eu des débats télévisés et donc pas mal de commentaires sur twitter.
Cette équipe a proposé un outil de visualisation de la perception que les personnes ont (via tweets) des différents candidats.

5) Lien entre les politiques et les chefs d’entreprises (ou personnes siégeant dans les conseils d’administration des entreprises)
Pas de visualisation, ils se sont vraiment concentrés sur le scraping.

6) Application de réalité augmentée avec cartographie des activités culturelles

Projet ambitieux mais non abouti.

Un lien vers la page Meetup de l’événement :

En partenariat avec INRIA Chili et Chloé Rolland

Viva el Scrapaton ! Samedi 29 juin : le Scrapathon s’exporte au Chili.

INRIA CHILE organise samedi 29 juin la première édition chilienne du Scrapathon.

Rebaptisé Scrapaton, cet événement se tiendra de 10h à 20h à l’Université Diego Portales à Santiago du Chili et une récompense de 1000 $ viendra récompenser la meilleure équipe.

Tout savoir sur cet événement :

http://www.meetup.com/HacksHackersChile/events/121553142/?a=me1_grp&rv=me1&_af_eid=121553142&_af=event

Première Livraison du Scrapathon

Les premiers résultats du Scrapathon commencent à arriver. Avec un peu de retard, les équipes ont commencé à communiquer les données scrapées.

1ère livraison : la consommation électrique en France du 18 novembre 2010 au 11 juin 2013 référencée sur le site RTE, un travail effectué par Paul.

Consulter et télécharger les données sur DATA PUBLICA

 

Communiqué – Premiers résultats du Scrapathon

Mercredi 12 juin dernier Data Publica et ses partenaires ont réuni au Dojoboost 41 boulevard Saint-Martin à Paris une communauté de développeurs pour une épreuve ludique et unique, le Scrapathon, consacrée au recueil des données disponibles sur le web.

Avant le début des épreuves, ils étaient près de 50 journalistes, développeurs, ingénieurs, blogueurs et activistes à se réunir dès 16 heures pour se familiariser avec les techniques de scraping dont trois formations étaient dispensées.

Jean-Christophe Combaz, créateur du logiciel Outwit a donné un cours sur l’utilisation de l’un des outils disponibles les plus simples actuellement pour extraire et exporter des données.

La deuxième formation a été dirigée par Samuel Charron, ingénieur R&D chez Data Publica : consacrée aux techniques de scraping Python, elle a réuni une douzaine de personnes.

La troisième formation a été dispensée par Thomas Dudouet, ingénieur R&D chez Data Publica. Ce cours qui a réuni une demi douzaine de participants était centré sur les techniques de scraping Java.

A la suite de ces trois formations, Alan Walter, avocat spécialiste du domaine, a évoqué auprès des développeurs les bonnes pratiques ainsi que les problèmes juridiques à éviter pour un usage respectueux du recueil de données.

Encadrés par un groupe d’ingénieurs, 7 équipes ont alors travaillé de 19 heures à 23 heures 30 sur le recueil de données :

  • l’équipe 1 s’est concentrée sur le scraping de la carte scolaire à Paris

  • l’équipe 2 a travaillé sur les délibérations du conseil municipal à Paris

  • l’équipe 3 s’est penchée sur les données du site Ameli.fr

  • l’équipe 4 a extrait les données de consommation électriques nationales du site RTE

  • l’équipe 5 a commencé à recueillir les déclarations publiques d’intérêts des médecins de l’agence du médicament

  • l’équipe 6 a travaillé sur le site remixjobs pour essayer d’évaluer la part des stages et des CDI proposés

  • l’équipe 7 s’est attachée au site de la Haute Autorité de Santé pour extraire une liste des médecins certifiés

Presque toutes les équipes ont manqué de temps pour finaliser l’ensemble des tâches d’extraction qu’elles s’étaient fixées. Toutefois, elles se sont engagées à poursuivre leurs efforts et à livrer les données extraites dans les limites des conditions d’utilisation prévues par les sites scrapés.

Seule l’équipe 4 a réussi à extraire totalement dans le temps imparti les données concernant la consommation électrique nationale : un fichier détaillant la consommation électrique par quart d’heure du 16 novembre 2011 jusqu’au 9 juin 2013 sera diffusé jeudi 20 juin.

Dès que les autres équipes auront terminé leur travail de scraping, les données disponibles seront alors traitées et anonymisées si besoin, pour être ensuite diffusées comme prévu sur les sites Data-publica.com et nosdonnees.fr

A noter que samedi 29 juin se tiendra à Santiago du Chili une seconde édition du Scrapathon organisée par les équipes d’INRIA Chile.

[Equipe 7] Les médecins certifiés

Le scrapathon passe à la vitesse supérieure : les équipes ont été constituées et commencent à travailler sur leurs sujets concrets. Nous vous proposons une série de billets pour présenter chacune des équipes en lice pour ce 1er scrapathon…

Equipe n°7 – mission : exploiter la liste des médecins certifiés

Membres de l’équipe : Raphael, Frédéric et David.

Se faire opérer par un ophtalmo non certifié ? Toujours possible en 2013 ! Bon, sans dramatiser, il est toujours nécessaire de vérifier que son médecin  possède le sésame officiel certifiant sa compétence.

L’objectif de cette équipe: exploiter la liste des médecins certifiés disponible sur le site de la Haute Autorité de Santé, et éventuellement mettre en évidence les établissements qui ont le plus de médecins certifiés.

Le problème:  la liste des médecins fournie par l’HAS ne peut pas dépasser 1000 noms pour chaque requête… sur un total de 7000 médecins.

Où en sont-ils ?

Nos scrapers ont contourné cette difficulté en lançant des requêtes sur des unités territoriales dont le nombre de praticiens est inférieur à 1000. Ils ont ainsi pu agréger les données par nom, spécialité, établissements et dates de certification.  Par exemple, en Ile de France, le nombre de médecins certifiés est supérieur à 1400, d’où l’idée de lancer les requêtes au niveau des établissements.

Quelles pistes lancent-ils ? Ils proposent de descendre au niveau des établissements pour trouver le taux de certification par spécialité et par établissement. Et de comparer le niveau de certification en fonction des spécialités. Le risque étant de donner un avantage aux grands établissements…Ils proposent également de monter un service pour vérifier que le médecin est bien certifié. Le risque, ici, semble plutôt être juridique..