XL 2016 Utilisation de macro Internet explorer obsolète

R1-

XLDnaute Junior
Bonjour,

Je travaille avec de grandes quantités de données provenant du web. La plupart de mes macros utilisent les modules d'automatisation d'Internet Explorer. Cependant, le problème réside dans le fait qu'Internet Explorer prend de moins en moins en charge de sites web, en particulier les sites modernes qui utilisent du JavaScript.

On peut donc opter pour des requêtes HTTP, mais même dans ce cas, dès que le site est un peu complexe, on se retrouve bloqué.

La dernière option consiste à utiliser Selenium. Cependant, lorsqu'on veux partager le fichier Excel avec d'autres utilisateurs, il peut être compliqué d'expliquer comment installer Selenium, le maintenir à jour, etc.

C'est pourquoi je me demande s'il existe une méthode qui ne requiert pas les trois solutions mentionnées précédemment et qui permette de récupérer des informations sur le web, notamment depuis des sites web modernes.

Merci d'avance pour vos conseils.

Cordialement,
R1
 

StagExcelle

XLDnaute Junior
Bonjour le forum

J'ai parfois le même type de besoin mais après lecture de la charte quand je me suis inscrit
Cette partie de la charte
2.8 - Les demandes de développements relatives à des extractions de données sur des sites interdisant ces pratiques dans leurs conditions générales sont interdites.
a fait que j'ai rangé mes questions sur le sujet dans les oubliettes.

En cherchant le mot webscraping, je comprends mieux ce point de la charte
 

R1-

XLDnaute Junior
Bonjour,

Bien entendu, il y a tout de même un intérêt à effectuer du web scraping sur des sites qui n'interdisent pas cette pratique, en particulier les sites gouvernementaux qui mettent à disposition des ressources telles que des données géographiques, etc.
 

patricktoulon

XLDnaute Barbatruc
re
en général ces sites qui l'autorise fournissent une API pour ca
très souvent payante et pas toujours manipulable par vba

et pour info les pages web(toutes ) ont toujours utilisé du javascript 🥳 😅

le JavaScript est ce qu'est le vba a un fichier XLSM;)
 

R1-

XLDnaute Junior
Bonjour,

Je faisais bien évidemment référence aux versions récentes de JS, et au contrôle dynamique de ces pages.

En ce qui concerne les sites gouvernementaux, très peu d'entre eux proposent des APIs. Par exemple, j'utilise fréquemment le site de la Commission économique pour l'Europe des Nations Unies (UNECE) pour extraire des données économiques et géographiques, mais malheureusement, aucune API n'est disponible.

De même, au sein de mon entreprise, nous utilisons de nombreux outils que nous payons, voire que nous avons développés en interne. Cependant, obtenir une clé API est souvent impossible en raison de considérations politiques et hiérarchiques. Allez demander à un service commercial une API qui mettrait potentiellement ce même service commercial au chômage... pas super efficace comme approche.

En conséquence, je me retrouve souvent contraint d'adopter la manière forte pour faire progresser les choses.
 
Dernière édition:

R1-

XLDnaute Junior
Donc toutes les personnes qui font du scraping le font illégalement ?

Par ailleurs dans la jurisprudence fournie plus haut : https://fr.wikipedia.org/wiki/Web_scraping
Le web scraping n'est que très rarement condamné, c'est la méthode pour accéder au données qui pose souvent problème (faux login, auto validation de captcha) ou alors une utilisation frauduleuse des données.

Enfin, il faut accepter qu'il y a juste des sites mal fait, qui pourrais proposer une API mais qui ne le font pas parce qu'il n'ont tout simplement pas envie de développer une API. Le site de l'UNECE par exemple propose ce genre de table : https://service.unece.org/trade/locode/be.htm sans pour autant proposer d'API.

Mais je comprend la volonté du forum de ne prendre aucun risque concernant le scraping.
 
Dernière édition:

Discussions similaires

Réponses
8
Affichages
873

Statistiques des forums

Discussions
314 735
Messages
2 112 305
Membres
111 502
dernier inscrit
Bluf57