Chez screen-scraper, nous faisons de la collecte de données web depuis 2002. Cela fait donc pas mal de temps que nous sommes là. Depuis lors, nous avons travaillé dans presque tous les secteurs que vous pouvez imaginer, des voyages au commerce en ligne, et nous nous occupons occasionnellement de dossiers publics officiels.
Nous sommes une entreprise relativement petite, qui emploie principalement des développeurs et des ingénieurs. C’est aussi ma spécialité, je fais beaucoup de travail d’ingénierie. Nous avons nos propres produits qui nous permettent de gérer l’extraction de données, et nous utilisons principalement des données web pour alimenter notre produit, le screen-scraper.
Nous nous occupons régulièrement de dossiers officiels, et c’est donc un domaine important pour nous. Les dossiers judiciaires peuvent rapporter gros. Il peut s’agir d’actes ou de dossiers locaux. Il peut même s’agir d’informations publiques pouvant être utilisées à des fins de marketing ou de vérification d’antécédents, par exemple.
Lorsque vous collectez des données web publiques, l’expérience et la connaissance de la façon dont les sites peuvent se comporter, acquises par l’étude des différentes stratégies mises en œuvre, sont essentielles. Par conséquent, je dirais que ce qui nous rend plus attrayants pour les clients potentiels, à mon avis, c’est notre niveau d’expertise et le fait que nous faisons ce travail depuis plus longtemps et de manière plus efficace que pratiquement tous les autres.
Je pense que nous sommes très expérimentés et que nous maîtrisons bien les outils disponibles. L’accès à ces informations et leur téléchargement à partir d’un site web sont des choses qui relèvent un peu plus de l’art que de la science. Si vous n’avez jamais fait cela auparavant, il est difficile de se lancer à froid et de travailler efficacement dès le début.
Il n’est pas facile de collecter des données web et de les préparer en vue d’une analyse en interne. Nous faisons de notre mieux pour recueillir et structurer des informations pour nos clients, mais il arrive parfois que des sites web mettent en place des mesures de protection pour éviter les attaques par déni de service (DDoS).
Pour répondre aux administrateurs de ces sites web, nous devons ajuster des paramètres de notre côté, ce qui implique d’écrire des millions de lignes de code, tout en structurant les données que nous recevons, et en restant à l’écoute d’autres problèmes de collecte de données susceptibles de survenir. Et ça continue en permanence.
C’est là qu’intervient Bright Data. Si un site web met en place des mesures pour entraver notre accès, nous pouvons utiliser la plateforme de Bright Data pour récupérer les données web publiques dont nous avons besoin de la manière la plus efficace, fiable, et flexible possible – généralement, grâce aux réseaux résidentiels, de centres de données et mobiles de Bright Data, ou avec le Web Unlocker. Tout cela nous permet de rechercher, de surveiller et d’analyser des données, puis de transmettre des informations exploitables à nos clients.
Bright Data offre un service optimal pour la collecte de données web et les services d’optimisation. C’est aussi facile que de basculer un interrupteur. Bright Data nous fait gagner beaucoup de temps. Pas besoin de faire des recherches, d’adapter et de résoudre des problèmes : nous disposons de données à volonté. Il s’agit tout simplement de la meilleure offre du marché du fait du réseau étendu qui nous est offert, de la qualité technique de la plateforme proprement dite, des API, de la flexibilité dont nous disposons et du service client exceptionnel que nous recevons. Tout est là.
En ce début d’année 2022, je serais surpris si les besoins de collecte de données ne continuaient pas à augmenter, en particulier dans le cadre de l’intégration de stratégies Big Data, qui permettent aux entreprises d’analyser des données, d’identifier des tendances et d’améliorer leurs résultats.