Todd Wilson

President at screen-scraper
Screen-scraper logo

Chez Scraper, nous collectons des données Web depuis 2002. Nous sommes donc présents depuis un certain temps déjà. Au cours de cette période, nous avons travaillé dans pratiquement tous les secteurs imaginables, du voyage au commerce électronique, et nous traitons beaucoup de documents publics officiels.

Nous sommes une entreprise relativement petite, composée principalement de développeurs et d’ingénieurs. C’est également mon parcours : je m’occupe beaucoup d’ingénierie. Nous disposons de nos propres produits dédiés à l’extraction de données, et nous utilisons principalement les données Web pour alimenter notre produit de Scraper.

Nous nous concentrons principalement sur les registres officiels, car cela représente une grande partie de notre activité. Les dossiers judiciaires recèlent une grande valeur. Il peut s’agir d’actes notariés ou de registres locaux de comtés. Il peut même s’agir d’informations publiques pouvant être utilisées à des fins de marketing ou de vérification des antécédents, par exemple.

Lors de la collecte de données Web publiques, l’expérience et la connaissance du fonctionnement des différents sites, acquises en observant divers schémas, sont essentielles. Je pense donc que ce qui nous rend attractifs aux yeux des clients potentiels, c’est notre niveau d’expertise et le fait que nous exerçons cette activité depuis plus longtemps et mieux que quiconque.

J’ai le sentiment que nous sommes très expérimentés et que nous maîtrisons parfaitement les outils disponibles. Accéder à ces informations sur un site web et les télécharger relève davantage de l’art que de la science. Si vous ne l’avez jamais fait auparavant, il est difficile de se lancer sans préparation et de commencer à le faire efficacement.

Collecter des données web et les préparer pour une analyse en interne n’est pas facile. Nous faisons de notre mieux pour rassembler et structurer les informations pour nos clients, mais parfois les sites web mettent en place des mesures pour se protéger contre les attaques par déni de service (DDoS).

Pour répondre aux administrateurs de sites web, nous devons ajuster les paramètres de notre côté, ce qui implique d’écrire des millions de lignes de code, tout en structurant les données que nous recevons, et en restant vigilants face aux autres défis de collecte de données qui peuvent survenir. Et cela va et vient.

C’est là qu’intervient Bright Data. Si un site web met en place des mesures pour nous empêcher d’y accéder, nous pouvons utiliser la plateforme de Bright Data pour récupérer les données web publiques dont nous avons besoin de la manière la plus efficace, fiable et flexible qui soit – généralement via les réseaux résidentiels, de centres de données et mobiles de Bright Data, ainsi que le Web Unlocker. Cela nous permet de rechercher, de surveiller et d’analyser les données, puis de transmettre ces précieuses informations à nos clients.

Bright Data est le service haut de gamme en matière de collecte et d’optimisation des données Web. C’est comme appuyer sur un bouton. Ils nous font gagner énormément de temps. Au lieu de devoir enquêter, ajuster et dépanner, nous disposons de données qui s’écoulent comme de l’eau. C’est tout simplement le meilleur en termes de réseau étendu qu’il offre, de la plateforme elle-même d’un point de vue technique, des API, de la flexibilité dont nous disposons et du service client de qualité supérieure dont nous bénéficions. C’est tout simplement une offre complète.

À l’aube de 2022, je serais surpris que le besoin de collecte de données ne continue pas de croître, surtout avec l’importance croissante accordée à l’intégration de stratégies de big data, qui permettent aux entreprises d’analyser les données, d’identifier les tendances et d’avoir un impact positif sur leurs résultats financiers.

Commencer est facile !

Essayer maintenant