
Scrapling apuesta por un scraping “autorreparable” en Python: parser adaptativo, spiders y una API unificada
En el ecosistema de Python, el web scraping lleva años moviéndose entre dos extremos: scripts rápidos que funcionan “hoy” y sistemas de crawling robustos que acaban convirtiéndose en proyectos de mantenimiento continuo. En medio de ese dilema aparece Scrapling, un framework creado por Karim Shoair (D4Vinci) que intenta atacar el problema donde más duele a equipos técnicos y data engineers: no tanto cómo construir un scraper, sino cómo mantenerlo vivo cuando la web cambia. La tesis de Scrapling es clara: los rediseños rompen selectores, los cambios en el DOM descolocan rutas de datos, y el coste real del scraping suele estar en volver a ponerlo en pie. Para ello, el proyecto combina tres piezas en una sola librería: un parser
