Ruby classes to make it easier to crawl a website, find the items you need (products usually) and save them to CSV
Componer clase de parseado de la web deseada extendiendo Retriever (ejemplo: osculati.rb).
getElementData() realiza la mayoría del trabajo.
En la mayoría de los casos habrá que añadir métodos para lidiar con la estructura html de cada web,
además de override algunos de los base que son en su mayoría muy genéricos
Definir un init.rb. Require: ‘url.rb’, ‘osculati.rb’, ‘csvOutput.rb’.
Instanciar url, retriever y csvOutput y pasarles los parámetros necesarios:
para retriever llamaremos addLanguage para añadir los idiomas que queremos recojer,
y addElements() para añadir elementos html a recojer,
y linksToFollow() para añadir clases o ids de links a seguir
y previousUrlLog() con path a archivo que guardará las url ya parseadas para no repetirlas
csvOutput contendrá path del archivo csv donde se guardarán resultados (lo crea si no existe).