Esta práctica ha sido desarrollada para la asignatura Tipología y ciclo de vida de los datos,
perteneciente al Máster Universitario en Ciencia de Datos, por la Universitat Oberta de Catalunya UOC.
El objetivo principal de dicha práctica es la aplicación de técnicas de web scraping, usando el lenguaje de programación Python para la extracción de datos de un sitio web y generar posteriormente un dataset con dicha información.
El sitio web no contiene un recurso robots.txt. A continuación se cita al autor y el sitio web, acorde a las especificaciones de los términos y condiciones de uso: "Erik Kulu, Nanosats Database, www.nanostar.eu"
Para poder hacer uso de la herramienta, hay que realizar una serie de pasos.
- Creamos un entorno virtual de Python y lo activamos.
python3 -m venv <nombre_env>
- Instalamos las dependencias, tanto del
requirements.txt
como delsetup.py
pip install -r requirements.txt
pip install -e .
- Hacemos uso del CLI con el comando
web-scraping
# Por ejemplo, queremos obtener la información de todos los nanosatélites del sitio web
# con variantes:
$ web-scraping scrape
$ web-scraping -a
$ web-scraping --all
Además, podemos obtener los datos del número de nanosatélites que queramos.
# Por ejemplo, queremos obtener la información de los primeros 75 nanosatélites del sitio web
# con variantes:
$ web-scraping scrape -n 75
$ web-scraping --number 75
O también, en función del estado de la misión que queremos obtener datos, podemos elegir entre launched
,
not-launched
o all
# Por ejemplo, queremos obtener la información de los primeros 850 nanosatélites del sitio web
# pero que hayan sido lanzados con éxito:
$ web-scraping scape -n 850 -s launched
$ web-scraping scape -n 850 --status launched