Este proyecto tiene como objetivo recolectar y limpiar datos de tres sitios web diferentes utilizando web scraping. Los datos recolectados se utilizarán para análisis y estudios de mercado en los sectores inmobiliarios y de servicios de internet.
- LosTiempos - Sección de Inmuebles
- Zillow - Sitio de Bienes Raíces
- ATT - Paquetes de Internet
- Python 3.x
- Virtualenv (opcional, pero recomendado)
-
Clonar el repositorio:
git clone https://github.com/WilliamCallao/ATT-Automated-Scraping-Tool.git cd tu_repositorio
-
Crear un entorno virtual (opcional):
python -m venv env source env/bin/activate # En Windows: env\Scripts\activate
-
Instalar las dependencias para cada subproyecto:
cd ATT_Tarifas pip install -r requirements.txt cd ../LosTiempos_Inmuebles pip install -r requirements.txt cd ../Zillow_Inmuebles pip install -r requirements.txt
Para ejecutar el script de scraping de ATT:
cd ATT_Tarifas
python ATT_scraper.py
Para ejecutar la herramienta de recoleccion
cd ATT_Tarifas
python Programa.py
Para ejecutar el script de scraping de Los Tiempos:
cd LosTiempos_Inmuebles
python Scraper.py
Para limpiar los datos:
python DataCleaner.py
Para ejecutar el script de scraping de Zillow:
cd Zillow_Inmuebles
python Scraper.py