Análisis de imágenes históricas en campañas, medios y comunicación oficial relacionada con la concientización y difusión de hitos sobre el cambio climático en los últimos 10 años, tanto en contenido como en viralidad y reacciones.
Sección referente a las técnicas de Procesamiento de Lenguaje Natural (NLP por sus siglas en inglés Natural Language Processing) del proyecto. La liga al repositorio oficial es la siguiente: Nanook.
Es imperativo respetar las convenciones de esta estructura de folders para facilitar el seguimiento de proyectos.
├── LICENSE
├── README.md <- The top-level README for developers using this project.
├── data
│ ├── corpus <- Corpus (preprocessed words)
│ ├── preprecessed <- Intermediate data that has been transformed.
│ └── raw <- The original, immutable data dump.
│
├── references <- Data dictionaries, manuals, and all other explanatory materials.
│
│
├── requirements.txt <- The requirements file for reproducing the analysis environment, e.g.
│ generated with `pip freeze > requirements.txt`
│
├── src <- Source code for use in this project.
│ │
│ ├── env <- The requirements file for reproducing the analysis environment, e.g.
│ │ │ generated with `pip freeze > requirements.txt`
│ │ └── requirements.txt
│ │
│ ├── notebooks <- Jupyter notebooks. Naming convention is a number (for ordering),
│ │ the creator's initials, and a short `-` delimited description, e.g.
│ │ `01-emo-preprocess-data`.
│
└── tox.ini <- tox file with settings for running tox; see tox.readthedocs.io