https://github.com/jhonshua/web_scraping_api_fastapi
Extrayendo datos de Amazon con Selenium | Web Scraping| FastApi|actualmente esta api esta en desarrollo
https://github.com/jhonshua/web_scraping_api_fastapi
api api-rest fastapi pgadmin4 python3 scraping selenium selenium-python sql web-scraping
Last synced: 10 months ago
JSON representation
Extrayendo datos de Amazon con Selenium | Web Scraping| FastApi|actualmente esta api esta en desarrollo
- Host: GitHub
- URL: https://github.com/jhonshua/web_scraping_api_fastapi
- Owner: jhonshua
- License: mit
- Created: 2024-12-20T16:51:42.000Z (about 1 year ago)
- Default Branch: main
- Last Pushed: 2024-12-27T20:05:58.000Z (about 1 year ago)
- Last Synced: 2025-02-17T11:46:19.344Z (about 1 year ago)
- Topics: api, api-rest, fastapi, pgadmin4, python3, scraping, selenium, selenium-python, sql, web-scraping
- Language: Python
- Homepage:
- Size: 70.3 KB
- Stars: 1
- Watchers: 1
- Forks: 0
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
- License: LICENSE
Awesome Lists containing this project
README
# titulo:
## Web Scraping

* Extrayendo datos de Amazon con Selenium | Web Scraping | FastApi
* Esta API utiliza técnicas de scraping para obtener información relevante de Airbnb y ponerla a disposición de los usuarios.
## Tecnologías Utilizadas
* FastAPI
* Python
* PostgreSQL
* Selenium
* BeautifulSoup
* Docker


## Instalacion:
Bash
Clonar el repositorio:
git clone https://github.com/tu_usuario/tu_repositorio.git
Crear un entorno virtual:
python -m venv env
Activar el entorno virtual:
# En Windows
env\Scripts\activate
# En Linux/macOS
source env/bin/activate
Instalar las dependencias:
pip install -r requirements.txt
Ejecutar la API
uvicorn main:app --reload
## Estructura de carpetas propuesta:
├── .env # variebles
├── README.md # instrucciones y inf de la api
├── LICENSE # licencia de la api
├── requirements.txt.py # las dependencias
├── main.py # arranca la api
├── dockerfile # define como construir la imagen para la api
├── .gitignore # archivos y carpetas que no deben serversionados
├── api.code-workspacee # Configuración para un entorno de desarrollo integrado (IDE)
├── .dockerignore # Similar a .gitignore, pero para Docker
├── utils/ # Funciones utilitarias generales
│ ├── scraping.py # Funciones relacionadas con el scraping
│ └── scheduler.py # Funciones relacionadas con la programación de tareas
├── templates/ #
│ ├── email_templete/ #
│ └── generic_templete/ #
├── schemas/ # Definiciones de esquemas Pydantic
├── routes/ # Definiciones de las rutas de la API
├── models/ # Definiciones de modelos de base de datos (si los usas)
├── middleware/ # Middleware de la aplicación
├── env/ # Archivos de configuración de entorno
├── test/ # pruebas unitarias de las api
├── controllers/ # Lógica de negocio (controladores)
├── config/ # Lógica de negocio (controladores)
└── ...
## Clonar:
https://github.com/jhonshua/Web_Scraping.git
## documentacion:
https://app.getpostman.com/join-team?invite_code=271a7be96486bacc2dec27d68191660a9394da106257c2a95f0f06c120cc7210&target_code=88e5b57a52f6a3e7af7438cf6cb542e3
**by: Julio cesar llinas**
**www.linkedin.com/in/julio-cesar-llinas-ba65a6127**