-
Notifications
You must be signed in to change notification settings - Fork 2
Home
https://docs.google.com/document/d/1pFCPnKQa3zHLuPBQiBEBksV6KqDV34kJcQGmzf_MQIg/edit?usp=sharing
https://docs.google.com/document/d/15xC_UTKqLLfof1KQiQ4vmDCk4WfVT0Fus6IHje_ihAk/edit?usp=sharing
https://docs.google.com/document/d/1qi0CYmJCKci184zFZQeymePht1c5Cov1MH8ULHV7iQA/edit?usp=sharing
https://docs.google.com/document/d/1EK5fL-bS8_tlHgbIp-a6MLrFpRCfRJx94DYyIW4pRGQ/edit?usp=sharing
Diseño de Arquitectura: https://docs.google.com/document/d/1TnhTV--4BSa6kLO3CCyK3rLcZofAxEC187iHd_MiJlc/edit?usp=sharing
Entidad Relación: https://docs.google.com/document/d/1l1ogt0LwQ2YTVgShoEf5EGZdvLTa63biLLwIpuNU4mg/edit?usp=sharing
Diseño del Pipeline: https://drive.google.com/file/d/1V2S8d11bdRnrww6llWv_LnnG5C-dB6BC/view?usp=sharing
https://docs.google.com/spreadsheets/d/1lDgbrE2h_PGnbqghJW76tcW7vAdDhdG9VjAcz8hnRPo/edit?gid=0#gid=0
https://drive.google.com/file/d/1aRuM8M_EjsYKMyRbE-Pb3P2BeyBqfEe_/view?usp=sharing
https://www.canva.com/design/DAGIIFGxFRo/DPtGm59mFQeKAIyylW8LqA/edit
El usuario interactúa con la interfaz de la aplicación, el navegador donde podrá hacer la búsqueda que necesite. Aquí es donde el input es recogido y procesado. Las categorías se muestran para poder especificar y reducir la búsqueda.
Después de que el usuario pone los datos necesario, la aplicación realiza una búsqueda web a través de una API de búsqueda personalizada. A continuación, se usa un web scraper, construido con Python y BeautifulSoup, para recoger enlaces web relevantes y extraer datos de ellos. Estos datos se clasifican y luego se almacenan en una base de datos, utilizando mongoDB.
Se tendrá un servidor web construido con FastAPI, con la cual manejaremos las solicitudes y respuestas del cliente. Los resultados interpretados por la IA se almacenarán temporalmente en un caché en el navegador para mejorar la velocidad y eficiencia de las futuras solicitudes.

El usuario interactúa con la interfaz de la aplicación, el navegador donde podrá hacer la búsqueda que necesite. Aquí es donde el input es recogido y procesado.
La aplicación después usa un web scraper para recoger información de la web. Estaría utilizando herramientas de Procesamiento de Lenguaje Natural (NLP) y Aprendizaje Automático (ML) para entender y estructurar mejor la información recopilada.
Después de recopilar los datos, se aplican algoritmos de ML para la clasificación y análisis, utilizando la biblioteca Gensim. Finalmente, los datos procesados e interpretados por la inteligencia artificial se almacenan en una base de datos a largo plazo, con lo que podemos asegurar buena organización y fácil recuperación para análisis futuros.

| Front End | Backend |
|---|---|
| Next JS | FastAPI |
| Tailwind | Serper |
| Lottie | BeautifulSoup |
| Cypress | MongoDB |
| OpenAI API | |
| Gensim |