Skip to content

Resultados y Análisis de Palabras Clave

Ilustre Daniel edited this page Feb 23, 2025 · 4 revisions

Resultados de los Modelos

Se evaluaron tres modelos de aprendizaje supervisado para la detección de noticias falsas, obteniendo los siguientes resultados principales:

  • SVM con TF-IDF:
  • Precisión: 0.58
  • Recall: 1.00
  • F1-Score: 0.74
  • Comentario: Logró identificar todas las noticias falsas, pero su precisión se vio afectada debido a algunos falsos positivos.
  • LightGBM:
  • Precisión: 0.94 (Clase 0) y 0.76 (Clase 1)
  • Recall: 0.58 (Clase 0) y 0.97 (Clase 1)
  • F1-Score: 0.72 (Clase 0) y 0.85 (Clase 1)
  • Accuracy: 0.81
  • AUC-ROC: 0.87
  • Comentario: Logró un buen balance entre precisión y recall, destacándose por su eficiencia y rápida ejecución.
  • Multinomial Naive Bayes:
  • Precisión: 0.91 (Clase 0) y 0.74 (Clase 1)
  • Recall: 0.54 (Clase 0) y 0.96 (Clase 1)
  • F1-Score: 0.68 (Clase 0) y 0.84 (Clase 1)
  • Accuracy: 0.78
  • Comentario: Ofreció buenos resultados considerando su simplicidad y rapidez, aunque su recall para la clase 0 fue menor.

El modelo seleccionado para las predicciones finales fue LightGBM, debido a su mejor equilibrio entre precisión y recall, así como su alto AUC-ROC de 0.87, lo que indica una capacidad sólida para diferenciar entre noticias falsas y verdaderas.

Clone this wiki locally