Recently Published
Regresión Lineal - Walmart
Este código implementa un modelo de **Regresión Lineal** para analizar las ventas semanales de Walmart. Se carga y limpia la base de datos, se generan nuevas variables de fecha, y se construye el modelo inicial. Luego, se eliminan variables irrelevantes para ajustar el modelo y mejorar su precisión. Finalmente, se presenta un resumen de los resultados del modelo ajustado.
Heart - Vectores de Soporte
Este código implementa un modelo de Máquina de Vectores de Soporte (SVM) para predecir enfermedades cardíacas a partir de datos clínicos. Se realiza la importación y exploración de datos, la división en entrenamiento y prueba, el entrenamiento de un modelo con kernel lineal, y la evaluación con una matriz de confusión. Finalmente, se genera una predicción para un paciente y se analizan posibles mejoras en el modelo.
Árbol de Decisión - Titanic
Este código implementa un modelo de árbol de decisión para analizar los factores que influyeron en la supervivencia de los pasajeros del Titanic. Se realiza la importación y limpieza de datos, transformando variables categóricas y eliminando valores faltantes. Finalmente, se analizan los resultados para identificar cómo el sexo, la clase social y la edad impactaron en la probabilidad de supervivencia.
Redes Neuronales - Boston
Este código implementa un modelo de red neuronal artificial para predecir el valor medio de las viviendas en Boston utilizando la base de datos BostonHousing. Se realizan los pasos de importación y exploración de datos, división en conjuntos de entrenamiento y prueba (70-30), entrenamiento de una red neuronal con neuralnet(), y generación de predicciones. El objetivo es modelar la relación entre múltiples variables predictoras y el precio de las viviendas en la ciudad.
Regresión Logística - Telco
Este código implementa un modelo de regresión logística para predecir si un cliente de la empresa Telco cancelará su servicio. Se realiza la importación, limpieza y transformación de datos, seguida de la división en entrenamiento y prueba. Luego, se entrena un modelo logístico binomial, se evalúa con matrices de confusión y accuracy, y se generan predicciones para nuevos clientes.
Random Forest: Houses
Este código implementa un modelo de **Random Forest** para predecir los precios de viviendas con la base de datos *House Prices*. Se realizan los siguientes pasos: **importación y limpieza de datos**, **transformación de variables categóricas**, **entrenamiento del modelo con `randomForest()`**, **evaluación del rendimiento con MAE, RMSE y R²**, y **generación de predicciones**. Finalmente, se visualiza la importancia de las variables para mejorar la interpretación del modelo.
CARET: Iris
Este código utiliza el paquete CARET (Classification And Regression Training) para entrenar y evaluar distintos modelos de aprendizaje automático en la base de datos iris. Se aplican técnicas de preprocesamiento, división de datos (80-20), y validación cruzada (cross-validation). Se comparan seis modelos: SVM Lineal, SVM Radial, SVM Polinómico, Árboles de Decisión, Redes Neuronales y Bosques Aleatorios. Los resultados se analizan mediante matrices de confusión y métricas de precisión para evaluar el rendimiento en datos de prueba y entrenamiento.
Clusters - Vinos
Este código aplica clustering para segmentar datos de vinos y estados de México en función de características químicas y demográficas. Para los vinos, utiliza K-Means sobre datos escalados para identificar patrones en tres cultivares. En el caso de México, segmenta los estados según población y visualiza los resultados en un mapa geoespacial con etiquetas descriptivas.
Clusters - USArrests
Este código analiza la criminalidad en EE.UU. en 1973 con la base de datos USArrests, aplicando clustering para segmentar los estados según tasas de arrestos. Se visualizan los clusters en un mapa y se clasifica la seguridad por nivel. Además, se construye un modelo de Random Forest para predecir niveles de seguridad en función de las tasas de crimen y población urbana.
Text Mining: IT
Este código realiza minería de texto utilizando R, desde la extracción de datos mediante OCR hasta el análisis de sentimientos y la visualización con nubes de palabras. Se utilizan bibliotecas como tesseract, pdftools y syuzhet para procesar imágenes y documentos, analizar emociones y generar representaciones visuales. Además, se incluyen técnicas predictivas como regresiones y redes neuronales para extraer información valiosa del texto.
Actividad Clima
Corregida