DMAF - Trabajos de fin de Maestría en Ciencia de Datos
URI permanente para esta colecciónhttps://hdl.handle.net/11117/7421
Examinar
Envíos recientes
Mostrando 1 - 20 de 80
Ítem Acceso Abierto Acceso al agua potable y relación con la pobreza en la zona metropolitana de Guadalajara(ITESO, 2025-06) Peralta-Morfín, María L.; Silva-Gálvez, ArturoEste trabajo analiza la relación entre el nivel socioeconómico (NSE) y la disponibilidad de agua potable en la Zona Metropolitana de Guadalajara. Se parte del problema del acceso desigual al agua y su impacto en comunidades con menores recursos. El objetivo es evaluar si existe una correlación entre estos factores, utilizando modelos estadísticos y de aprendizaje automático. Se emplearon datos del Censo de Población y Vivienda 2020 del INEGI y del índice de NSE calculado por la AMAI. A partir de estos, se aplicaron distintos modelos: regresión lineal, regresión logística, árboles de decisión (regresión y clasificación) y una red neuronal multicapa. Las variables consideradas incluyeron indicadores de acceso al agua como presencia de agua entubada, tinacos y cisternas. Los modelos de regresión mostraron un bajo ajuste, con coeficientes R² cercanos a cero. Los modelos de clasificación aumentaron considerablemente en desempeño, siendo la red neuronal la que alcanzó la mayor precisión con un valor de 62.74 %. Los modelos sugieren una relación entre el NSE y el acceso al agua, pero sí revelan diferencias en el tipo de abastecimiento. La variable con mayor peso fue el acceso a agua entubada (VIV_3), el acceso a agua entubada y saneamiento está más presente en zonas con NSE alto, mientras que las zonas con menor NSE muestran una mayor dependencia de tinacos y cisternas. Los resultados también indican la falta de indicadores clave que limitan la capacidad para establecer una relación clara entre el NSE y el acceso al agua. Por ello, se recomienda ampliar la recopilación de datos para incluir variables adicionales que permitan un análisis más profundo y robusto de esta problemática.Ítem Acceso Abierto Modelo Híbrido Prophet/XGBoost Para Predicción Demanda de Inventarios Retail Automotive Aftermarket(ITESO, 2025-04) Iñiguez-García, Abraham; Silva-Gálvez, ArturoLa toma de decisiones fundamentada en datos se ha convertido en una necesidad imperativa para las empresas que buscan no solo mantenerse competitivas en el mercado actual, sino también impulsar un crecimiento sostenible a largo plazo. En un entorno empresarial cada vez más dinámico y complejo, confiar únicamente en la intuición o en experiencias pasadas ya no es suficiente. El análisis de datos permite a las organizaciones identificar patrones, predecir tendencias y tomar decisiones informadas que minimicen riesgos y maximicen oportunidades. Este proyecto se enfoca en la predicción de demanda de inventario de empresas en el sector de venta de piezas automotrices retail con el objetivo de que las decisiones estratégicas de la dirección se basen en datos sólidos, permitiendo así una mayor precisión y efectividad. Al implementar un enfoque basado en datos, se busca optimizar la planificación de recursos, anticipar las necesidades del mercado y mejorar la rentabilidad de la empresa. De esta manera, la compañía estará mejor equipada para tomar decisiones informadas que promuevan un crecimiento sostenible y una ventaja competitiva en su sector. Para el desarrollo de este proyecto, se utilizaron conjuntos de datos generados a partir de las bases de datos del sistema ERP productivo de una empresa perteneciente al ramo. Para el análisis de la predicción de demanda de inventario se implementó un algoritmo de series de tiempo llamado Prophet, así como algoritmo de machine learning XGBOOST que en conjunto crean un modelo híbrido donde tomamos las ventajas de ambos. El estudio comparó diversos modelos de predicción de demanda, demostrando que los enfoques modernos como Prophet y el Modelo Híbrido superan significativamente a los métodos tradicionales (ARIMA, ETS y Promedios Históricos), mostrando mayor precisión y adaptabilidad a fluctuaciones en los datos. XGBOOST y su versión mejorada presentaron un desempeño intermedio, superando a los modelos clásicos pero sin alcanzar el rendimiento de Prophet. Se evidenció la baja efectividad del modelo de Promedios Históricos, actualmente utilizado por la empresa, destacando la necesidad de adoptar técnicas más avanzadas. Además, el procesamiento riguroso de los datos excluyendo períodos irregulares y ajustando por eventos atípicos como la pandemia fue clave para garantizar resultados robustos. Estos hallazgos resaltan la importancia de implementar modelos adaptativos en entornos con alta variabilidad en la demanda.Ítem Embargo Aplicación de técnicas de ciencia de datos para el diseño de estrategias en Mentoralia A.C.(ITESO, 2025-06) Aguilar-Zúñiga, Laura S.; Silva-Galvez, ArturoTechnovation Girls es un programa global y virtual dirigido a niñas de 8 a 18 años, cuyo objetivo es desarrollar habilidades en tecnología y emprendimiento a través de un programa de doce semanas, al final del cual entregan un proyecto. En México, el programa es coordinado por Mentoralia A.C., una asociación sin fines de lucro que busca formalizar esfuerzos y establecer alianzas con instituciones educativas y empresas tecnológicas para promover la participación femenina en STEM. Un reto importante que enfrenta Mentoralia es la alta deserción: muchas estudiantes se inscriben, pero no completan el programa. Este estudio tiene como finalidad identificar un modelo predictivo que permita predecir si una estudiante completará el programa, así como encontrar los factores clave que influyen en su permanencia. En el estudio se usó la base de datos de participantes en México durante el periodo 2020–2024. Primero, se realizó un análisis exploratorio considerando variables como el año, número de estudiantes y mentores por equipo. Luego, se aplicó un análisis bivariado para comparar estas variables con la tasa de finalización. Se entrenaron modelos de Regresión Logística, PBC4cip, SVC y Redes Neuronales, evaluados mediante precisión, recall, F1-score y AUC-ROC. Además del desempeño, se analizaron las variables más influyentes en la predicción. Estos hallazgos pueden guiar estrategias futuras para mejorar la retención y apoyar la participación femenina en ciencia y tecnología mediante enfoques basados en datos.Ítem Acceso Abierto Regularization of Visual Transformers and Reinforcement Learning: an Approach to General Artificial Intelligence Evaluated through the ARC Benchmark(ITESO, 2025-05) Oviedo-Vázquez, Mario A.; Guerrero-Arroyo, Edgar A.El auge de los Transformers y los modelos de lenguaje autorregresivos ha impulsado su uso en diversos campos, pero también ha expuesto sus limitaciones, como la incapacidad de resolver problemas simples que se encuentren fuera de los datos de su entrenamiento, lo que refleja deficiencias en comprensión, razonamiento y planificación. Estas habilidades son esenciales para aplicaciones críticas, autos autónomos o aplicaciones médicas, donde se requiere adaptabilidad a situaciones imprevistas. Esta tesis propone un modelo que combina un Transformers con codificador visual modificado (ViT) y aprendizaje por refuerzo (RL) para abordar estas limitaciones. La evaluación se realiza con el Abstraction and Reasoning Corpus (ARC), un benchmark creado para medir habilidades cognitivas en IA, que hasta ahora no ha sido superado por otros modelos.Ítem Acceso Abierto Sistema de recomendación de productos en manufactura utilizando filtrado colaborativo(ITESO, 2025-05) Martínez-Guzmán, Quetzalcoatl; Silva-Gálvez, ArturoLa personalización en la recomendación de productos representa un reto clave para empresas con un amplio catálogo y una base diversa de clientes. En este trabajo, se aborda el problema de identificar productos que podrían interesar a los clientes de una empresa mexicana dedicada a la fabricación y distribución de herrajes y accesorios para aluminio y vidrio, con base en su historial de compras del último semestre. Actualmente, la empresa no emplea un sistema formal de recomendación, y las ventas se apoyan en la experiencia de los vendedores y en relaciones comerciales establecidas. Esto limita el alcance de posibles sugerencias personalizadas que podrían incrementar el volumen de ventas o generar retroalimentación valiosa por parte de los clientes. La hipótesis de este trabajo plantea que un sistema de recomendación basado en filtrado colaborativo puede detectar afinidades entre clientes y productos no adquiridos previamente, mejorando así la oferta comercial. Para probar esta hipótesis, se analizó el historial de compras en unidades vendidas, clasificando los productos de forma ordinal por cliente y aplicando diferentes métricas de similitud para generar recomendaciones. Se compararon los diferentes métodos con base en precisión, recall, hit rate y MAE. Los resultados muestran que es posible identificar productos relevantes para cada cliente con base en su comportamiento de compra y en las similitudes con otros clientes. Esta afirmación se respalda con la validación práctica del sistema, ya que las recomendaciones generadas fueron ofrecidas a clientes de prueba, logrando concretar ventas reales. Algunos algoritmos superaron a otros en términos de precisión y cobertura, evidenciando que la elección de la métrica de similitud y el enfoque colaborativo afectan directamente la calidad de las recomendaciones. Se concluye que los sistemas de recomendación colaborativos pueden complementar la labor de la fuerza de ventas al ofrecer sugerencias personalizadas, generando oportunidades de negocio adicionales y abriendo la puerta a decisiones comerciales más informadas y orientadas por datos.Ítem Acceso Abierto Pronóstico de ventas de tiendas de abarrotes en Zona Metropolitana de Guadalajara(ITESO, 2025-05) García-Hernández, Daniel; Motta-Bonilla, Byron M.Las tiendas de abarrotes de la zona metropolitana de Guadalajara compiten actualmente en un mercado en el que predominan cadenas de conveniencia, las cuales cuentan con recursos y ventajas significativas. En este contexto, resulta fundamental que los abarrotes independientes dispongan de herramientas predictivas que les permitan planificar sus ventas diarias con precisión. Este trabajo tiene como objetivo desarrollar un modelo matemático para la predicción de las ventas diarias de las tiendas de abarrotes dentro de la zona metropolitana de Guadalajara. La finalidad es proporcionar una herramienta de pronóstico que permita a estos negocios anticipar sus ventas diarias, optimizando así la toma de decisiones estratégicas. Para lograrlo, se propone un modelo SARIMA, debido a que las ventas diarias de este tipo de establecimientos presentan una fuerte estacionalidad semanal y estacionariedad. Estas características hacen que el modelo SARIMA sea una opción adecuada y efectiva para captar patrones temporales y proporcionar predicciones precisas, de igual manera se incorporan a este modelo el uso de variables exógenas, las cuales son variables externas que pueden afectar el comportamiento de la serie a pronosticar en este caso las ventas diarias, por medio del modelo StatsForecast de la paquetería Nixtla.Ítem Acceso Abierto A Comparative Analysis of Algorithms to Address the Imbalanced Dataset Problem in Federated Learning(ITESO, 2025-05) Durán-González, Erika S.; Gudiño-Mendoza, Gema B.Traditional training in Machine Learning (ML) algorithms requires data collected from various devices to be transferred to a central server, which poses potential security and data-privacy risks. An additional critical aspect of machine learning is class imbalance, which arises when certain classes are underrepresented, potentially leading to suboptimal performance, particularly for minority class data. Different approaches such as oversampling, undersampling, and synthetic data creation have been developed for machine learning to overcome this problem. Federated Learning (FL) is a promising privacy-preserving Artificial Intelligence (AI) framework that addresses the challenges presented in traditional machine learning training. In federated learning, class imbalance may also occur, but the previously mentioned approaches in machine learning are not directly applicable. In federated learning, the class distribution is unknown to protect privacy. Several federated learning algorithms have been developed to address this problem. This thesis aims to implement and compare three federating learning algorithms designed to address the class imbalance problem: Combinatorial Upper Confidence Bounds (CUCB), CLass IMBalance Federated Learning (CLIMB), and Federated Feature Distillation (FedFed). Three different data distributions were tested: label imbalance, quantitative imbalance, and double imbalance. To provide common ground for algorithm comparison, the implementation considers the same dataset and data pre-processing, the same neural network model, and hype-parameter training. After implementation, the results showed that CUCB had the best convergence rate, which is due to the algorithm inferring the data distribution from the test dataset. CLIMB addresses the local and global mismatch imbalance type, making the algorithm more robust and exhibiting the best performance in all data distributions. The FedFed does not perform as anticipated, despite utilizing the latest advancements in generative AI. Further exploration needs to be done in this implementation, where a complex environment is tested, such as increasing the number of clients.Ítem Acceso Abierto Modelo de Predicción para Empresa de Logística y Paquetería(ITESO, 2025-05) Aguilar-Casillas, Alejandro M.; Motta-Bonilla, Byron M.Este trabajo presenta una breve introducción al problema de una predicción de puntualidad en la entrega de envíos en una empresa transnacional de logística. El objetivo principal es desarrollar un modelo de análisis que permita optimizar la asignación de recursos y mejorar la precisión en los tiempos de entrega, aumentando así la satisfacción del cliente y reduciendo costos operativos. En particular, se aborda la relación entre el peso de los envíos, la frecuencia de operaciones y los costos logísticos asociados, utilizando técnicas de ciencia de datos y aprendizaje automático. El desarrollo del trabajo incluye la implementación de cuatro modelos: Máquina de Vectores de Soporte (por sus siglas en inglés SVM), Red Neuronal (Perceptrón Multicapa), Regresión Logística y XGBoost, evaluados según su capacidad para predecir la puntualidad de los envíos. Los resultados obtenidos muestran que la Regresión Logística es el modelo más efectivo, logrando un balance entre precisión, recuperación y exactitud, lo que lo convierte en la mejor opción para optimizar la operación logística en términos de confiabilidad y costos. Finalmente, se presentan las conclusiones, resaltando que este modelo permite a la empresa prever problemas y ajustar su estrategia operativa para cumplir con los tiempos de entrega establecidos en los contratos. La contribución principal de este trabajo radica en proporcionar un modelo analítico que optimiza la gestión de entregas y fortalece la competitividad de la empresa en el mercado global.Ítem Acceso Abierto Detección de imágenes DeepFake con Vision Transformers (ViT)(ITESO, 2025-05) Retolaza-Carlos, Oscar G.; Villalón-Turrubiates, Iván E.La accesibilidad a estos modelos ha promovido en gran medida la creación y distribución de contenido multimedia manipulado. La sofisticación de estos sistemas, combinada con la facilidad de uso y el acceso prácticamente a unos cuantos clics, ha permitido generar imágenes y videos hiperrealistas, que pueden emplearse tanto para el entretenimiento y la producción artística como también para fines poco éticos. Ejemplos particularmente preocupantes incluyen la creación de videos pornográficos falsos, en los cuales se utilizan imágenes cotidianas de una víctima para generar cuerpos desnudos hiperrealistas que luego son explotados comercialmente sin el conocimiento ni consentimiento de la persona afectada; la divulgación de noticias falsas o incluso la suplantación de identidad. Este avance conlleva retos éticos y sociales, porque el uso indebido de estas tecnologías podría propagar desinformación, crear sesgos o inclusive vulnerar la integridad de comunidades enteras. En particular, este trabajo aborda el uso de Vision Transformers (ViT), un modelo de deep learning, con la finalidad de contribuir a la creación de herramientas que adviertan sobre la autenticidad del material. Esto es crucial para un consumo responsable y seguro de la información. Por ello, el presente trabajo se centra en evaluar Vision Transformers (ViT) como método de clasificación de imágenes reales frente a falsas, conocidas también como DeepFakes, analizando sus fortalezas, limitaciones y vías de mejora. Con ello se busca contribuir a soluciones más efectivas que promuevan un uso ético y confiable de los medios digitales.Ítem Embargo Advanced Deep Learning Techniques for USD/MXN Structured Notes Predictive Modeling(ITESO, 2025-06) Ramos-Martínez, Ricardo; Campos-Macías, Leobardo E.This thesis investigates whether modern neural networks can enhance the issuance and selection of capital-protected structured notes in the Mexican market, concentrating on instruments linked to the USD/MXN exchange rate. Standard feed-forward and shallow recurrent models were first applied to a broad spectrum of payoff profiles—range accruals, double no-touch, and directional notes—but delivered limited out-of-sample stability and negligible economic value. Reframing the problem as a binary 7-day USD/MXN direction forecast narrowed the note universe to Strike Up and Strike Down structures and allowed the training set to extend back to 2010. A dual-stream GRU architecture was developed in which technical indicators (momentum, oscillators) and fundamental drivers (rate differentials, macro surprises) flow through parallel recurrent branches before merging in a shared decision layer. Bayesian hyper-parameter optimisation selected a compact configuration (five layers, 372 hidden units, dropout 0.3). When evaluated on 2024 out-of-sample data, the model achieved Accuracy = 64.7%, F1 = 71.7%, and AUC = 0.60, comfortably outperforming ARIMAX, logistic regression, and decision-tree baselines. The cumulative true-positive excess return (TPefe) tracked the CETE-28 benchmark within approximately ten basis points after embedded structuring fees, demonstrating commercial viability for investors who require weekly liquidity, principal protection, and yields at least equal to the domestic risk-free rate. The study shows that separating technical and fundamental information into dedicated recurrent channels, coupled with gated-unit dynamics and commission-aware evaluation, provides a robust and scalable template for machine-learning-driven structured-note selection in Mexico’s evolving markets.Ítem Acceso Abierto Analysis and Implementation of Different Open-Source Federated Learning Frameworks to Assess their Technical Implications(ITESO, 2025-05) Juan-Fernández, Antonio J.; Gudiño-Mendoza, Gema B.Google introduced Federated Learning, an approach to decentralized machine learning model training, in 2016. It is designed to allow the use of private data to train machine learning models without the need to possess the data or even "see" it. The main premise of Federated Learning is a paradigm shift from the traditional centralized machine learning training workflow to a distributed setting. In this setting, users carry out the training locally without ever revealing their data and only share the results of their efforts anonymously as model parameter updates, either to a local server or a network of other users. Over the years, several Federated Learning frameworks have emerged, each offering different sets of settings and serving either a broad or a particular purpose. While several comparisons have been made to determine the framework with the most comprehensive set of features, no comparison is available to assess their utility and the implications of using them at an empirical level. This case study uses the popular frameworks NVFlare, Flower, and Federated Scope to evaluate and showcase their main strengths and potential drawbacks, emphasizing the use of an external dataset and model. The results showed that regardless of whether the frameworks displayed considerable strengths in certain areas, there is still room for improvement, and that, even if they simplify the implementation of Federated Learning, a factor of manual work still needs to be taken into account, regardless of the framework at hand. Ultimately, the frameworks have relevant features and areas of opportunity that anyone looking to adopt Federated Learning will need to consider; however, the technical analysis should give a broad perspective on the implications of using the chosen frameworks.Ítem Acceso Abierto Modelo híbrido para la detección de deepfakes mediante YOLOv3 y análisis espectral con la Transformada de Fourier(ITESO, 2025-05) Gómez-Reyes, Uriel; Villalón-Turrubiates, Iván E.El aumento exponencial en la generación y propagación de deepfakes, sumado al crecimiento de herramientas que promueven su desarrollo, ha originado la necesidad creciente de verificar los contenidos en línea. La posibilidad de que cualquier persona pueda acceder a esta tecnológica sin ninguna dificultad, junto con su asombrosa habilidad para crear rostros hiperrealistas, presenta serios desafíos para su identificación a través de métodos tradicionales. Este trabajo propone un modelo híbrido que combina el modelo de detección de objetos YOLOv3 sumado con el análisis en el dominio de la frecuencia mediante la Transformada Discreta de Fourier (DFT) y el uso de una Red Neuronal ResNet50 para su clasificación. El modelo utiliza el algoritmo YOLOv3 como una herramienta de visión computacional que permite localizar y extraer las regiones faciales de interés, disminuyendo el ruido del entorno, seguido de un análisis espectral con DFT que permite identificar patrones de alta frecuencia que son característicos de imágenes creadas con herramientas de deepfake. Por último, se entrena un modelo de clasificación con representaciones espectrales de los conjuntos de datos que incluyen imágenes reales y falsas. Esto permite al modelo aprender los patrones de ambos datasets y distinguir entre una imagen real y una falsa. Los resultados que se obtuvieron como resultado de este trabajo demuestran que el enfoque híbrido propuesto puede lograr una mejora significativa en la precisión de detección respecto a métodos básicos basados exclusivamente en el dominio espacial. Este estudio aporta evidencia sobre la efectividad del análisis de frecuencia como una herramienta más para combatir este tipo de contenido. Combinado con técnicas de visión por computadora, muestra una posible solución para los retos que presenta esta nueva década, dominada por la inteligencia artificial.Ítem Acceso Abierto Comparación de modelos predictivos aplicados a las cuartas oportunidades en la NFL(ITESO, 2025-02) Cañedo-Richart, Rafael A.; Alcalá-Torres, Jaime E.El presente trabajo presenta los resultados derivados de la implementación y evaluación de distintos modelos de clasificación, diseñados para anticipar el desenlace de las cuartas oportunidades en juegos de la NFL. Estos modelos se contrastan con un enfoque de clasificación estándar, representado por una regresión logística simple. Durante el proceso de experimentación, se seleccionaron modelos de Machine Learning que se ajustaran a la naturaleza del problema y la estructura de los datos, apoyados por un análisis estadístico. Además, se implementaron los modelos, y se ofrece una comparación entre ellos mediante diversas pruebas y manipulaciones que respaldan la robustez de los resultados. Si bien se lograron mejorar categóricamente los resultados obtenidos por la regresión logística, los modelos propuestos encontraron limitaciones debido a la naturaleza del problema, que posee un fuerte componente aleatorio. En el apartado de conclusiones y trabajo futuro, se proporcionan reflexiones generales sobre el grado de incertidumbre epistémica de los modelos, y se propone como trabajo futuro realizar análisis de naturaleza bayesiana para comprender de manera integral la incertidumbre total de los modelos (epistémica o del modelo y aleatoria o de los datos).Ítem Acceso Abierto Machine learning en mercados financieros: generando predicciones mediante la clasificación lorentziana y vecinos más cercanos aproximados(ITESO, 2024-12) Tinoco-Figueroa, Sergio; Rodríguez-Reyes, Luis R.Este trabajo aborda el complejo y multivariado problema de predecir la dirección del precio de un activo financiero con el objetivo de generar un indicador tanto de compra como de venta de dicho activo, ofreciendo soluciones específicas para eliminar las suposiciones humanas y reducir las señales falsas al realizar transacciones. El indicador propuesto demuestra su capacidad para categorizar datos históricos en un espacio de características multidimensional, subrayando la utilidad de la Clasificación por Distancia de Lorentz (LDC, por sus siglas en inglés) al predecir la dirección futura de los movimientos de precios mediante la implementación de un algoritmo de Vecinos Más Cercanos Aproximados (ANN, por sus siglas en inglés). Para este estudio, se analizaron datos históricos de precios correspondientes al par dólares por Bitcoin (BCH/USD), abarcando un período de 60 días y una periodicidad de 15 minutos, lo que resultó en la recopilación de más de 5,000 registros de datos. Estos datos permitieron obtener una base sólida para el análisis y entrenamiento del modelo de clasificación. Los resultados obtenidos durante el desarrollo del estudio destacaron la eficacia del LDC, un algoritmo de clasificación de Aprendizaje Automático optimizado a través de un riguroso proceso de pruebas. Tras una ejecución en tiempo real, el modelo logró ejecutar 70 operaciones con una tasa de éxito del 92.86%, alcanzando 65 operaciones ganadoras frente a solo 5 perdedoras. Además, se obtuvo una acumulación total de 3,056.02 PIPs, lo que refleja un rendimiento positivo sostenido en el periodo evaluado. El Ratio de Sharpe fue de 0.13, lo que, aunque indica un riesgo moderado, se compensa por la alta tasa de aciertos y la consistencia de las ganancias. En última instancia, se concluye proponiendo un modelo de aplicación automático basado en sistemas en la nube. Este modelo implementa los algoritmos desarrollados de manera autónoma, generando transacciones de manera eficiente y objetiva. Este enfoque proporciona una herramienta valiosa para mejorar la precisión y la confiabilidad en las decisiones financieras, contribuyendo así al avance y la eficacia de las estrategias de trading en entornos volátiles y complejos como el mercado de criptomonedas.Ítem Acceso Abierto Levenberg-Marquardt Algorithm(ITESO, 2025-01) Díaz-Sánchez, Jorge A.; Ruíz-Cruz, RiemannThis research presents an efficient Levenberg-Marquardt implementation for neural network training in regression, classification, and transfer learning. While Levenberg-Marquardt offers fast convergence and precision in nonlinear least-squares problems, its high memory and computational demands limit its use in large models. This work optimizes Levenberg-Marquardt to improve its practicality across diverse architectures by addressing these constraints. A key contribution is integrating Levenberg-Marquardt into PyTorch, a widely used deep learning framework. This enables easier adoption, leveraging PyTorch’s GPU acceleration and parallelization for improved efficiency. By minimizing redundant calculations in the Jacobian and Hessian approximations, this implementation significantly reduces memory usage and computational overhead. Instead of merely optimizing storage, it selectively applies Levenberg-Marquardt where needed, balancing second-order precision with resource constraints. Experiments validate Levenberg-Marquardt’s efficiency on benchmark tasks, including MNIST classification and fine-tuning AlexNet. Comparisons with Adam and SGD show that Levenberg-Marquardt achieves competitive accuracy with fewer epochs, making it a viable alternative in high-precision scenarios. In transfer learning, limiting trainable parameters helps mitigate memory concerns. This research demonstrates that Levenberg-Marquardt can be an efficient neural network optimizer when resource management is prioritized. By refining its implementation, Levenberg-Marquardt becomes more practical for deep learning, particularly in tasks requiring fast convergence and high accuracy. Future work will explore further memory optimizations and extensions for high-dimensional datasets, broadening Levenberg-Marquardt’s applicability in modern neural network training.Ítem Acceso Abierto Modelo para la estructuración y clasificación de datos no estructurados usando técnicas de Procesamiento de Lenguaje Natural: un caso de estudio en el ámbito de la industria alimentaria(ITESO, 2025-01) Muñoz-López, Patricia; Lozano-Díaz, CésarEste estudio aborda el análisis de datos no estructurados provenientes de etiquetas de productos alimenticios con el objetivo de clasificar alimentos bajo el contexto de diseño y desarrollo de nuevos productos. Dado que estos datos contienen información detallada sobre ingredientes y aditivos, su análisis resulta fundamental para identificar relaciones subyacentes y transformar el texto en valores cuantitativos susceptibles de evaluación sistemática. Para alcanzar este propósito, se emplean técnicas de Procesamiento de Lenguaje Natural (PLN), como los word embeddings y el reconocimiento de entidades nombradas (Named Entity Recognition o NER). En particular, se utilizan modelos como GPT, Word2Vec y GLiNER, con los cuales se desarrolla una metodología orientada a la extracción de patrones relevantes, facilitando así la limpieza, estructuración y análisis de los datos en el marco del desarrollo de productos alimenticios. Los resultados muestran que la metodología es efectiva para procesar datos no estructurados, mejorando la calidad mediante segmentación por idioma, adaptación de modelos preentrenados de NER y balance de clases. Estas optimizaciones permitieron obtener métricas destacadas (accuracy, precision, recall, f1-score) y confirmar la hipótesis inicial, evidenciando un impacto positivo en la clasificación de alimentos. Finalmente, el procesamiento y estructuración de datos dentro de un flujo de trabajo automatizado tiene un alto valor, ya que permite integrar y sistematizar los datos de manera escalable y reproducible. Este enfoque ofrece un modelo escalable para gestionar datos, especialmente aquellos provenientes de bases de datos tipo crowdsourcing, mejorando así la calidad y consistencia de las bases de datos alimentarias y facilitando la actualización continua de información. La centralización de datos de alta calidad podría contribuir considerablemente al desarrollo y la innovación de productos alimenticios.Ítem Embargo Estrategia de mercadotecnia eficiente: segmentación de canales de venta y clasificación de clientes(ITESO, 2025-01) Ramírez-Islas, Ricardo; Alcalá-Temores, Jaime E.El grupo International Lean Six Sigma, empresa especializada en certificaciones de mejora continua en los sectores de manufactura y servicios, cuenta con procesos de venta físicos y en línea. El Trabajo que a continuación se presenta ofrece una solución que tuvo como primer objetivo la generación de segmentos estratégicos para ventas en línea, y como segundo objetivo, la clasificación de nuevos clientes en los nuevos segmentos para medir la eficiencia de las campañas de mercadotecnia. Cabe destacar que se realizaron técnicas de procesamiento de datos previos a la implementación de modelos. Para el primer objetivo, se implementó el modelo de segmentación K-means donde se realizaron varios experimentos para obtener el número óptimo de clases. Se concluyó que la segmentación óptima fue de 3 clases, estas agrupaciones resultantes se presentaron como los nuevos segmentos estratégicos para lanzar campañas de mercadotecnia. Para el segundo objetivo, se experimentó y evaluó con varios modelos de clasificación como árbol de decisión, regresión logística y red neuronal. Se concluyó que todos ellos proporcionaban buenos resultados para predecir el segmento de nuevos clientes, sin embargo, el árbol de decisión demostró ser el modelo más eficiente y adecuado para implementar por los resultados demostrados en este trabajo y por las características demandadas por el negocio.Ítem Embargo Pronóstico de ventas en Jabil Healthcare, junio-agosto 2024(ITESO, 2024-12) Flores-Martínez, María F.; Motta-Bonilla, Byron M.En este trabajo propongo desarrollar un pronóstico con mayor exactitud que permitirá mejorar la planeación de productos terminados y a su vez que la cadena de suministros fluya con mayor eficiencia provocando que los componentes se reciban en planta en el momento oportuno evitando la acumulación de inventario, o en caso contrario, las demoras de componentes y retrasos en producción.Ítem Acceso Abierto Optimized pathway for non-experienced investors(ITESO, 2024-11) Sánchez-Leguízamo, Rosa M.; Rodríguez-Reyes, Luis R.Demostraremos que las ganancias netas son mayores y que las pérdidas netas son menores cuando optimizamos el portafolio múltiples veces (N) durante el rango de tiempo de la inversión (escenario que llamaremos variable) usando el precio de apertura comparado con el escenario estático donde solo compramos, optimizamos y vendemos 1 sola ocasión usando el precio de cierre. Aplicaremos el proceso de optimización de Markowitz para crear portafolios de inversión entre 15 a 30 activos (diversificación) para seleccionar el portafolio óptimo que maximice el retorno de inversión, minimice el riesgo y reduzca el costo invirtiendo en el tiempo estratégico de acuerdo con las necesidades de un inversionista sin experiencia en el mercado.Ítem Acceso Abierto Smart Sample Selection for Retrieval Augmented Generation(ITESO, 2024-12) Ramírez-Barba, Diego; Motta-Bonilla, Byron M.El proyecto tiene como objetivo la optimización de una técnica emergente en el campo del machine learning llamada RAG (Retrieval-Augmented Generation). Esta técnica se utiliza para mejorar el procesamiento de datos en LLMs (Large Language Models) mediante diversos algoritmos, los cuales permiten aumentar la precisión y reducir el sesgo inherente al entrenamiento de estos modelos.