2024-03-28T11:28:44Zhttps://rei.iteso.mx/oai/requestoai:rei.iteso.mx:11117/76822021-12-16T03:00:41Zcom_11117_560col_11117_1541
Land Use Identification of the Metropolitan Area of Guadalajara Using Bicycle Data: An Unsupervised Classification Approach
Gracia-Rivera, Dulce M.
Villalón-Turrubiates, Iván E.
El siguiente trabajo propone diferentes maneras de resolver una problemática que se encuentra en la actualidad, que es el hacer la investigación en el área de land-use, mapeo y comportamiento humano evaluando su movimiento por medio de fuentes de información que contienen información geo referenciada, también se comparte la meta de clasificar diferentes secciones y su relación entre ellas. Se utilizó como fuente de información MiBici que es una plataforma de compartimiento de bicicleta que existe en la ciudad de Guadalajara, Jalisco, la cual comparte mes tras mes un archivo consolidado de los viajes que se realizan en cada mes, cabe mencionar que el acceso de esta información es totalmente libre. Las metodologías utilizadas fueron agile para planeación del proyecto, KNN, Decision Trees y KMeans para la cauterización de las zonas, el lenguaje de programación utilizado fue Python, además se anexo una propuesta de implementación utilizando la plataforma de Amazon Web Service con el objetivo de proponer una solución más “sencilla” de implementar, pero con el mismo valor que hacerlo con puros recursos libres. El proceso se dividió primordialmente en 3 partes en donde la primera fue limpiar datos y entenderlos, se aplicaron algoritmos machine learning que fueron Decision tree y KNN, para la segunda etapa evaluando los resultados de la etapa anterior se hicieron modificaciones a los datos en donde se agregaron nuevos campos para mejor los resultados y se aplicó KMeans para la creación de grupos y como último paso se creó un flujo que inicio con la limpieza de los datos en crudo utilizando herramientas de AWS y se terminó con la interpretación de los resultados finales. Los resultados obtenidos fueron demasiados alentadores ya que los grupos que se obtuvieron fueron demasiados marcados y revisándolo con las zonas relacionadas a los nodos se encontró una gran relación. Sin duda alguna queda aún demasiado trabajo a desarrollar en esta rama de investigación.
2021-12-15T23:18:11Z
2021-12-15T23:18:11Z
2021-11
info:eu-repo/semantics/masterThesis
Gracia-Rivera, D. M. (2021). Land Use Identification of the Metropolitan Area of Guadalajara Using Bicycle Data: An Unsupervised Classification Approach. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/7682
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/61502020-02-12T06:49:09Zcom_11117_560col_11117_1541
Análisis y visualización de grafos usando realidad virtual: una perspectiva de interacción
Ortega-Rosales, Alejandro D.
Gutiérrez-Preciado, Luis F.
Análisis de Grafos
Head Mount Display HMD
El análisis de grafos se realiza principalmente en ambientes bidimensionales mediante la aplicación y el uso de métodos o herramientas limitadas a usuarios expertos en teoría de grafos. Asimismo, un grafo masivo es extremadamente difícil de diseñar en 2D (dos dimensiones) de una manera que ayude a las personas a entenderlo con facilidad. Se propone una solución genérica para la visualización y análisis de grafos en ambientes virtuales 3D utilizando como interfaz de usuario el dispositivo HMD (Head Mount Display) de la marca HTC Vive. Este proyecto no está programado para trabajar con un conjunto de datos o formato en particular, se propone una arquitectura novedosa capaz de visualizar cualquier tipo de dato que pueda ser manipulado por NEO4J. Se discutirá en mayor medida las aportaciones hechas para la parte de interacción e interfaz de usuario con el ambiente virtual. Durante el desarrollo del proyecto fue necesario realizar modificaciones a los componentes de Unity para optimizar el renderizado del grafo y no afectar el desempeño del CPU.
2020-02-04T02:25:56Z
2020-02-04T02:25:56Z
2020-01
info:eu-repo/semantics/masterThesis
Ortega-Rosales, Alejandro D. (2020). Análisis y visualización de grafos usando realidad virtual: una perspectiva de interacción. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/6150
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/78242022-02-25T03:00:49Zcom_11117_560col_11117_1541
Diabetic Retinopathy Image Classification with Neural Networks
Sánchez-Ferrusca, Iván
Martínez-Sánchez, Víctor H.
Neural Networks
Retinopathy
Diabetes
Image Classification
The world is experiencing an increased life expectancy, which results in a natural increase in the chance of getting a disease. The main concern is that some of the methods to determine an affectation are not so fast and need expert people. Therefore, it is necessary to create new low-cost mechanisms of diagnosis that can give us fast and better results.
Recent studies have been implemented using known architectures getting high scores of accuracies. An experimental classification model was implemented in this work using Python libraries. This is an experimental model with custom neural network architecture. This work intends to contrast the results using a model based on the AlexNet against my experimental architecture.
The 2 main reasons to compare my work versus AlexNet is that during my investigation of the state of the art I did not find researches to solve the DR categorization using this architecture and also if I had chosen other architecture, I would need more powerful computing. In the end, AlexNet was not a good solution.
This solution will help the healthcare industry to have a less expensive and non-invasive way to determine if a person is being affected by diabetic retinopathy, depending on the damage shown on their retinas
2022-02-24T19:48:50Z
2022-02-24T19:48:50Z
2021-11
info:eu-repo/semantics/masterThesis
Sánchez-Ferrusca, I. (2022). Diabetic Retinopathy Image Classification with Neural Networks. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/7824
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/90652023-05-10T09:00:12Zcom_11117_560col_11117_1541
Traffic Sign Detection and Recognition with Voice Assistant
Vázquez-Espinoza, Carlos S.
Martínez-Sánchez, Víctor H.
Machine Learning
Deep Learning
here are multitude of applications for detection and recognition of images across different fields. There are some specific applications for these systems used to help people to drive for example in autonomous driving as well as other applications. There has been another focus in the use of classification models used to help drivers providing details about their surrounding while driving. In places like Guadalajara, such models are a valuable tool to reduce traffic accidents. This document will explain the development of a detection and recognition of traffic signs model. This model has the intention of providing details about the meaning of the traffic signs. All this will happen close to real time and will be an additional information to the driver. This whole system could be used by anyone but specifically aimed to people with visual deficiencies. With the use of a robust machine learning and the use of Deep Learning (DL), the expectative is to achieve high accuracy levels on the traffic sign detection and recognition. This system is expected to be available and affordable for most of the drivers in Guadalajara.
2023-05-09T20:20:25Z
2023-05-09T20:20:25Z
2023-05
info:eu-repo/semantics/masterThesis
Vázquez-Espinoza, C. S. (2023). Traffic Sign Detection and Recognition with Voice Assistant. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/9065
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/41892020-02-12T06:53:33Zcom_11117_560col_11117_1541
3D Printing Batch Production Optimizer
DelÁngel-Ochoa, Ana P.
Piza-Dávila, Hugo I.
Zeng, Jun
3d Printing
Impresión en 3d
Production Optimizer
La impresión 3D crea objetos a través de la fabricación en capas. Su velocidad de producción lenta impide que tenga una adopción más amplia para la fabricación a corto plazo. Este trabajo describe una solución práctica para atacar el desafío del rendimiento de producción mediante la fabricación de lotes con objetos diferentes apilados en la misma bandeja de construcción para fabricarse juntos. Este trabajo selecciona automáticamente las orientaciones y las posiciones óptimas para cada objeto a través de un algoritmo genético escalable y paralelizable. Este trabajo también incluye una herramienta de visualización WebGL para el navegador, que permite la inspección previa de la solución en la bandeja de construcción. También proporciona un simulador incorporado para evaluar qué tan óptimo es un arreglo de objetos basado en objetivos definidos por el usuario, en el que se incluye el rendimiento, consumibles, etc. 3D printing fabricates objects of arbitrary shape through layered manufacturing. Its slow production speed hinders 3D printing from broader adoption in short-run manufacturing. This work describes a practical solution to attack the production throughput challenge through batch fabrication by stacking seemingly different objects into the same build tray (build volume) to be fabricated together. This work automatically selects optimal orientation and position for each object using scalable, parallelized genetic algorithm. This work also includes a browser-based, WebGL-powered visualization tool to allow preflight inspection of the build volume. It also provides a built-in simulator to evaluate the optimality of an arrangement of objects based on user-defined objectives including throughput, consumables, etc.
2017-01-19T17:56:26Z
2016-12
info:eu-repo/semantics/masterThesis
DelÁngel-Ochoa, A. P. (2016). 3D Printing Batch Production Optimizer. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4189
eng
http://quijote.biblio.iteso.mx/licencias/TodosLosDerechosReservados.pdf
ITESO
oai:rei.iteso.mx:11117/50772020-02-12T06:55:19Zcom_11117_560col_11117_1541
Simulación de colisiones de objetos deformables en GPU
Alvizo-Flores, José O.
Gutiérrez-Preciado, Luis F.
GPU
GPGPU
BVH
Octree
Simulación de Colisión
Objetos Deformables
Computer Shader
El sistema que se desarrolló en este trabajo tuvo como objetivo demostrar simulaciones de colisiones de objetos deformables en movimiento en tiempo real y con combinación de rendimientos en tiempo. El proyecto también abarcó la optimización de los algoritmos para las simulaciones con GPU. Este sistema fue implementado con árboles octales y algoritmos de jerarquía de volúmenes delimitadores para la detección de colisiones y con el uso de un sistema de masa resorte para la demostración física. El resultado del sistema fue un balance entre rendimiento y exactitud para una aplicación en tiempo real.
2017-11-02T17:36:08Z
2018-05-05T10:30:12Z
2017-07
info:eu-repo/semantics/masterThesis
Alvizo-Flores, J. O. (2017). Simulación de colisiones de objetos deformables en GPU. Trabajo de obtención de maestría, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5077
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/38982020-02-12T06:51:54Zcom_11117_560col_11117_1541
Construcción de una memoria organizacional a partir de textos no estructurados usando herramientas de minería de texto
Espíritu-Sandoval, Karla Y.
Zaldívar-Carrillo, Víctor H.
Novelo-Cervera, Rodrigo I.
Minería de Texto
Procesamiento del Lenguaje Natural
Minería de Datos
Memoria Organizacional
Trabajo que tuvo como propósito construir una memoria organizacional de los Reportes de Proyectos de Aplicación Profesional (PAP) a partir de texto no estructurado usando herramientas de minería de texto. El objetivo fue brindar una herramienta a la Coordinación PAP para obtener estadísticas, información de interés, aprendizajes y experiencias plasmadas por los alumnos en sus reportes que ayuden a generar nuevo proyectos, mejorar existentes, facilitar la toma de decisiones, así como llevar un registro de las vinculaciones entre instituciones públicas y/o privadas y el ITESO.
2016-09-29T15:12:12Z
2016-09-29T15:12:12Z
2016-09
info:eu-repo/semantics/masterThesis
Espíritu-Sandoval, K. Y. (2016). Construcción de una memoria organizacional a partir de textos no estructurados usando herramientas de minería de texto. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/3898
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/51012020-02-12T06:55:20Zcom_11117_560col_11117_1541
Software con gráficos en 3D para el aprendizaje de álgebra lineal
Alonso-DeLeón, Claudia I.
Cornejo-Torres, Pedro A.
Vectores en 3d
Enseñanza de las Matemáticas
Educación
Tecnología
Algoritmos de Gráficos
Desarrollo de Software
El álgebra lineal es la base de varias asignaturas en el estudio de una ingeniería. Sin embargo, es frecuente que los estudiantes obtengan bajas calificaciones en estas asignaturas. En este trabajo se presenta la propuesta de un software que le permita al usuario dibujar vectores en 3D, realizar operaciones con ellos, manipularlos y editarlos.
2017-11-14T18:46:21Z
2018-05-17T10:30:09Z
2017-10
info:eu-repo/semantics/masterThesis
Alonso-DeLeón, C. I. (2017). Software con gráficos en 3D para el aprendizaje de álgebra lineal. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5101
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/65252022-09-28T16:22:58Zcom_11117_560col_11117_1541
Sistema de vigilancia escolar para el proyecto NACE
Tiburcio-Delgado, Edgar
Alcaraz-Mejía, Mildreth
Sistemas de Vigilancia Escolar
Antropometría
Computación en la Nube
Aplicaciones Web
Servicios Web
Aplicaciones Móviles
Análisis Estadístico
En este documento presentaré las problemáticas que el Proyecto NACE (Nutrición y Acción Comunitaria para Entornos Saludables) pretende atacar y cómo pueden ser apoyadas con este trabajo de obtención de grado mediante el uso de tecnologías de la información.
Explico de manera técnica, muy detalladamente, cómo funciona la solución propuesta utilizando diagramas. Después presento las configuraciones necesarias para la infraestructura en la nube. Enseguida, mostraré la aplicación tanto en el lado del servidor como en la interfaz gráfica de usuario. Finalmente, explicaré cómo esta aplicación puede ser utilizada por los usuarios finales, pensando primordialmente en los miembros del Proyecto NACE.
Esta aplicación tiene como objetivo principal la captura de datos en campo y su posterior procesamiento para obtener información relevante para los usuarios de la aplicación.
En la sección de conclusiones hablaré de la retroalimentación recibida por los usuarios, la experiencia durante el desarrollo de esta aplicación y el trabajo futuro para la misma.
2021-03-16T01:06:22Z
2021-03-16T01:06:22Z
2021-02
info:eu-repo/semantics/masterThesis
Tiburcio-Delgado, E. (2021). Sistema de vigilancia escolar para el proyecto NACE. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6525
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/65052021-09-06T15:54:44Zcom_11117_560col_11117_1541
Implementación de data lake en la nube para análisis de movilidad en la Ciudad de México y la ZMG
Ojeda-Orozco, Miguel A.
Valdovinos-Toledo, Moisés
Big Data
Data Lake
Data Engineering
Ingeniería de Datos
AWS
Regresión Lineal
Amazon Web Services
Machine Learning
Se presenta una breve introducción al proyecto data lake en la nube para análisis de movilidad en la Ciudad de México y la Zona Metropolitana de Guadalajara. El cual tiene como objetivo principal generar una infraestructura que es creada con servicios de computación en la nube ofrecidos por Amazon Web Services con el fin de cargar, integrar, procesar y analizar datos de movilidad urbana registrados por los organismos que ofrecen dichos servicios, para de esta manera poder detectar y generar métricas y análisis que a su vez puedan dar soluciones y/o propuestas a los actuales problemas de movilidad que ambas ciudades presentan.
Es posible observar que la implementación del data lake trae consigo una gran mejora a los procesos comúnmente utilizados para llevar a cabo este tipo de análisis, pues se utilizan los datos de diferentes servicios de movilidad sin importar su estructura y tipo de almacenamiento, a fin de tener una integración total, generando un catálogo de metadatos el cual tiene como tarea principal el mapear los procesos de análisis con los datos almacenados físicamente en S3.
Finalmente, tras completar la fase de procesamiento de la información, se llevan a cabo diferentes tipos de análisis haciendo uso de tecnologías comunes, como lo son las consultas SQL, generación de dashboards y predicciones con ML, los cuales permiten confirmar y validar la importancia de tener una tecnología centralizada de análisis que sea capaz de producir resultados válidos sin tener que lidiar directamente con las diferencias estructurales inherentes de los datos utilizados.
2021-02-22T18:24:05Z
2021-02-22T18:24:05Z
2020-06
info:eu-repo/semantics/masterThesis
Ojeda-Orozco, M. A. (2020). Implementación de data lake en la nube para análisis de movilidad en la Ciudad de México y la ZMG. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6505
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/52852020-02-12T06:58:04Zcom_11117_560col_11117_1541
WebVOWL: Visualization of individuals into ontolgies
Escobar-Vega, Miriam M.
Villalón-Turrubiates, Iván E.
Ontologies
Web Based Visualization of Ontologies
Web Ontology Language
Ontologies are increasingly important for tasks such as information integration, knowledge-level interoperability, and knowledge-based development time. This requires methods and tools that allow working with ontologies and related data. There are many approaches to visualize ontologies graphically; however, there are few visualizations that show complete ontological information, i.e. all the classes and properties along with their attributes, most approaches focus only on certain aspects. WebVOWL (Web Based Visualization of Ontologies) is a web application for user-oriented visualization of ontologies that implements visual notation for OWL (Web Ontology Language) ontologies based on open web standards. Visualizations are automatically generated from JSON (JavaScript Object Notation) files in which ontologies need to be converted providing graphical representations. This research uses the methodology of VOWL and WebVOWL as the web tool for the visualization of ontologies based on graphic schemes that describe how to define an ontology. As a result, it complements what WebVOWL offers by adding within the definition of individuals (class-instance) a clear distinction between the individuals and the other elements (classes, subclasses, properties, data type, literals, etc.) that model the ontology in WebVOWL, obtaining the visualization of individuals within an ontology
2018-03-20T17:54:43Z
2018-03-20T17:54:43Z
2017-07
info:eu-repo/semantics/masterThesis
Escobar-Vega, M. M. (2017). WebVOWL: Visualization of individuals into ontolgies. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5285
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/51892020-02-12T06:57:41Zcom_11117_560col_11117_1541
Detección visual de vehículos automotrices en ambientes reales
Méndez-Pelayo, Francisco J.
Alcaraz-Mejía, Mildreth
González-Jiménez, Luis E.
OpenCV
Haar
Cascade
Visión Computacional
Detección de Objetos
Detección de Vehículos
Entre los algoritmos de detección de objetos, cascade ha demostrado ser uno de los más robustos y flexibles al ser aplicado sobre un gran número de diferentes tipos de objetos. La detección de rostros fue la primera aplicación, así como para muchos sistemas en producción. De igual forma, uno de los grandes objetivos buscados ha sido el de diseñar un vehículo completamente autónomo y donde la conducción se realice de forma automática sin intervención humana. Es por esto que se ha utilizado la combinación de algoritmos cascade y Adaboost para crear un sistema que sea capaz de detectar vehículos de forma eficiente. Como base para este trabajo, se ha utilizado la implementación de OpenCV, que es un software que se distribuye bajo una licencia open source, la cual ha permitido realizar cambios en la implementación de las características tipo HAAR para agregar una serie de características capaces de aumentar el poder de reconocimiento de vehículos. Estas características, en conjunto con las que originalmente se encuentran implementadas por OpenCV, han permitido mejorar los niveles de detección de vehículos en secuencias de imágenes, además, con los entrenamientos realizados se pudo observar cierta reducción en el número de falsos negativos. De acuerdo con la el esquema de este conjunto de algoritmos, adaboost es el encargado de realizar el entrenamiento; entonces, es durante el entrenamiento que se definen los tipos de características tipo HAAR que se utilizarán tanto en el entrenamiento como durante la etapa de detección. Durante el entrenamiento, dicho conjunto de características sirve únicamente como referencias para generar las ventanas de búsqueda en el proceso de detección.
2018-01-29T23:21:28Z
2019-01-30T09:45:09Z
2018-01
info:eu-repo/semantics/masterThesis
Méndez-Pelayo, F. J. (2018). Detección visual de vehículos automotrices en ambientes reales. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5189
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/60822020-02-12T06:48:36Zcom_11117_560col_11117_1541
Análisis de datos y tendencias sociales de las donaciones de sangre en Guadalajara
Zúñiga-Cisneros, Jorge A.
Villalón-Turrubiates, Iván E.
Aprendizaje Automático
Regresión Lineal
Regresión Polinomial
Machine Learning
En este trabajo se busca, a través de herramientas y métodos computacionales, analizar el bajo porcentaje de donaciones de sangre en México. Se empieza con el análisis de cómo diferentes estrategias de Machine Learning han sido aplicadas en distintas investigaciones para encontrar tendencias, analizar datos de los centros de donación y mejorar procedimientos actuales. Tomando en consideración los resultados obtenidos en los diferentes trabajos, se determinan estrategias para analizar la información obtenida sobre las donaciones de sangre en Guadalajara que forma parte de una de las 5 entidades federativas que mayor número de donaciones tienen anualmente y, sin embargo, no es suficiente para tener el suministro necesario de sangre y sus componentes. Con el resultado de tales estrategias, se espera concientizar sobre la situación actual de México sobre las donaciones de sangre en el país y considerar el valor agregado que se puede obtener al utilizar distintos métodos tecnológicos para entender y buscar soluciones a problemas sociales.
2019-12-05T23:05:04Z
2019-12-05T23:05:04Z
2019-10
info:eu-repo/semantics/masterThesis
Zúñiga-Cisneros, J. A. (2019). Análisis de datos y tendencias sociales de las donaciones de sangre en Guadalajara. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/6082
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/58122020-02-12T06:45:58Zcom_11117_560col_11117_1541
Diseño de un sistema de recomendación usando algoritmos de aprendizaje máquina
González-Delgado, Benjamin A.
Ruiz-Cruz, Riemann
Moreno-Núñez, Ismael
Recuperación de Datos
Filtros Colaborativos
Factorización de Matrices
Text Mining
Sistemas de Recomendación
Procesamiento de Datos
Este trabajo está constituido por una sección inicial donde se presenta una breve introducción a la problemática de los sistemas de recomendación susceptibles a cold-start y pobre eficiencia ante el procesamiento de matrices dispersas. El objetivo principal de este trabajo es proponer y desarrollar un sistema de recomendación que incorpore contenido para solventar el problema del cold-start en los métodos de filtrado colaborativo, a la vez que permita una formulación e implementación con matrices dispersas para un procesamiento eficiente. En la sección de antecedentes se abordan los primeros enfoques de los sistemas de recomendación basados en filtrado y distribución de la información. También se incluye una revisión de los primeros modelos de filtrado colaborativo y una pequeña reseña de los sistemas de recomendación usados en algunas empresas. Se presenta un capítulo de marco teórico donde se explican los algoritmos para extracción de características, las formulaciones de sistemas de recomendación utilizados y la forma en que se calculan algunas de las métricas más usadas para evaluar los sistemas de recomendación. Se presenta el desarrollo del trabajo donde se explica a detalle cada paso realizado para la formulación e implementación de un sistema compuesto que integra dos enfoques, uno de filtrado colaborativo SVD y uno de contenido. Posteriormente se muestran los resultados de cada experimento realizado para validar el sistema de recomendación propuesto. Finalmente se presentan las conclusiones del trabajo. Los resultados demuestran que se resuelven de manera particular los objetivos de procesamiento de datos no estructurados y se aborda el problema del cold-start incorporando el contenido derivado de los datos no estructurados. Con el uso de un enfoque de matrices dispersas, la implementación resultante es modular y escalable.
2019-02-06T20:07:05Z
2019-02-06T20:07:05Z
2018-10
info:eu-repo/semantics/masterThesis
González-Delgado, B. A. (2018). Diseño de un sistema de recomendación usando algoritmos de aprendizaje máquina. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5812
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/46062020-02-12T06:52:43Zcom_11117_560col_11117_1541
Framework para la administración y análisis de redes sociales
Ríos-Ramírez, Mary C.
Alcaraz-Mejía, Mildreth
Morfín-Otero, Francisco
Twitter
Gephi
Redes Sociales
Análisis de Redes Sociales
Tecno Política
El análisis de redes social es un tema del que se puede obtener mucha información valiosa para diversas ramas de estudio, como la mercadotecnia, política, movilidad profesional, influencia social, contagio emocional, entre otros. El enfoque de este proyecto es la tecno política, que observa cómo la sociedad reacciona a sucesos o eventos, qué tipo personas se ven involucradas, el comportamiento del evento en general e incluso se puede predecir el momento de culminación de un movimiento social. En este proyecto se analiza la red social Twitter a partir de una búsqueda por hashtags o palabras relacionadas a un tema, con lo que se genera un grafo a partir de las relaciones de los usuarios (mecnciones, retweet, respuestas) o de los usuarios con los hashtags usados. Además, se proveen todos los tweets del dataser para un posterior análisis. Todo esto se realizará con una interfaz fácil de usar y con la capacidad de generar información compatible Gephi, que es la plataforma con la que se generan los grafos. Las herramientas que se utilizaron fueron el API de Twitter, MySQL para almacenar los tweets, GlassFish como host de la aplicación y java para el desarrollo de la misma; la infraestructura de este proyecto se centra en EC2 de Amazon, donde se pidió un servicio de base datos y un Servidor Ubuntu para la instalación de GlassFish.
2017-05-31T16:04:57Z
2017-05-31T16:04:57Z
2017-01-07
info:eu-repo/semantics/masterThesis
Ríos-Ramírez, M. C. (2017). Framework para la administración y análisis de redes sociales. Trabajo de obtención de maestría, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4606
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/40042020-02-12T06:52:53Zcom_11117_560col_11117_1541
Análisis de originalidad de un documento escrito en español
Gallardo-Manuel, René
Alcaraz-Mejía, Mildreth
González-Díaz, María T.
Detección de Plagio
Similitud por Coseno
Coeficiente Jaccard
Análisis de Originalidad
La posibilidad de que un elemento, idea o pensamiento sea duplicado, copiado o plagiado siempre ha existido; sin embargo, con los avances tecnológicos, esto ahora es mucho más fácil de hacer. Asimismo, las personas encargadas de detectar dichas “imitaciones” no deberían, pues, obviar los avances tecnológicos para hacer de su labor un ejercicio más exacto, sencillo y preciso. Es por ello que en este trabajo se pretende establecer, mediante el uso de uno o más métodos, técnicas o algoritmos, un procedimiento adecuado para el lenguaje español que sirva de base para la determinación de posibles casos de plagio.
2016-11-09T16:16:47Z
2016-11
info:eu-repo/semantics/masterThesis
Gallardo-Manuel, R. (2016). Análisis de originalidad de un documento escrito en español. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4004
spa
http://quijote.biblio.iteso.mx/licencias/TodosLosDerechosReservados.pdf
ITESO
oai:rei.iteso.mx:11117/76652021-11-24T03:01:04Zcom_11117_560col_11117_1541
Recommendation System for Issues Found in R&D
Preciado-Barón, Diego
DeObeso-Orendain, Alberto
Este proyecto nació a partir de la necesidad de encontrar conocimiento y resumir la gran cantidad de problemas descubiertos en las fases de desarrollo de Software para módulos automotrices. Parte de ese conocimiento se puede obtener con base en los problemas del pasado en conjunto con sus propias soluciones. Con el crecimiento de la tecnología es mucho más factible recopilar toda esta información en diferentes formatos y procesarla. Esta información crece día con día, la cual se encuentra principalmente en forma de texto. Leer grandes cantidades de texto por una persona o incluso un conjunto de personas, para extraer información y visualizar datos importantes a la par de ese crecimiento de información es una tarea poco práctica o casi imposible de realizar de manera eficiente. A través de las nuevas tecnologías de IA y Big Data, nos es posible cumplir con estos objetivos. En especial, las técnicas de Procesamiento Natural del Lenguaje por parte de IA y las bases de datos tanto SQL como noSQL nos facilitaron el análisis y proceso en nuestro proyecto.
2021-11-23T19:24:47Z
2021-11-23T19:24:47Z
2021-07
info:eu-repo/semantics/masterThesis
Preciado-Barón, D. (2021). Recommendation System for Issues Found in R&D. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/7665
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/39532020-02-12T06:52:44Zcom_11117_560col_11117_1541
Implementation and development of traffic speed and flow prediction through Artificial Neural Networks
Vega-Arteaga, Ulises S.
Ruiz-Cruz, Riemann
Campos-Rodríguez, Raúl
Artificial Neural Networks
Traffic prediction
In this work we introduce the most recent techniques to predict traffic flow and speed. This work is composed of the following sections: an introduction, a state of the art, and conclusions sections. In the introduction section we see the importance of being able to predict the traffic conditions for speed and flow; we set our hypothesis that is that using the Levenberg-Marquardt training algorithm we’ll be able to find a global minimum for the problem of predicting traffic conditions; we also specify our general objective that is developing efficient algorithms for the traffic prediction for its variables speed and flow; as well as establishing that our scientifical novelty is using the Levenberg-Marquardt as Artificial Neural Network training algorithm. In the state of the art section we present the summarized contents of the most outstanding research papers about traffic prediction. We continue with the presentation of an approach that uses two statistical algorithms for traffic prediction. This information cover spatial impact, and accidents, and construction events. Additionally, it compares the results of outstanding research done with Artificial Neural Networks, and tatistical Methods, to their own statistical method that consists of two statistical methods embedded into only one by using a threshold used to determine which statistical method should be used and when, depending on the road conditions. We also present the results of traffic speed prediction by data mining techniques and a comparative to Artificial Neural Networks. Additionally, we introduce a section that analyze the problem of traffic prediction but only with Artificial Neural Networks done by the company SIEMENS in Germany. We introduce the Los Angeles Department of Transportation (LA DOT) infrastructure used to obtain the speed and flow measurements as well as the set of programs develop by the author of this thesis to retrieve the information from LA DOT, to process this information and calculate the prediction of flow and speed for a specific sensor. We continue with the problem of traffic prediction. In the process of predicting traffic flow, and speed we made our first approach using a Nonlinear Autoregressive Neural Network with External Input in MATLAB and we obtained promising results. However, this Artificial Neural Network does not have the ability to predict multiple outputs, and we transformed it to a Feedforward Neural Network also from MATLAB. The results obtained are impressive because they reduce dramatically the traffic prediction errors. In order to validate our results with the ones in the international research community we use the data from 95 days which is equivalent to 3 months, which is the commonly reported amount of time studied in this kind of problems. We also present an optimization process for the Feedforward Neural Network for both problems speed and flow prediction. Finally, we present a numerical sensibility analysis in order to determine how robust is our Artificial Neural Network. To close this thesis we present our conclusions as a success of using the Levenberg-Marquardt algorithm to train an Artificial Neural Network for the problem of traffic prediction, and we set up the possibilities of exploring the recently found result by using the learning techniques of deep learning.
2016-10-21T15:20:33Z
2016-10-21T15:20:33Z
2016-10-19
info:eu-repo/semantics/masterThesis
Vega Arteaga, U. S. (2016). Implementation and development of traffic speed and flow prediction through Artificial Neural Networks. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/3953
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/65482021-09-06T15:56:16Zcom_11117_560col_11117_1541
Biblioteca de evaluación y entrenamiento de redes neuronales artificiales implementada en Rust y OpenCL
Escamilla-Ochoa, Víctor R.
Cornejo-Torres, Pedro A.
Machine Learning
Aprendizaje Automático
Redes Neuronales
Neural Networks
OpenCL
Rust
El presente trabajo consiste en el desarrollo de un framework para el diseño, evaluación y entrenamiento de Redes Neuronales con soporte de OpenCL para acelerar los cálculos mediante del uso de la Unidad de Procesamiento Gráfico (GPU por sus siglas en inglés) y desarrollado en Rust, un lenguaje de alto nivel diseñado para la programación de sistemas con un desempeño equiparable a C y C++.
En primer lugar, se exploran algunas de las librerías de machine learning más utilizadas en la industria actualmente (Tensorflow, Theano, CNTK, PyTorch y Keras), así como otros proyectos de machine learning más recientes propuestos por la comunidad de Rust (Rust Tensorflow, Juice, Rust-autograd y tchrs). De este análisis se obtiene una comparación breve entre las soluciones existentes que sirve para establecer puntos de mejora en el estado del arte del área de machine learning en Rust.
Posteriormente se analizan las bases teóricas sobre las cuales se fundamenta el modelado, entrenamiento y evaluación de redes neuronales: los perceptrones, las funciones de activación, los algoritmos detrás del entrenamiento de una red neuronal (feedforward-backpropagation), técnicas para el procesamiento de grandes cantidades de datos, generalización de una red neuronal y el sobreentrenamiento. Se detallan también las características de OpenCL y Rust que permiten implementar dichas bases teóricas a lo largo de este trabajo.
Con la finalidad de establecer un marco de referencia que ayude a determinar el éxito de la biblioteca que se desarrolla en este trabajo, se toman dos problemas bastante populares en el área de machine learning (compuerta XOR y detección de dígitos escritos a mano a partir del dataset MNIST), cuya solución radica en el uso de redes neuronales clásicas. Ambas soluciones son implementadas con la biblioteca propuesta en este trabajo y se procede a comparar el desempeño obtenido contra los mismos modelos de redes neuronales implementados con Tensorflow y Keras.
Finalmente, se proporciona una discusión a partir de los resultados obtenidos durante los experimentos realizados y se analizan posibles mejoras en el desempeño de la biblioteca, así como trabajo a futuro.
2021-04-13T16:59:55Z
2021-04-13T16:59:55Z
2021-01
info:eu-repo/semantics/masterThesis
Escamilla-Ochoa, V. R. (2021). Biblioteca de evaluación y entrenamiento de redes neuronales artificiales implementada en Rust y OpenCL. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6548
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/51362020-02-12T06:55:16Zcom_11117_560col_11117_1541
Face Detection and Recognition in a Hadoop Cluster
Bañuelos-Sahagún, Ángel J.
Rizo-Domínguez, Luis
Valdovinos-Toledo, Moisés
Hadoop
Cluster
MapReduce
OpenCV
HIPI
Face Detection
Parallel Programming
Distributed Systems
This research is focus on the implementation of High Performance and Distributive algorithm for solving the problem of detecting faces and to recognize people on a big bundle of images that then can be used on the implementation of security systems as closed-circuit television camera (CCTV), which could offer a quick solution for detecting unrecognized people on certain areas as an example. Another use of such algorithms could be the detection of certain objects like guns, cellphones, etc. in a big number of images. Face detection algorithm is implementing HAAR-LIKE methodology in a trained neuronal network as the first step, there are libraries like OpenCV that had already implemented this methodology which is been used as our computer vision library, on the other hand we have local binary pattern (LBP) which is used to trained the neural network for doing the face recognition task also included on OpenCV. To applied distributive techniques Hadoop Framework is taking an important role, been saved big number of images on its Hadoop Distributed File System (HDFS), for then becoming the data source to apply Map Reduce techniques to implement such algorithms on a distributive way, this dirty task is done by Yarn component which take the control of all servers on the cluster implemented “4 machines”. It is important to mentioned that University of Virginia has developed a library for image processing, Hadoop Image Processing Interface (HIPI) that allows to create images bundles and the easy interface to handle each image on the bundle. At the end, the result obtained is the number of faces found on the bundle and a Neural Network trained to identify people.
Esta investigación se centra en la implementación del algoritmo de alto rendimiento de manera distributivo para resolver el problema de la detección de caras y para reconocer a las personas en un gran paquete de imágenes que luego se pudiera utilizar en la aplicación de sistemas de seguridad como cámara de circuito cerrado de televisión, que podría ofrecer una solución rápida para detectar personas no reconocidas en ciertas áreas, por ejemplo. Otro uso de tales algoritmos podría ser la detección de ciertos objetos como armas, teléfonos celulares, etcétera, en un gran número de imágenes. El algoritmo de detección de rostros implementa la metodología HAAR-LIKE en una red neuronal entrenada como primer paso. Existen bibliotecas como OpenCV que ya habían implementado la metodología que será utilizada como la biblioteca de visión; por otro lado, se tiene patrón binario local (LBP) que se utiliza para entrenar a la red neuronal para hacer la tarea de reconocimiento facial también se incluye en OpenCV. El Framework de Hadoop juega un papel importante, pues aporta el ambiente distributivo en donde se guardaron todas la imágenes en su sistema de archivos HDFS (por sus siglas en inglés, Hadoop Distributed File System), este banco de información se convierte posteriormente en la entrada de datos para así poder aplicar la técnica de Map Reduce con uso de uno de los componentes del Framework Yarn, que hace uso de todas las maquinas del clúster y ejecuta de manera distribuida dichas operaciones de Map Reduce.
2018-01-03T22:05:14Z
2018-01-03T22:05:14Z
2017-08
info:eu-repo/semantics/masterThesis
Bañuelos-Sahagún, A. J. (2017). Face Detection and Recognition in a Hadoop Cluster. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5136
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/61532020-02-12T06:48:55Zcom_11117_560col_11117_1541
Análisis de grafos como servicio
Romero-Vargas, Pedro
Gutiérrez-Preciado, Luis F.
Análisis de Grafos
Visualización de Grafos
El análisis de grafos es una tarea compleja pero que es de mucha utilidad tanto para la academia como para la industria, debido a que los resultados de estos análisis pueden generar gran valor en el área donde se utilicen. Es por lo que existen múltiples herramientas y librerías que nos ayudan con esta tarea, sin embargo, muchas veces la herramienta no contiene todas las funciones o algoritmos necesarios o son complicadas de utilizar. Este trabajo desarrolla una herramienta de análisis de grafos como servicio a través de una infraestructura basada en la nube, la cual permite trabajar con único sistema escalable y elástico al cual los usuarios podrán acceder a través de una API y así realizar diferentes operaciones de análisis a un grafo de una manera sencilla y sin necesidad de conocer particularidades de la operación, además de que este servicio puede ser consumido por cualquier aplicación que permita visualizar un grafo. Para validar los resultados se ha utilizado un conjunto de datos de Twitter, con lo que se logró un análisis de redes sociales. De igual forma, se ha creado una aplicación de Python y plotly, la cual invoca las funciones con el uso de la API y muestra los resultados obtenidos con ploty
2020-02-04T02:50:54Z
2020-02-04T02:50:54Z
2020-01
info:eu-repo/semantics/masterThesis
Romero-Vargas, P. (2020). Análisis de grafos como servicio. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/6153
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/54692020-02-12T06:59:17Zcom_11117_560col_11117_1541
Microservices as an architecture for current times
Rodríguez-Bahena, Uriel
Cervantes-Álvarez, José F.
Microservices
Monolithic Architecture
Apache Thrift
Microservicios
Arquitecturas Monolíticas
In this document microservices are presented as an alternative and convenient way to build applications in comparison to the commonly used monolithic architecture, all this by exemplify and build an application that is indented to solve an everyday problem. This work introduces new and exciting technologies or framework used by some of the biggest companies which represents a big step in order to build new applications in an easy and fast way using this architecture, also a comparison is being made between some of the most popular frameworks in the market, making a distinction between what is a service oriented architecture and the new microservice architecture. All above with the purpose of exemplifying the usage an application of this new architecture by building a complete application using microservice and Apache Thrift as a framework in order to expose the importance of this architecture and show it as a possible replacement for some of the current applications that uses a monolithic approach.
2018-06-23T17:34:41Z
2018-06-23T17:34:41Z
2017-11
info:eu-repo/semantics/masterThesis
Rodríguez-Bahena, U. (2017). Microservices as an architecture for current times. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5469
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/80472022-06-02T03:00:53Zcom_11117_560col_11117_1541
Analysis and Development of an End-to-End Convolutional Neural Network for Sounds Classification Through Deep Learning Techniques
Galindo-Meza, Carlos A.
López-Meyer, Paulo
Inteligencia Artificial
Redes Neuronales
COVID-19
Clasificación
Sonido
El presente trabajo estudia el análisis y desarrollo continuo de un modelo de inteligencia artificial orientado a la clasificación de audio. El capítulo 1 presenta antecedentes sobre las diferentes tareas relacionadas a audio que la comunidad de investigación ha seguido a lo largo de los últimos años, también establece la hipótesis central de este trabajo y define objetivos generales y específicos para contribuir a la mejora del rendimiento sobre un generador de embeddings de audio de tipo end-to-end. El capítulo 2 presenta los métodos de vanguardia y trabajos publicados que se enfocan principalmente al desarrollo de la clasificación de audio y el aprendizaje profundo como disciplinas que aún tienen un gran potencial. El capítulo 3 presenta el marco conceptual en el que se basa esta tesis, dividido en dos secciones principales: preprocesamiento de audio y técnicas de aprendizaje profundo. Cada una de estas secciones se divide en varias subsecciones para representar el proceso de clasificación de audio a través de redes neuronales profundas. El capítulo 4 brinda una explicación profunda del generador de embeddings de audio llamado AemNet y sus componentes, utilizado como objeto de estudio, donde se detalla en las siguientes subsecciones. Se realizó una experimentación inicial sobre este enfoque y se presentaron resultados experimentales que sugirieron un mejor rendimiento mediante la modificación de las etapas de arquitectura de la red neuronal. El capítulo 5 es la primera aplicación objetivo de nuestra adaptación de AemNet que se presentó al desafío DCASE 2021. Los detalles sobre el desafío y los resultados se describen en las secciones de este capítulo, así como la metodología seguida para presentar nuestra propuesta. El capítulo 6 es la segunda aplicación objetivo y el primero en apuntar a los sonidos respiratorios. El desafío de ICBHI se explica en las secciones de este capítulo, así como la metodología y los experimentos realizados para llegar a un clasificador robusto que distingue cuatro anomalías de tos diferentes. Se creó un artículo a partir de la solución propuesta y se presentó en el IEEE LA-CCI 2021. El capítulo 7 aprovecha los diversos resultados anteriores para cumplir con un enfoque moderno como lo es la detección de COVID-19, cuya recopilación y experimentación de fuentes de datos se describen profundamente y los resultados experimentales sugieren que una adaptación de red residual denominada AemResNet, puede cumplir la función de distinguir a los pacientes con COVID-19 a partir de tos y sonidos respiratorios. Finalmente, las conclusiones de toda esta investigación y los resultados evaluados en cada una de las aplicaciones objetivo se discuten en el capítulo 8.
2022-06-01T18:49:50Z
2022-06-01T18:49:50Z
2021-11
info:eu-repo/semantics/masterThesis
Galindo-Meza, C. A. (2021). Analysis and Development of an End-to-End Convolutional Neural Network for Sounds Classification Through Deep Learning Techniques. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/8047
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/63212021-09-06T15:55:00Zcom_11117_560col_11117_1541
Performance comparison of deep learning models applied for satellite image classification
Cordero-Robles, Carlos A.
Villalón-Turrubiates, Iván E.
Martínez-Sánchez, Víctor H.
Deep learning
Satellite images
Image classification
Satellite images classification is important for applications that involve the distribution of the human activities. Such distribution helps the governments to determine the best places to expand cities avoiding problems related to natural disasters or legal constrains. Currently, existing few agencies in charge of image classification and the area to cover is enormous. Therefor an automation of this process is necessary for this task otherwise, it will take an eternity to perform this task manually. On the other hand, detection and classification algorithms used before Machine Learning (ML) have not shown good result classifying this specific sort of images. However, latest approaches for image classification using Convolutional Neural Networks (CNN) have shown quite accurate results. In this research, we analyses the performance in four different CNN architectures used for satellite image classification. We use a dataset provided in 2017 by IARPA names IARPA fMoW. It contains more than two thousand images belonging to 62 classes already separated in train and validation.
The solution was implemented in Python using the Keras and Tensorflow libraries. The research was divided in two parts: Hyperparameters optimization and architectures results evaluation. For the first part we used only seven classes from a sample of the dataset (The sample is three hundred times smaller than the complete dataset). The architectures are trained using these seven classes of this small dataset to determine the best hyperparameters. After having selected the hyperparameters the architectures are trained with the complete sample. The evaluation is based on visual examination with the help of the tool Tensorboard and SKLearn metrics.
All the architectures showed accuracies near to 90% over the training dataset sample. The architecture with the best accuracy result was Resnet-152 with one accuracy of 99% over the training dataset Sample. The accuracy over the validation dataset will become important after training the architectures with the complete dataset. The training with the complete dataset will be performed in future works.
2020-09-25T22:26:32Z
2020-09-25T22:26:32Z
2020-08
info:eu-repo/semantics/masterThesis
Cordero-Robles, C.A. (2020). Performance comparison of deep learning models applied for satellite image classification. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6321
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/60242020-02-12T06:48:04Zcom_11117_560col_11117_1541
Evaluación y punto de referencia para bases de datos orientadas a grafos
Ruiz-Rountree, Leobardo
Ortega-Guzmán, Víctor H.
Bases de Datos
Grafos
Análisis de Datos
Las bases de datos orientadas a grafos (BDG) han adquirido popularidad dentro del análisis de datos masivos ya que proveen un rendimiento superior a la que se obtiene a través de una base de datos relacional en los escenarios en donde la alta conectividad entre datos se convierte en el principal componente para interpretar datos y obtener información de ellos para la toma de decisiones. Este trabajo de obtención de grado (TOG) tiene como objetivo desarrollar una metodología para comparar y evaluar de forma equitativa a distintos motores que se especializan en el manejo de grafos. En primera instancia se analizan los estudios relacionados a este tema que fungirán como soporte para nuestra investigación e identificar los puntos a mejorar para crear un proceso de evaluación y realizar el punto de referencia de bases de datos orientadas a grafos que son populares por el tiempo que llevan desarrollándose y siendo utilizadas en la industria y la academia, y otros que han surgido recientemente para mejorar las limitantes que hay en el mercado. El principal componente del trabajo es crear los pasos requeridos para ejecutar pruebas con distintos tipos de conjuntos de datos y algoritmos a un grupo de BDG. De forma posterior se ejecuta un caso de estudio en el cual se define un ambiente de validación homogéneo para todo sistema, donde se puedan tener las especificaciones de hardware y software para que todas las BDG puedan correr sin restricciones. De la misma manera se definen los aspectos a evaluar, que incluyen, pero no están limitados a las capacidades del lenguaje de consultas que proveen, la integración con otras plataformas o sistemas, y el soporte que cada una provee para la ejecución de algoritmos sobre grafos. La selección de los datos que se cargarán en las distintas plataformas debe considerar que tengan el formato adecuado que cada BDG soporta, y en caso contrario, analizar si los datos pueden ser convertidos para ser utilizados en la base de datos. Finalmente, se toman como caso de prueba las bases de datos basadas en grafos GraphDB, JanusGraph, Neo4j, y TigerGraph. El caso de estudio utiliza la metodología desarrollada a través de este trabajo para evaluar las bases de datos.
2019-09-12T23:33:20Z
2019-09-12T23:33:20Z
2019-06
info:eu-repo/semantics/masterThesis
Ruiz-Rountree, L. (2019). Evaluación y punto de referencia para bases de datos orientadas a grafos. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/6024
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/54312020-02-12T06:58:47Zcom_11117_560col_11117_1541
Plataforma de big data e inteligencia de negocios de código abierto en la nube
Guerrero-Gómez, Alfredo
Ortega-Guzmán, Víctor H.
Big Data
Inteligencia de Negocios
Open Source
Código Abierto
En este trabajo se presenta una investigación sobre el estado del arte de las plataformas de Big Data que son ofrecidas comercialmente por grandes empresas dedicadas a las tecnologías de información y el impacto que tiene el uso de Big Data en diferentes sectores. El problema que se pretende resolver con este trabajo son los obstáculos que tienen las empresas mexicanas para la adopción de tecnologías de Big Data e Inteligencia de Negocios Código Abierto en la Nube ya que en encuestas hechas a estos negocios se obtuvo como resultado que los principales obstáculos son los costos y la falta de habilidades técnicas. En este trabajo se estableció como objetivo crear una serie de tutoriales que sirvan como apoyo para generar una plataforma de Big Data e Inteligencia de Negocios con herramientas Open Source en un ambiente Cloud. Además, la creación de un caso ejemplo con datos de educación pública del estado de Jalisco. Mediante el uso de herramientas Open Source y la implementación de la plataforma en Cloud se pretende resolver el obstáculo de costos por adquisición de software, ya que al usar solo herramientas Open Source no se tiene que hacer ningún pago por licenciamiento y al usar Cloud para su implementación no se requiere hacer inversiones en infraestructura y mantenimientos de la misma, solo se paga por los servicios que se utilizan. Con la generación de los tutoriales y la creación de un caso práctico se pretende resolver el obstáculo de habilidades técnicas ya que, con estas guías de ayuda, se explica cómo instalar y configurar cada una de las herramientas utilizadas en la plataforma de Big Data e Inteligencia de Negociosy con el caso práctico se demuestra cómo almacenar, transformar y analizar grandes cantidades de datos con la plataforma.
2018-06-15T16:05:22Z
2018-06-15T16:05:22Z
2018-05
info:eu-repo/semantics/masterThesis
Guerrero-Gómez, A. (2018). Plataforma de big data e inteligencia de negocios de código abierto en la nube. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5431
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/51882020-02-12T06:57:39Zcom_11117_560col_11117_1541
Framework for the Flexible Searching and Quality Index Reports of the Research Production at ITESO
Ramírez-Ruvalcaba, Francisco
Estrada-Barahona, Christopher O.
Alcaraz-Mejía, Mildreth
VIVO
OWL
DSpace
Duraspace
RDF
Semantic Web
Semi-structured Data
This work introduces the methodology of implementation of VIVO, a semantic web framework, as the institutional repository for the research production at ITESO. One of the biggest needs that an institutional repository must meet is to allow easy access to academic production by the largest possible number of people. VIVO creates a work network of authors and their work, enhancing collaboration and allowing for more flexible searches enabling easier access to information related to specific works, areas, organizations, events, and authors. Currently ITESO stores its academic data in an institutional repository called Delphos based on relational databases. Unfortunately, Delphos does not fulfill user’s expectations due to its poor data design, non-intuitive user interface, and difficult report creation. The implementation of a new semantic web framework will allow the users to have access to a greater amount of information due to the ontologies model and its inference capability. Besides of the easy use of the graphic user interface and the visualization of interconnected networks between authors and their publications that facilitate information dissemination. VIVO, stewarded by Duraspace, was chosen for this solution among others semantic web framework tools available due to its ample use at several Universities around the world.
Este trabajo presenta la metodología de la implementación de VIVO, un marco de trabajo de la web semántica, como el repositorio institucional para la producción de investigaciones en el ITESO. Una de las más grandes necesidades que un repositorio institucional debe cumplir es permitir el fácil acceso a la producción académica por el mayor número de gente posible. VIVO crea una red de trabajo entre los autores y sus trabajos, lo que incrementa la colaboración, permite una mayor flexibilidad en las búsquedas y facilita el acceso a la información relacionada a trabajos, áreas, organizaciones, eventos y autores. Actualmente ITESO almacena su producción académica en un repositorio institucional llamado Delphos que está construido sobre bases de datos relacionales. Desafortunadamente, Delphos no cumple con las expectativas de los usuarios debido a su diseño carente de eficiencia, agilidad para las consultas, interfaz de usuario no intuitiva y dificultad para extraer información. La implementación de un nuevo marco de trabajo de la web semántica permitirá a los usuarios tener acceso a una mayor cantidad de información de manera precisa debido a su modelo de ontologías y su capacidad de inferencia. Además, el fácil uso de su interfaz gráfica y la visualización de redes interconectadas entre autores y sus publicaciones facilitarán la diseminación de información. VIVO, resguardado por Duraspace, fue elegido para esta solución de entre otros disponibles marcos de trabajo de la web semántica debido a su amplio uso por diversas universidades alrededor del mundo.
2018-01-29T21:28:08Z
2018-01-29T21:28:08Z
2017-08
info:eu-repo/semantics/masterThesis
Ramírez-Ruvalcaba, F. (2017). Framework for the Flexible Searching and Quality Index Reports of the Research Production at ITESO. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5188
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/61712020-02-12T06:49:58Zcom_11117_560col_11117_1541
Plataforma de investigadores con sincronización de información entre 2 plataformas de trabajo
Flores-Castillo, Roberto A.
Estrada-Barahona, Christopher O.
Alcaraz-Mejía, Mildreth
ITESO - Repositorio Institucional (ReI)
ITESO - Coordinación de Investigación y Posgrado
Sistema interno para ITESO realizado con Apache, PHP y MySql el cual muestra información relevante del producto de investigación e investigadores que es importada de Delfos y sincronización con Repositorio Institucional del ITESO.
2020-02-07T00:55:20Z
2019-07
info:eu-repo/semantics/masterThesis
Flores-Castillo, R. A. (2019). Plataforma de investigadores con sincronización de información entre 2 plataformas de trabajo. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/6171
spa
http://quijote.biblio.iteso.mx/licencias/TodosLosDerechosReservados.pdf
ITESO
oai:rei.iteso.mx:11117/50252020-02-12T06:55:17Zcom_11117_560col_11117_1541
Herramientas de inteligencia de negocios orientada a la toma de decisiones para el sector salud
Aldaco-Torres, Andrés
Ortega-Guzmán, Víctor H.
Big Data
Data Mining
Sector Salud
Base de Datos
En este trabajo se presenta el uso de tecnologías de Big Data, prioritariamente Open Source para el análisis de datos, específicamente en el sector salud. El objetivo principal fue implementar una arquitectura de extracción, transformación, carga, análisis y visualización que tome la información pública estructurada, semiestructurada y no estructurada, referente a la diabetes, de instituciones de gobierno como el IMSS, la Secretaria de Salud, el INEGI y
ESANUT, que realice los cruces necesarios y la presente de una forma en la que sirva para apoyar a los usuarios en su toma de decisiones. La muestra de datos se acota a los años 2000 a 2010 de los 32 estados de la república mexicana.
2017-10-25T18:15:23Z
2017-10-25T18:15:23Z
2017-10
info:eu-repo/semantics/masterThesis
Aldaco-Torres, A. (2017). Herramientas de inteligencia de negocios orientada a la toma de decisiones para el sector salud. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5025
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/81192022-07-13T08:00:53Zcom_11117_560col_11117_1541
Analítica de preguntas con respuestas tipo Likert en encuestas de satisfacción de cursos de Algoritmos y Programación
Santana-DeLosRíos, Carolina
Hernández-Chávez, Gisel
Tener encuestas donde un estudiante puede evaluar el desempeño de un profesor sobre un curso en particular, es una herramienta útil para analizar si tanto el profesor como la clase y curso impartido fueron buenos desde el punto de vista del estudiante. Por esta razón, es importante contar con una herramienta que realmente permita obtener la opinión del estudiante, es decir, que permita obtener datos que sean de calidad para determinar si el profesor realizó un buen trabajo para impartir sus clases y el curso en general. El ITESO pide a sus estudiantes evaluar a sus profesores en diferentes momentos durante el curso: durante las primeras semanas y al final del periodo, de esta forma se obtiene la percepción del estudiante al inicio y fin del curso, todo con el fin de obtener datos de calidad que permitan identificar si el profesor realizó un buen trabajo. Es importante para el ITESO proporcionar educación de calidad para sus estudiantes y estas encuestas sirven como indicador para dicho propósito.
2022-07-12T19:13:08Z
2022-07-12T19:13:08Z
2022-07
info:eu-repo/semantics/masterThesis
Santana-DeLosRíos, C. (2022). Analítica de preguntas con respuestas tipo Likert en encuestas de satisfacción de cursos de Algoritmos y Programación. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/8119
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/82032022-09-28T08:01:05Zcom_11117_560col_11117_1541
Multispectral Image Analysis of Remotely Sensed Crops
Villanueva-Molina, José J.
DeObeso-Orendain, Alberto
Multispectral Image Analysis
Remotely Sensed Crops
Precision Agriculture
spectral signature
NDVI
NDRE
image processing
The range in topography, biodiversity, and agricultural technology has led to the emergence of precision agriculture. Precision agriculture is a farming management concept based on monitoring, measuring, and responding to crop variability. Computer vision, image analysis, and image processing are gaining considerable traction.
For this paper, image analysis involves recognizing individual objects and providing insights from vegetation indices. The data acquired was remote-sensed multispectral images from blueberry, maguey, and pineapple. After computing vegetation indices, histograms were analyzed to choose thresholds. The masking of vegetation indices with threshold allowed the removal of areas with shadows and soil. The four leading vegetation indices used were the Normalized Difference Vegetation Index (NDVI), the Normalized Difference Red Edge (NDRE), the Simple Ratio, the Red Edge Chlorophyll Index, and the Visible Atmospherically Resistant Index (SAVI).
This research reviews literature for acquiring, preprocessing, and analyzing remote-sensed multispectral images in precision agriculture. It compiles the theoretical framework for analyzing multispectral data. Also, it describes and implements radiometric calibration and image alignment using the custom code from the MicaSense repository.
As a result, it was possible to segment the blueberry, tequila agave, and pineapple plants from the background regardless of the noisy images. Non-plant pixels were excluded and shown as transparent by masking areas with shadows and low NDVI pixels, which sometimes removed plant pixels. The NDVI and NDRE helped identify crop pixels. On the other hand, it was possible to identify the pineapple fruits from the agave plantation using the SAVI vegetation index and the thresholding method. Finally, the work identifies the problems associated with an incorrect data acquisition methodology and provides suggestions.
2022-09-27T20:18:50Z
2022-09-27T20:18:50Z
2022-05
info:eu-repo/semantics/masterThesis
Villanueva-Molina, J. J. (2022). Multispectral Image Analysis of Remotely Sensed Crops. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/8203
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/85022023-03-01T14:19:01Zcom_11117_560col_11117_1541
Ingesta y modelado de datos de aerolíneas mediante un pipeline utilizando tecnología disponible en la nube
Caballero-Zúñiga, Jorge L.
De Obeso-Orendain, Alberto
DeObeso-Orendain, Alberto
AWS
Industria de Aviación
Tecnologías de la Información
Amazon Web Services
Machine Learning
Este trabajo expone la creación de un pipeline de datos en la nube en la plataforma AWS (Amazon Web Services) que mediante un ETL, que por sus siglas en Ingles Extract, Transform and Load se logra resolver el problema de saber cuáles son las aerolíneas registradas en la IATA (International Air Transport Association) que tienen más demoras en la salida, y en la llegada y mediante este análisis exponer un trabajo futuro para agregarlo como una nueva funcionalidad en las aplicaciones de venta de vuelos para que así los usuarios tengan un nuevo parámetro para elegir mediante mayor información, siendo este el objetivo principal del trabajo, el cual es: Crear un pipeline de ingesta de datos que permita recopilarlos y procesarlos de diversas fuentes y prepararlos para su análisis. Para hacerlo efectivo y útil para el análisis, es necesario definir un modelo de datos que estructure los datos de manera coherente y permita extraer información valiosa. AWS ofrece una amplia gama de herramientas que pueden ayudar a crear y gestionar un pipeline de ingesta de datos, como Amazon Glue. Además, es importante generar métricas que consideren las demoras en relación con los tipos de datos, en este caso, sobre las demoras en los vuelos. De esta manera, podremos optimizar el pipeline y garantizar un flujo de datos eficiente y de alta calidad. De igual manera se pretende confirmar la precisión de los datos usando un modelo de machine learning de regresión lineal con la herramienta de pyspark. Este tipo de modelo es muy útil para clasificar datos y puede ayudar a mejorar la precisión de las predicciones. Además, pyspark es una herramienta muy versátil y potente que permite realizar análisis y procesamiento de grandes conjuntos de datos de manera rápida y eficiente. Es importante tener en cuenta que la precisión de los datos es crucial para el éxito de cualquier proyecto de machine learning, por lo que es necesario realizar pruebas y validaciones para asegurarse de que los datos son confiables y están limpios.
2023-02-21T20:08:46Z
2023-02-21T20:08:46Z
2022-12
info:eu-repo/semantics/masterThesis
Caballero-Zúñiga, J. L. (2022). Ingesta y modelado de datos de aerolíneas mediante un pipeline utilizando tecnología disponible en la nube. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/8502
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/38312020-02-12T06:51:18Zcom_11117_560col_11117_1541
Usabilidad e integración de aplicaciones en PRA
Ochoa-Lazos, Christopher
Romero-Espinosa, César
Alcaraz-Mejía, Mildreth
Elvira-Valenzuela, José L.
Desarrollo de Aplicaciones
Product and Release Administration PRA
Oracle
Discovery Tool Encore Synergy
Interfaces Gráficas
Desarrollar una aplicación sencilla y funcional, no necesariamente tiene que ser un proceso largo y complicado. Uno de los retos de este trabajo es proporcionar un orden, dirección y un diseño fácil de utilizar para los usuarios. Para el equipo de Release Management Engineering de la empresa Oracle, este ha sido uno de los más grandes desafíos, el tratar de establecer un balance entre sus elementos visuales y su funcionalidad. Se desea que la aplicación de Product and Release Administration (PRA) tenga una mejora en la comunicación visual, una ejecución de tareas más rápida y una mayor eficiencia. Sus módulos serán integrados para lograr una aplicación unificada de fácil uso. Se rediseñarán los módulos involucrados en la aplicación de PRA, con el fin de mejorar su interfaz gráfica y el funcionamiento de los mismos. Las tareas dentro de la aplicación serán intuitivas y fáciles de ejecutar, y así se reducirá la curva de aprendizaje del usuario. Se disminuirá el tiempo para realizar sus actividades dentro de la aplicación y se minimizará el número de solicitudes para mejorar la interfaz gráfica.
2016-08-25T16:25:33Z
2016-07
info:eu-repo/semantics/masterThesis
Ochoa-Lazos, C. (2016). Usabilidad e integración de aplicaciones en PRA. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/3831
spa
http://quijote.biblio.iteso.mx/licencias/TodosLosDerechosReservados.pdf
ITESO
oai:rei.iteso.mx:11117/51772020-02-12T06:55:45Zcom_11117_560col_11117_1541
Ingesta por flujo continuo para DNS en Apache Spot
Delgado-Rodríguez, José J.
Valdovinos-Toledo, Moisés
Apache Spot
Analisis de Datos DNS
Análisis de Red
Apache Spot, en su afán por dar un tiempo de respuesta rápido y preciso en el análisis de los datos producidos por la red y así hacer la detección oportuna de posibles amenazas o ataques a la red, utilizó Apache Hadoop como base para la recolección, ingesta, almacenamiento, procesamiento y análisis de los datos de red. Apache Hadoop es una herramienta de desarrollo distribuido que tiene un alto desempeño trabajando con Big Data, es por esto que fue seleccionada. La constante optimización de los procesos llevó a identificar problemas de tiempo en la ingesta de datos. PROXY fue el primero en implementarse como flujo continuo de datos al momento de hacer la alimentación del sistema, y se notó una mejora considerable. También se investigaron formas de obtención de los datos de red para DNS que permitieran hacer la ingesta de la misma manera; se encontró que con el monitoreo de la red y la conversión de peticiones sobre DNS en tiempo real, se daba la posibilidad de mover este proceso a flujo continuo de datos.
2018-01-24T19:53:13Z
2018-01-24T19:53:13Z
2018-01
info:eu-repo/semantics/masterThesis
Delgado-Rodríguez, J. J. (2018). Ingesta por flujo continuo para DNS en Apache Spot. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5177
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/37612020-02-12T06:51:23Zcom_11117_560col_11117_1541
Optimización del almacén de datos para Microsoft Project usando tecnologías de Oracle
García-Escalante, Jorge E.
Díaz-Rodríguez, Miriam
Romero-Espinosa, César
Business Intelligence
Data Warehouse
Cubos
Vistas Materializadas
Metadatos
Modelo Dimensional
Reescritura de Consultas
Este documento presenta la aplicación de técnicas y tecnologías que mejoran el uso, respuesta y disponibilidad de un sistema de apoyo a las decisiones basado en la plataforma Oracle Business Intelligence sobre los datos generados por la aplicación Microsoft Project.
2016-08-01T17:07:34Z
2016-07
info:eu-repo/semantics/masterThesis
García-Escalante, J. E. (2016). Optimización del almacén de datos para Microsoft Project usando tecnologías de Oracle. Trabajo de Obtención de Grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/3761
spa
http://quijote.biblio.iteso.mx/licencias/TodosLosDerechosReservados.pdf
ITESO
oai:rei.iteso.mx:11117/106632024-03-01T17:17:01Zcom_11117_560col_11117_1541
Detección y clasificación de objetos aplicado a un área de investigación: reconocimiento de la lengua de señas mexicana
Jaime-Gaytán, Cristian E.
Martínez-Sánchez, Víctor H.
Deep Learning
Lengua de Señas Mexicana
Clasificación de Objetos
Detección de Objetos
Python
El presente trabajo de maestría se enfoca en el estudio y análisis de la Lengua de Señas Mexicana (LSM), un lenguaje esencial para la comunidad sorda en México, que posee su propia sintaxis, gramática y léxico. La LSM se compone de una variedad de signos, cada uno con su propia lingüística y expresiones propias, lo que la convierte en una herramienta fundamental para que las personas sordas en México puedan expresar sus pensamientos y emociones, así como satisfacer sus necesidades comunicativas y cognitivas al interactuar con su entorno. En la actualidad, se han desarrollado diversas propuestas y tecnologías con el propósito de facilitar la comunicación y comprensión de la LSM. Estas propuestas abarcan desde sistemas invasivos que se colocan en las manos y utilizan sensores de diversa índole, hasta sistemas menos invasivos que, mediante sensores externos, son capaces de captar el movimiento de las manos y las expresiones faciales de los usuarios. A pesar de los avances en la tecnología y la investigación en este campo, es importante destacar que muchas investigaciones previas sobre el reconocimiento de la LSM han enfrentado desafíos en la implementación de señas debido a la complejidad de abordar todas las señas de cada región del país. En muchos casos, las investigaciones se han centrado en señas específicas, dividiéndolas en categorías estáticas y dinámicas, lo que ha limitado su aplicabilidad. El objetivo principal de este proyecto de maestría es diseñar, implementar y verificar un modelo de redes neuronales que se base en modelos ya existentes, y que se enfoque en las señas estáticas de la Lengua de Señas Mexicana. Este enfoque permitirá el desarrollo de un sistema que pueda identificar y reconocer correctamente cada señal estática de la LSM, proporcionando información detallada sobre su significado y la forma adecuada de interpretarla. Este proyecto contribuirá de manera significativa a mejorar la accesibilidad y la comunicación de las personas sordas en México, facilitando la comprensión y el uso de la LSM en diversos contextos.
2023-12-04T20:52:10Z
2023-12-04T20:52:10Z
2023-05
info:eu-repo/semantics/masterThesis
Jaime-Gaytán, C. E. (2023). Detección y clasificación de objetos aplicado a un área de investigación: reconocimiento de la lengua de señas mexicana. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/10663
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/65352021-09-06T15:56:12Zcom_11117_560col_11117_1541
Identificador de GAPS en imágenes satelitales tomadas por el Landsat 7
Aviña-Delgado, José A.
Piza-Dávila, Hugo I.
Imágenes Satelitales
Algoritmo de Otsu
Gap-Filling
En el año 2002 el escáner de corrección de línea en las imágenes satelitales Landsat 7 ETM+ presento una falla. Las imágenes provenientes del satélite Landsat 7 son una de las principales fuentes de monitoreo de fenómenos naturales, así como de cambios inducidos por el hombre. A pesar de la falla presentada, las imágenes captadas por el satélite Landsat 7 se siguen obteniendo debido a que produce bandas de 60 m de largo, estas bandas son utilizadas para realizar estudios de geología que considera los fenómenos térmicos en la superficie terrestre, además se pueden hacer estudios multitemporales porque existen bases de datos de imágenes Landsat 7 desde 1999. Los huecos presentes dentro de las imágenes satelitales Landsat 7 se muestran como líneas paralelas diagonales que cubre el ancho de una imagen satelital, el grosor de cada línea va desde un píxel hasta cercanos los 22 pixeles de alto de la línea paralela identificada como hueco/gap.
Se han desarrollado diferentes algoritmos para corregir estos valores denominados huecos o gaps (gap-filling). Sin embargo, una cantidad considerable de estos algoritmos procesan la imagen completa, afectando no solamente los gaps existentes, sino también los píxeles de la imagen que no presentan problemas. Este procesamiento previo es la identificación de gaps en estas imágenes. Algunos algoritmos incorporan una fase de preprocesamiento para realizar esta identificación de gaps, sin embargo, no logran encontrar todos los huecos o cubrir la totalidad de pixeles que el hueco o área dañada representa.
El presente proyecto tiene como objetivo principal realizar la identificación de gaps en estas imágenes satelitales, como una fase de preprocesamiento. Este propósito se cumple de manera satisfactoria en el presente proyecto mediante un procedimiento que incluye el algoritmo de Otsu para ser aplicado sobre una imagen satelital, el cual se aplica a cada una de las bandas de la imagen satelital en formato TIFF. Con el procedimiento que se ha desarrollado en este trabajo, se implementó una interfaz gráfica con los algoritmos mencionados, para que pueda ser utilizada por cualquier algoritmo de reparación de huevos en imágenes satelitales Landsat 7.
2021-04-06T17:43:27Z
2021-04-06T17:43:27Z
2020-12
info:eu-repo/semantics/masterThesis
Piza-Dávila, H. I. (2020). Identificador de GAPS en imágenes satelitales tomadas por el Landsat 7. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6535
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/81652022-09-03T08:02:19Zcom_11117_560col_11117_1541
Machine Learning and Data Science Techniques applied to Intel Historical SDL (Security Development Lifecycle). Project Execution Data to Discover Improvement Insights
Téllez-Salmón, Ximena
Villalón-Turrubiates, Iván E.
Viveros-Wacher, Andrés
Intel, as many other companies, wants to optimize their processes. Deliver products faster without compromising quality is one of the main objectives of the company. Security is one of their quality pillars. Ensuring that their products are secure is a priority. Because of that, one of our organization’s main goals is to reduce the time teams spend in security related activities. The main intention of this work is to use data science to improve the security development lifecycle (SDL) process. Optimizing SDL by using machine learning models to identify delays and unnecessary tasks became the specific objectives of this work. Two machine learning models are proposed as the result of this effort that are explained in full detail at the results section. This document contains 6 main sections. The first section which is the introduction, explains the reasons behind this work. The second section is the state of the art which explains how other companies have improved their processes by using data science and machine learning techniques. The third section is the theoretical framework; in this section all the concepts that were used on this work are explained in detail. Fourth section is the methodological development which explains the steps followed and techniques used to deliver results. Fifth section are results. In this section, the results of each phase are explained in detail, and finally what is the outcome of this work. Finally, the sixth section are conclusions, which discuss the impact of this work and the work ahead.
2022-09-01T22:38:22Z
2022-09-01T22:38:22Z
2022-07
info:eu-repo/semantics/masterThesis
Téllez-Salmón, X. (2022). Machine Learning and Data Science Techniques applied to Intel Historical SDL (Security Development Lifecycle). Project Execution Data to discover improvement insights. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/8165
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/57232020-02-12T06:45:48Zcom_11117_560col_11117_1541
Desarrollo de una aplicación para la reparación de huecos (gapfilling) de imágenes satelitales Landsat 7 ETM+
González- Velázquez, Antonio
Sánchez-Díaz, Guillermo
Piza-Dávila, Hugo I.
Gapfilling
LandSat
NASA
Procesamiento de Imágenes
Imágenes Satelitales
En este trabajo se presenta una alternativa para la reparación de imágenes satelitales que presentan daños generados por una falla del sensor del satélite desde 2002, la cual vuelve complejas las tareas de análisis, clasificación, detección, entre otras relacionadas en el ámbito de la geoinformática, geología entre otras. Se realizó un análisis de las diferentes alternativas reportadas en el estado del arte para reparar las imágenes satelitales que presentan esta falla. A partir de esto se identificaron dos principales categorías: la primera son algoritmos que usan una imagen de entrada (Input) para corregir la falla mencionada conocida como gaps (huecos o ruido encontrado en las imágenes); y la segunda son algoritmos denominados de Inpainting, desarrollados para reparar imágenes en general, sin hacer uso de la segunda imagen Input. Sin embargo, estas dos familias de algoritmos presentan diversos inconvenientes desde la precisión en la reparación, como en el tiempo de ejecución para aplicar los algoritmos. Por el estudio realizado, se buscaron algoritmos de tipo Inpainting que presentaran buenas características en procesamiento y soluciones generadas, los cuales no están enfocados a procesar imágenes satelitales. Dentro de estos algoritmos se encontró el desarrollado por Oliveiras, el cual con el uso de un procedimiento de convolución de manera iterativa, va mejorando en cada iteración la solución encontrada. Este algoritmo demostró ser capaz de reparar imágenes a partir de una imagen patrón o máscara, la cual funciona como pivote para el manejo de los huecos o gaps. Por medio de un kernel paramétrico (configuración de pixeles vecinos), permitió restaurar imágenes en un tiempo considerablemente corto. El algoritmo de Oliveiras fue tomado como base para el desarrollo del algoritmo propuesto en este trabajo, en el que se realizaron diferentes adecuaciones en el manejo de la máscara, de los gaps o huecos y programación en GPU, debido a la naturaleza en el tamaño de las imágenes satelitales. Se realizaron diferentes experimentos, tanto en imágenes satelitales como otras utilizadas en procesamiento de imágenes, para mostrar el desempeño del algoritmo propuesto.
2018-12-03T22:47:34Z
2018-12-03T22:47:34Z
2018-11
info:eu-repo/semantics/masterThesis
González- Velázquez, A. (2018). Desarrollo de una aplicación para la reparación de huecos (gapfilling) de imágenes satelitales Landsat 7 ETM+. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5723
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/57212020-02-12T06:45:41Zcom_11117_560col_11117_1541
Herramienta de business intelligence para el soporte en la toma de decisiones del sector salud
Iturbe-García, Horacio
Ortega-Guzmán, Víctor H.
Big Data
Modelo de Datos
Análisis de Datos
Sector Salud
Este proyecto se centra en el análisis de la interacción entre afecciones y medicamentos a partir de la información publicada por el sector salud de los años 2008 a 2015. Para realizar el análisis de la información, se propone los datos sean manejados y almacenados como grafos. Esto ofrece la posibilidad de identificar si hay alguna afección que sea la causante de otra o bien su grado de incidencia. Mediante una interfaz web, el usuario final selecciona una o varias afecciones y medicamentos a consultar. Los resultados son mostrados en la interfaz y se dividen en tres secciones. La primera sección ofrece información sobre los medicamentos que han sido encontrados en los conjuntos publicados por el sector salud, como prescritos a la afección seleccionada. La segunda sección, muestra las afecciones a las cuales ha sido prescrito el medicamento o los medicamentos seleccionados. Finalmente, la tercera sección muestra otras afecciones en un nivel de profundidad uno (los vecinos cercanos), que están relacionadas con la afección o afecciones seleccionadas. La solución se implementó utilizando únicamente herramientas de código abierto.
2018-12-03T19:01:50Z
2018-12-03T19:01:50Z
2018-09
info:eu-repo/semantics/masterThesis
Iturbe-García, H. (2018). Herramienta de business intelligence para el soporte en la toma de decisiones del sector salud. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5721
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/63232022-09-21T05:00:00Zcom_11117_560col_11117_1541
Una solución fácil de usar para analizar datos altamente conectados aplicando algoritmos de grafos y técnicas de visualización
López-Robles, Ivonne R.
Ortega-Guzmán, Víctor H.
Grafos
Algoritmos
Neo4j
Visualizador
Base de Datos
Con el objetivo de favorecer la visualización e interpretación de datos altamente conectados, este trabajo de obtención de grado presenta una solución para trabajar con base de datos de grafos mediante una aplicación Web que consiste en una interfaz donde el usuario puede extraer el esquema de la base de datos de grafos(BDG), es decir, visualizar sus nodos, atributos, relaciones y atributos de las relaciones.
Permite hacer ejecución de ocho algoritmos de análisis de grafos, entre ellos los algoritmos de centralidad: Page Rank, Betweeness Centrality, In/Out Degree tal como lo son algoritmos de detección de comunidades, tal como lo son: Louvain, Label Propagation y Connected Components. La interfaz genera para el usuario una sugerencia para ejecutar cada uno de los algoritmos basada en la base de datos que se está consultando en NEO4J y usando el lenguaje de consultas CYPHER, una vez ejecutados los algoritmos, se suman atributos significativos al grafo, lo cual permite hacer un análisis más detallado y profundo del mismo.
La aplicación Web cuenta con un algoritmo de análisis de sentimientos sobre uno o más atributos de los nodos y así sumar un atributo con el resultado, que puede ser: negativo, positivo o neutro.
El usuario tiene la posibilidad de hacer una extracción de datos usando el lenguaje de consultas CYPHER, el resultado de dicha consulta es direccionado a otra interfaz de la aplicación, donde esté puede elegir uno y/o siete modelos de visualización para hacer análisis de los datos, entre ellos: Knowledge Map, Zoomable Sunburst, Hierarchical Bar, Hierarchical Edge Bundle, Hierarchical Edge Tree, Hierarchical Edge Vertical y Table Graph.
Gracias a la solución generada en este trabajo es posible facilitar en análisis de redes de información sin tener conocimientos de bases de datos de grafos.
2020-09-25T22:47:32Z
2020-09-25T22:47:32Z
2020-09
info:eu-repo/semantics/masterThesis
López-Robles, I.R. (2020). Una solución fácil de usar para analizar datos altamente conectados aplicando algoritmos de grafos y técnicas de visualización. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6323
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/63222021-11-23T19:10:17Zcom_11117_560col_11117_1541
Adaptive Big Data Pipeline
Orozco-GómezSerrano, Aldo
DeObeso-Orendáin, Alberto
Analytics
Bigdata
Automation
Over the past three decades, data has exponentially evolved from being a simple software by-product to one of the most important companies’ assets used to understand their customers and foresee trends. Deep learning has demonstrated that big volumes of clean data generally provide more flexibility and accuracy when modeling a phenomenon. However, handling ever-increasing data volumes entail new challenges: the lack of expertise to select the appropriate big data tools for the processing pipelines, as well as the speed at which engineers can take such pipelines into production reliably, leveraging the cloud. We introduce a system called Adaptive Big Data Pipelines: a platform to automate data pipelines creation. It provides an interface to capture the data sources, transformations, destinations and execution schedule. The system builds up the cloud infrastructure, schedules and fine-tunes the transformations, and creates the data lineage graph. This system has been tested on data sets of 50 gigabytes, processing them in just a few minutes without user intervention.
2020-09-25T22:37:51Z
2020-09-25T22:37:51Z
2020-09
info:eu-repo/semantics/masterThesis
Orozco-GómezSerrano, A. (2020). Adaptive Big Data Pipelines. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6322
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/50952020-02-12T06:55:14Zcom_11117_560col_11117_1541
Diseño de marco de referencia para la seguridad en MongoDB, para implementar en la micro y pequeña empresa
DeLaMora-Carrillo, Hugo E.
Parres-Peredo, Álvaro I.
MongoDB
Bases de Datos
Seguridad Informática
En este trabajo se propone un marco de referencia para la seguridad en bases de datos no relacionales, particularmente en MongoDB. Se presentan tres grandes hitos. 1. Políticas: se refiere a lo que deseamos proteger y el porqué de ello; al uso y limitaciones de los recursos, y la definición de violaciones y consecuencias de no cumplimiento. 2. Configuración: se refiere a configurar de forma correcta la base de datos para cuidar la confidencialidad, integridad, autenticidad, no repudio, disponibilidad de los recursos y de la información, consistencia, control de accesos y auditoria. 3. Set de pruebas: la validación a través de pruebas de concepto de las políticas y de la configuración. Con estas consideraciones se resuelve en gran medida el problema de seguridad de implementaciones en bases de datos documentales específicamente MongoDB. Se hace particular énfasis en la implementación en empresas pequeñas ya que son las que generalmente no cuentan con personal especializado y este marco de referencia ayuda a minimizar los riesgos que existen debido a malas implementaciones, políticas y procedimientos.
2017-11-13T22:17:35Z
2017-11-13T22:17:35Z
2017-11
info:eu-repo/semantics/masterThesis
DeLaMora-Carrillo, H. E. (2017). Diseño de marco de referencia para la seguridad en MongoDB, para implementar en la micro y pequeña empresa. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5095
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/76332021-11-06T03:00:48Zcom_11117_560col_11117_1541
Improved Prediction of Heuristic Configuration for Queue Priority on FaCt++ Semantic Reasoner
González-Álvarez, Juan J.
Escobar-Vega, Luis M.
Semantic Reasoner
Ontology
FaCt++
Owl
Machine Learning
With the adoption of the semantic web, interest in technologies and theory about formalizing the representation of knowledge, and automated reasoning has increased. Ontologies are concrete instances of knowledge representation and logical reasoners play an important role during the creation of ontologies, since they can find logical errors during design.
One of these logical reasoners is FaCt++, which implements an optimized analytical tableaux algorithm. The specific implementation of tableaux in FaCt++ includes a set of priority queues to handle and expand the different operators that can be found during reasoning, these queues have an order for applying the different operators, which in this work will be referred as priority configurations.
It was proved by the authors of FaCt++ that there is not a single priority configuration that has the best performance for all types of ontologies. Recently it was suggested that machine learning models can be successfully applied to find the best heuristic for every specific ontology.
In this work is presented the process to build a machine learning model to find the best priority configuration for every ontology in detail. The model proposed in this work uses fewer features than the one shown previously and creates a simpler model with similar or better accuracy on the resulting classification.
2021-11-05T19:08:36Z
2021-11-05T19:08:36Z
2021-07
info:eu-repo/semantics/masterThesis
González-Álvarez, J. J. (2021). Improved Prediction of Heuristic Configuration for Queue Priority on FaCt++ Semantic Reasoner. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/7633
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/64472021-09-06T15:52:11Zcom_11117_560col_11117_1541
Sumarización de grafos basada en consultas
Guzmán-Curiel, Pablo C.
Gutiérrez-Preciado, Luis F.
Análisis de Datos
Big Data
Redes Sociales
Visualización de Grafos
Con la gran cantidad de datos generada en la actualidad, redes sociales, portales de ventas, los analistas de información han puesto el interés en el análisis de información de big data, la cual puede ser representada en grafos, pero surge el problema de ser visualizada de manera adecuada para tomar acciones o entender la tendencia respecto a la información del grafo.
Para dicho problema, en el trabajo propuesto se desarrolla una herramienta interactiva en la cual el usuario pueda definir sus agrupaciones o sumarizaciones para visualizar y analizar patrones o tendencias. Dicha herramienta representa un grafo sumarizado que facilita el análisis y permite realizar acciones de manera interactiva sobre supernodos.
Para visualizar los datos sumarizados por medio de consultas se utilizaron dos bases de datos, una de una de películas y otra de Twitter, en las cuales se realizaron diferentes consultas para observar las agrupaciones y las relaciones de las agrupaciones previamente definidas, también de forma dinámica realizar operaciones sobre dichas agrupaciones.
2021-01-06T17:24:15Z
2021-01-06T17:24:15Z
2020-12
info:eu-repo/semantics/masterThesis
Guzmán-Curiel, P. C. (2020). Sumarización de grafos basada en consultas. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6447
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/60372020-02-12T06:48:12Zcom_11117_560col_11117_1541
Predecir las preferencias o necesidades del conductor de un vehículo para ofrecer confort y seguridad usando aprendizaje automático
Ibarra-Galaviz, Eunice A.
Ruíz-Cruz, Riemann
Arquitectura de IoV
Sistemas de Recomendación
PageRank
Aprendizaje Automático
Se presenta un sistema para configurar el ambiente de un vehículo que disminuya la carga cognitiva que representa esta tarea para los ocupantes. Dicho sistema tiene como objetivo principal desarrollar una nueva tecnología que mejora la experiencia de usuario dentro del vehículo e indirectamente aumenta la seguridad de los ocupantes del vehículo. Esto se logra utilizando los siguientes métodos de aprendizaje automático: un sistema de recomendación, un PageRank y una red neuronal que componen dicho sistema; tomando como base de conocimiento el comportamiento y preferencias previas de dicho usuario para poder anticipar sus preferencias. En este trabajo se implementaron dichos métodos y se corrieron diferentes experimentos y pruebas con ellos para obtener las ventajas y desventajas del sistema y sus subsistemas. Como parte de los resultados, este trabajo describe cuál es el rendimiento de cada método utilizado desde el punto de vista de consumo de memoria, tiempo de entrenamiento fuera de línea y tiempo de ejecución del cálculo de la preferencia de un usuario. Estos factores serían determinantes al elegir uno o más modelos que se quisieran implementar hasta una etapa de producción. Con base en los resultados obtenidos en este trabajo, se puede continuar investigando y desarrollando métodos óptimos y adecuados para las restricciones de la industria automotriz. En el trabajo a futuro se proponen temas, como utilizar dos o más modelos simultáneamente para mejorar la predicción de la preferencia del usuario, para complementar este trabajo.
2019-09-30T20:54:36Z
2019-09-30T20:54:36Z
2019-08
info:eu-repo/semantics/masterThesis
Ibarra-Galaviz, E. A. (2019). Predecir las preferencias o necesidades del conductor de un vehículo para ofrecer confort y seguridad usando aprendizaje automático. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/6037
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/65812021-09-06T15:55:20Zcom_11117_560col_11117_1541
Método basado en detección de prototipos para interpretabilidad de modelos predictivos
Ángeles-Cabrera, Eduardo
Moreno-Núñez, Ismael
Interpretabilidad
Prototipos
Aprendizaje Automático
Redes Neuronales Profundas
Para que los modelos predictivos o Máquinas de Aprendizaje sean adoptados por los usuarios, en la industria se han abordado dos estrategias principales: mejorar la precisión de las predicciones del modelo u obtener una explicación o contexto en torno a éstas. Recientemente este último enfoque, conocido como interpretabilidad de máquina de aprendizaje, ha obtenido mucha relevancia para mejorar la adopción de modelos predictivos en la toma de decisiones. En este trabajo se propuso un método que adopta el enfoque de Deep Learning for Case-Based Reasoning through Prototypes para mejorar la interpretación de los resultados predictivos con el uso de prototipos. Se sugirió una solución particular al problema de la interpretabilidad en modelos de redes neuronales cuando los conjuntos de datos no están balanceados. El método se validó con dos casos de estudio y arrojó a resultados satisfactorios. Se presentaron las conclusiones del trabajo en cuanto al desempeño predictivo y la interpretabilidad de este. Finalmente, se plantean trabajos futuros.
2021-04-30T22:18:15Z
2021-04-30T22:18:15Z
2021-01
info:eu-repo/semantics/masterThesis
Ángeles-Cabrera, E. (2021). Método basado en detección de prototipos para interpretabilidad de modelos predictivos, Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6581
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/46192020-02-12T06:53:39Zcom_11117_560col_11117_1541
Optimización del almacenamiento de datos de CCTV utilizando detección de figuras humanas y reconocimiento facial
Ceja-Limón, Carlos A.
Villalón-Turrubiates, Iván E.
Almacenamiento
Reconocimiento Facial
Circuitos Cerrados de Televisión
Los circuitos cerrados de televisión pueden capturar secuencias de vídeo de forma continua para monitorear eventos, como la grabación de las personas que estuvieron en lugar o el reconocimiento de caras. Normalmente, las secuencias de vídeo son guardadas para luego ser examinados en búsqueda de eventos específicos, sin embargo, debido a las limitaciones de almacenamiento, los archivos se conservan durante cortos períodos de tiempo. Además de los costos de almacenamiento, es muy difícil encontrar información clave en ellos, como identificar personas, y el hacer la búsqueda manualmente es una tarea que puede llevar bastante tiempo. En este trabajo se busca desarrollar un sistema que permita reducir el costo de almacenamiento de los circuitos cerrados de televisión y facilitar la búsqueda de eventos relevantes mediante técnicas de reconocimiento facial y de objetos.
2017-06-01T22:40:37Z
2017-06-01T22:40:37Z
2016-12
info:eu-repo/semantics/masterThesis
Ceja-Limón, C. A. (2016). Optimización del almacenamiento de datos de CCTV utilizando detección de figuras humanas y reconocimiento facial. Trabajo de obtención de maestría, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4619
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/47692020-02-12T06:54:38Zcom_11117_560col_11117_1541
Memory Layout Starring James Code: Un juego serio para aprender el manejo de mapas de memoria
González-Cruz, Danilo
Programación en C
Mapas de Memoria
Estructura de Datos
Memory Layout
Este trabajo de obtención de grado busca mejorar el desempeño académico de los alumnos de Ingeniería en Sistemas Computacionales e Ingeniería Electrónica en materias relacionadas con la enseñanza de programación en lenguaje C. Con la ayuda de un videojuego serio, se pretende generar conocimiento en los alumnos mediante una forma nueva de educación, a la cual puedan tener acceso las 24 horas del día y que pueda ser repetida constantemente. Específicamente se busca mejorar el conocimiento sobre las estructuras de datos con base en cinco temas principales: representación de enteros y flotantes en binario; acomodo de primitivos en memoria y alineación; acomodo de arreglos en memoria; optimización de tamaño de estructuras; y apuntadores, como operadores & y *. El resultado es un juego compuesto por cinco niveles; cada nivel está precedido de un tutorial animado. Este trabajo aborda en particular los aspectos relacionados con la mecánica del juego. Un trabajo desarrollado en paralelo aborda los aspectos relacionados con el desarrollo de los tutoriales. En ambos trabajos se describen los módulos en común.
2017-07-07T22:00:48Z
2017-07-07T22:00:48Z
2017-05
info:eu-repo/semantics/masterThesis
González-Cruz, D. (2017). Memory Layout Starring James Code: Un juego serio para aprender el manejo de mapas de memoria. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4769
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/40102020-02-12T06:55:47Zcom_11117_560col_11117_1541
Deadlock Parser Utility Tool
Sánchez-Rico, José J
Méndez-Cárdenas, Julio C.
Alcaraz-Mejía, Mildreth
Villanueva-Paredes, Norma I.
Deadlocks
Database
Java Threads
DeadlockParser is a tool which provides precise analysis of deadlocks on a database and summarizes and details each deadlock, enabling easy understanding of their importance and frequency. The benefits of quickly diagnosing and understanding the frequency and impact of deadlocks in a database grow exponentially depending on the size of its log files and eliminate the need to manually parse them. DeadlockParser es una herramienta que proporciona un análisis preciso de los deadlocks en una base de datos, resume y detalla cada deadlock, lo cual permite una fácil comprensión de su importancia y frecuencia. Los beneficios de diagnóstico y la simplificación de la frecuencia y el impacto de los deadlocks en una base de datos crecen rápida y exponencialmente en función del tamaño de sus archivos de registro y elimina la necesidad de analizarlos manualmente.
2016-11-10T16:37:14Z
2016-11
info:eu-repo/semantics/masterThesis
Sánchez-Rico, J. J. (2016). Deadlock Parser Utility Tool. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4010
eng
http://quijote.biblio.iteso.mx/licencias/TodosLosDerechosReservados.pdf
ITESO
oai:rei.iteso.mx:11117/52902020-02-12T06:57:58Zcom_11117_560col_11117_1541
Upgrading WebVOWL Visualizer
Campos-Aguilera, Luis A.
Villalón-Turrubiates, Iván E.
WebVOWL
Web Semantics
These days, information that is on the web resides in structures useful for people, but not convenient for handling it using computers. The so -called Semantic Web or Web 3.0 is based on the use of ontologies to represent areas of knowledge,and it is considered by experts as the next step in the evolution of how we
store and manage information. The present work aims to improve navigation on large graphs that represent ontologies, within a tool that uses web technologies called WebVOWL. The
elements, relationships between them, and the labels, cause that
navigation on a big graph becomes little manageable for users.
The use of a miniature zoomed out
view (called minimap or minimap view) is the main contribution of this work, and is presented as a way to help the user analyze a specific part of the graph in greater detail. The two most important
concepts to understand the theory on which the WebVOWL editor is built on are OWL and VOWL. Information about three ontology visual
izers based on web technologies is shown as way to help better
understand this type of tools; TopBraid, Protégé and WebVOWL itself.
Details of important concepts to understand WebVOWL
are listed, trying to explain to the user why this editor in much more than a pretty animation of a graph in which the components can be dragged. The steps that were necessary to add a minima pto the WebVOWL code for a better navigation over the ontologiesare described. It is mentioned how to configure a pair of development tools, the strategy followed for coding and the reason and intention of the algorithms developed. Finally, results and
conclusions obtained are shown, as well as some possible future improvements.
2018-03-23T19:35:17Z
2018-03-23T19:35:17Z
2017-07
info:eu-repo/semantics/masterThesis
Campos-Aguilera, L.A. (2017). Upgrading WebVOWL Visualizer. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO. https://rei.iteso.mx/handle/11117/5290
http://hdl.handle.net/11117/5290
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/50762020-02-12T06:55:45Zcom_11117_560col_11117_1541
Business intelligence y Big data aplicada para analizar información de salud pública del área metropolitana de Guadalajara
García-Fermín, Genaro
Ortega-Guzmán, Víctor H.
Business Intelligence
Big Data
Sector Salud
Base de Datos
Medicina
Análisis de Información
Salud Pública
El presente trabajo tuvo el objetivo de analizar la información pública de las dependencias del sector salud del área metropolitana de Guadalajara con las técnicas de Business Intelligence y Big Data y presentarla al público general de una manera accesible. El trabajo consta de una investigación del estado del arte de los métodos y procedimientos utilizados para manejar grandes cantidades de datos, y del proceso de creación de la herramienta final con su respectiva documentación. El problema principal que se aborda es el desabasto de medicinas en los hospitales públicos. En México, es frecuente que los hospitales públicos sufran de desabasto de medicinas, lo que ocasiona que los pacientes no puedan llevar al pie de la letra los tratamientos indicados, que estén a la espera de la disponibilidad de estos medicamentos o que se dirijan al sector privado para adquirirlos. Al analizar la información combinada de los pacientes y sus requerimientos de medicina, las instituciones de salud pública podrían predecir el inventario requerido y anticiparse a su adquisición.
2017-11-02T17:02:58Z
2017-11-02T17:02:58Z
2017-10
info:eu-repo/semantics/masterThesis
García-Fermín, G. (2017). Business intelligence y Big data aplicada para analizar información de salud pública del área metropolitana de Guadalajara. Trabajo de fin de maestría, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5076
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/77672022-02-12T03:00:44Zcom_11117_560col_11117_1541
Diseño e implementación de una base de conocimiento para el diagnóstico médico del asma y su severidad
Orozco-Ruiz, Jorge L.
Villanueva-Paredes, Norma I.
Representación del Conocimiento
Asma
Neo4j
Base de Datos
El presente trabajo se desarrolla en torno al diseño e implementación de una base de conocimiento para el diagnóstico del asma en adultos, teniendo como principal propósito, representar el conocimiento de un médico experto en el tema, aplicando técnicas de modelado conocidas como Reglas de Producción y Mapas Cognitivos Difusos, cuyo conocimiento almacenado sirva para determinar la probabilidad de asmavy su severidad en un paciente. Este trabajo propone una metodología para llevar a cabo el proceso de adquisición y representación del conocimiento, la cual inicia con la selección del dominio y la elección del experto humano, de quién será extraído el conocimiento necesario para el diagnóstico del asma, utilizando instrumentos de recolección de datos: entrevistas y cuestionarios. Una vez hecha la recolección y caracterizado el discurso médico del experto, la información obtenida es analizada y representada en la base de conocimiento, que incluye las reglas de producción, que ayudan a descartar la presencia de asma en un paciente y el mapa cognitivo difuso que determina lo contrario. Las reglas de producción son almacenadas en una base de datos no relacional (MongoDb) y el mapa cognitivo difuso se almacena dentro de una base de datos orientada a grafos (Neo4j). Ambas bases de datos conforman la base de conocimiento que usará el experto para diagnosticar el padecimiento. La base de conocimiento creada es validada por el experto humano mediante la implementación de un prototipo que integra, un motor de búsqueda y una interfaz gráfica, desarrollado con tecnología web. Las pruebas realizadas por el experto, precisamente derivadas del proceso de validación y verificación permitieron hacer reajustes a la base de conocimiento, permitiendo elevar la fiabilidad de los resultados emitidos por el prototipo. Durante el desarrollo de este trabajo se enfrentaron diferentes desafíos, siendo la representación del conocimiento el reto principal, por estar siempre presente la incertidumbre y la experiencia del experto en el proceso de toma de decisiones. Es por ello que se tomó la ventaja que ofrecen los mapas cognitivos difusos respecto a la flexibilidad de representar la incertidumbre, conjugando la teoría de grafos y la teoría difusa, para incrementar la asertividad en el diagnóstico médico. Está claro que, las tecnologías de almacenamiento de datos utilizadas nos ayudan a crear una base de conocimiento más rápidamente e incluso ampliarla, permitiendo así, agregar fácilmente nuevos elementos de diagnóstico, que incluyan personas de cualquier rango de edad y no solo personas adultas como se consideraron en la base de conocimiento implementada. Además, como parte del trabajo futuro a desarrollar, se puede habilitar dentro del prototipo el manejo de estudios de laboratorio, lo que complementaría la evaluación y confirmación del diagnóstico.
2022-02-11T21:07:40Z
2022-02-11T21:07:40Z
2021-12
info:eu-repo/semantics/masterThesis
Orozco-Ruiz, J. L. (2021). Diseño e implementación de una base de conocimiento para el diagnóstico médico del asma y su severidad. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/7767
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/58042020-02-12T06:45:58Zcom_11117_560col_11117_1541
Autoencoders para manejo de clases desbalanceadas en problemas de propensión de compra
Garibay-Ruiz, Edgar
Ruiz-Cruz, Riemann
Moreno-Núñez, Ismael
Algoritmo de Clasificación
Autoencoders
Machine Learning
El problema principal que se aborda en este documento es aquel en el que un algoritmo de clasificación no cuenta con el desempeño requerido debido a que el conjunto de datos con el que fue entrenado esta desbalanceado. Se tiene como objetivo analizar estrategias para incrementar la precisión de un algoritmo de clasificación cuando el conjunto de datos con el que es entrenado cuenta con clases desbalanceadas. Una de las estrategias que se analizan es el uso de Autoencoders para la generación de un conjunto de nuevas características que permitan realizar una mejor clasificación. Al generar este conjunto de nuevas características utilizando un Autoencoder, se demuestra que la precisión de un algoritmo de clasificación aumenta. Esta demostración se realizó al comparar el desempeño de un clasificador al ser entrenado con y sin las nuevas características generadas por el Autoencoder. Se utilizaron diferentes métricas para medir el desempeño y realizar la comparación, entre ellas la matriz de confusión, precisión, recall, accuracy and F1-score. Aunque las nuevas características generadas por el autoencoder, es necesario tener en cuenta la topología y configuración de este debe ser adaptada a cada problema. Asimismo, se debe tener en cuenta el tiempo requerido para el entrenamiento del autoencoder, y que este será proporcional la cantidad de características y número de registros del conjunto de datos.
2019-01-31T17:21:46Z
2019-01-31T17:21:46Z
2018-09
info:eu-repo/semantics/masterThesis
Garibay-Ruiz, E. (2018). Autoencoders para manejo de clases desbalanceadas en problemas de propensión de compra. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5804
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/51202020-02-12T06:57:15Zcom_11117_560col_11117_1541
Multi-Agent Systems for Urban Traffic Control
Amezcua-García, Francisco J.
Campos-Rodríguez, Raúl
Cervantes-Alvarez, Francisco
Multi-Agent Systems
Urban Traffic
Traffic Control
Traffic represents a great problem for large cities. In recent years, the solutions based on the artificial intelligent have been successful in finding results to some of these problems. The area of Multiagent Systems has been showing good results in the past years. This project attempts to use Multiagent Systems technology, such as the JADE framework, to investigate solutions to traffic jam in street intersections. In the proposed approach, the agents use a negotiation mechanism to influence the regular traffic light cycle. The implementations use the SUMO simulator and trasMAPI middleware to communicate with the JADE agents. The hypothesis is that using this negotiation table the traffic flow can be improved compared with static traffic lights schemes. The simulations show promissory results that in some cases are like those using static lights. However, the table could be optimized to generate better results accordingly to the specific requirements of a particular application scenario.
El tráfico representa un gran problema para las grandes ciudades. Las soluciones basadas en inteligencia artificial han tenido éxito en la búsqueda de resultados en algunos de estos problemas; el área de Sistemas Multiagente ha mostrado buenos resultados. Este proyecto intenta utilizar la tecnología de Sistemas Multiagentes, como el marco de desarrollo JADE, para investigar soluciones para el atasco de tráfico en intersecciones de calles. En el enfoque propuesto, los agentes utilizan mecanismos de negociación para influir en el ciclo regular de semáforos. Las implementaciones utilizan el simulador SUMO y el middleware trasMAPI para comunicarse con los agentes JADE. La hipótesis es que el uso de esta tabla de negociación puede mejorar el flujo de tráfico en comparación con los esquemas de semáforos estáticos. Las simulaciones muestran resultados prometedores, que en algunos casos son como los que usan luces estáticas. Sin embargo, la tabla podría optimizarse para generar mejores resultados de acuerdo con los requisitos específicos de un escenario de aplicación particular.
2017-12-06T21:32:04Z
2017-12-06T21:32:04Z
2017-07
info:eu-repo/semantics/masterThesis
Amezcua García, F. J. (2017). Multi-Agent Systems for Urban Traffic Control. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5120
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/51332020-02-12T06:55:47Zcom_11117_560col_11117_1541
Predicción del precio de las acciones de una empresa de retail de medicinas a partir de indicadores de temperatura de Jalisco
García-Ventura, José
DeObeso-Orendáin, Alberto
Patrones de Consumo
Valor de Acciones
Clima
Industria Farmacéutica
Este trabajo tuvo el objetivo de encontrar la relación entre la temperatura y el valor de las acciones de un negocio farmacéutico de la Zona Metropolitana de Guadalajara (ZMG). La hipótesis inicial es que en épocas de frío se incrementen las acciones del negocio farmacéutico debido a la tendencia en el aumento de las enfermedades respiratorias como gripe, influencia estacional, entre otras, además de alergias. Para esto, se obtuvo, limpió y modeló la información sobre el clima en la ZMG y sobre el valor de las acciones de la compañía farmacéutica y, posteriormente, se caracterizó la influencia del clima en el valor.
2018-01-03T17:32:14Z
2018-01-03T17:32:14Z
2017-08
info:eu-repo/semantics/masterThesis
García-Ventura, J. (2017). Predicción del precio de las acciones de una empresa de retail de medicinas a partir de indicadores de temperatura de Jalisco. Trabajo de obtención de maestría, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5133
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/41522020-02-12T06:53:03Zcom_11117_560col_11117_1541
Entorno de trabajo para la prevención de allanamiento de morada
Orozco-Sánchez, Fernando
Gutiérrez-Preciado, Luis F.
López-Sánchez, Iván A.
Sistema de Prevención del Delito
Prevención de Allanamiento de Morada
El objetivo de este proyecto es el desarrollo de un sistema basado en la teoría de la actividad rutinaria como método de prevención del delito de allanamiento de morada. Para ello se propone un sistema completo con múltiples componentes: una aplicación de escritorio, una interfaz de programación de aplicaciones y una aplicación para dispositivos móviles. El núcleo principal de inteligencia de este sistema propone el uso de tres módulos básicos que comprenden: un algoritmo de predicción de conteo de paso de peatones (Holt-Winters en su simplificación GSI), un algoritmo de simulación de actividad humana (modelo de Markov con una implementación especial) y un modelo de detección de comportamiento anómalo. Este trabajo se acota al estudio y aplicación de los algoritmos antes mencionados, así como su implementación en un ecosistema de software completo. A lo largo del proyecto se asume que la información histórica de actividad peatonal y registro automático de actividad humana dentro de un inmueble se encuentra previamente generada y nuevas actualizaciones serán alimentadas en periodos de una hora. La utilización de este sistema de prevención de delito tiene la ventaja de ser un elemento de seguridad inteligente y de instalación relativamente sencilla.
2017-01-11T21:17:01Z
2018-01-12T11:00:23Z
2016-12
info:eu-repo/semantics/masterThesis
Orozco-Sánchez, F. (2016). Entorno de trabajo para la prevención de allanamiento de morada. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4152
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/55792020-02-12T06:53:09Zcom_11117_560col_11117_1541
Algoritmo de reconocimiento de emociones humanas en tiempo real a través del análisis de voz
Toris-Palacios, Juan J.
Villalón-Turrubiates, Iván E.
PCM
Plutchik
Análisis de Voz
Comunicaciones Digitales
PBX
En este trabajo se intenta determinar con un análisis comparativo de variaciones de voz en un rango de voz determinado, si la persona que habla se encuentra en un estado emotivo específico. El algoritmo parte de muestras reales para determinar la variación necesaria en la voz para identificar si se encuentra en un estado emocional o simplemente continua en Zona de Confort (sin emoción presente). Las variantes a analizar mediante muestras tomadas durante la conversación son: potencia de la voz (volumen) y frecuencias auditivas presentes en toda conversación.
2018-09-20T23:56:44Z
2018-09-20T23:56:44Z
2016-07
info:eu-repo/semantics/masterThesis
Toris-Palacios, J. J. (2016). Algoritmo de reconocimiento de emociones humanas en tiempo real a través del análisis de voz. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5579
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/42182020-02-12T06:53:10Zcom_11117_560col_11117_1541
Single variable optimization engine for ESCAPE/ESCAPE 3D
Oblea-Ramírez, Francisco J.
Kothari, Sunil
Piza-Dávila, Hugo I.
Algoritmos Genéticos
End to End System Configuration Analyzer for Print Production Environment ESCAPE
La industria de impresión es un mercado que produce ventas alrededor de 700 mil millones de dólares anuales. El proporcionar herramientas que faciliten a los clientes su trabajo es una de las actividades principales de HP. Con tal motivo, esta empresa creó una herramienta de modelado y simulación de pisos de producción para la industria de impresión de alto volumen. Esta herramienta es conocida como ESCAPE (End-to End System Configuration Analyzer for Print Production Environment). ESCAPE permite a los clientes el anticipar demandas futuras, revisar métricas del piso de producción y realizar cambios de configuración en un ambiente virtual que no tiene los altos costos que tendría adquirir equipo nuevo. En los últimos años han sido agregadas nuevas funcionalidades a ESCAPE que permiten que sea más sencillo de utilizar, que las métricas provistas sean más fáciles de comprender y la capacidad de hacer comparativas entre múltiples configuraciones del piso de producción. Estas comparativas han permitido que los clientes tomen mejores decisiones acerca de su demanda actual y futura de trabajo. Una de las características adicionales que se han sido solicitadas a ESCAPE es la inclusión de un motor de optimización que sea capaz de eliminar el trabajo de la creación de escenarios de configuración diferentes en búsqueda de una configuración “óptima” para una carga de trabajo. La creación de este motor de optimización es el tema de este documento. The printing industry sustains annual sales over US$700B. Having tools to enable customers do their work is one of the main activities HP does. HP created a print factory modeling and simulation tool known as ESCAPE (End-to End System Configuration Analyzer for Print Production Environment). ESCAPE enables customer to forecast future demands, review print floor metrics and customize their current print floor configuration without the high costs acquiring new equipment represent to the company. Over the last couple of years, additional features have been added to ESCAPE to make it easier to use, provide better insight on the print floor and to make comparisons between scenarios. These scenario comparisons have enabled customers to be better equipped for the future workloads that the will receive. One of the latest features proposed to ESCAPE is the addition of an optimization engine that will automatically remove the burdens of generating multiple scenarios configurations looking for an “optimal” configuration to a given workload. The creation of this optimization engine will be described on this document.
2017-01-26T20:14:13Z
2016-09
info:eu-repo/semantics/masterThesis
Oblea-Ramírez, F. J. (2016) Single Variable Optimization Engine for Escape/Escape 3D. Trabajo de obtención de maestría, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4218
eng
http://quijote.biblio.iteso.mx/licencias/TodosLosDerechosReservados.pdf
ITESO
oai:rei.iteso.mx:11117/57432020-02-12T06:46:11Zcom_11117_560col_11117_1541
Exploración de zonas de desastre con redes móviles auto-organizadas usando el sistema masa-resorte
Negrete-Carrillo, Abisai
Balart-Sánchez, Francisco E.
Mobile Ad Hoc Network
Red MANET
Drones
El presente documento proporciona una simulación de una red MANET auto organizada que se utiliza para explorar lugares afectados por un desastre natural como terremotos, huracanes o tormentas tropicales. MANET está compuesto por drones y utiliza el algoritmo EESOA (“Energy-Efficient Self- Organized Algorithm for wireless ad-hoc networks”) para tener una eficiencia de uso de los drones con una posición inicial establecida al principio y con el uso del algoritmo de masa-resorte al mismo tiempo para mover los drones a una nueva posición y tener una mejor distribución y aumentar la cobertura del área dañada. Se logró demostrar que al combinar los algoritmos de EESOA y Masa-resorte, se optimizar el uso de drones en la búsqueda de personas para maximizar su eficiencia una vez colocados en una posición inicial y, dado que son algoritmos distribuidos, cada dron, procesa la información de ellos y sus vecinos, eliminan la necesidad de tener un sistema de control central para indicar los movimientos que deben realizarse y cubrir una mayor aérea y aumentar el número de personas encontradas.
2018-12-11T18:35:59Z
2018-12-11T18:35:59Z
2018-10
info:eu-repo/semantics/masterThesis
Negrete-Carrillo, A. (2018). Exploración de zonas de desastre con redes móviles auto-organizadas usando el sistema masa-resorte. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5743
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/41612020-02-12T06:52:44Zcom_11117_560col_11117_1541
Webpage recommender system
Hernández-Ortiz, Miguel A.
Ruiz-Cruz, Riemann
Sistemas de Recomendación
Recommender Systems
En este trabajo se hace una introducción al campo de estudio de los sistemas de recomendación. Se pretende aplicarlo para desarrollar un sistema recomendador para la página web de una empresa que sea capaz de hacer recomendaciones personalizadas a un usuario con base en sus intereses y comportamiento previo en el sitio. Por otro lado, este sistema también puede ser utilizado como una herramienta de promoción de nuevos productos. Finalmente, se hace una comparación de los distintos algoritmos que se implementan con datos reales de la empresa y los resultados que dieron. In this work there is an introduction to the study field of recommender systems. It is intended to be applied to develop a recommender system for a company’s webpage which is capable of making personalized recommendations to a user based on his interests and previous behavior on the site. Which can also be used as a promotional tool of new products. Finally, we do a comparison of the different algorithms we implemented running with real data of the company and the results we obtained.
2017-01-12T19:15:59Z
2017-01-12T19:15:59Z
2016-12
info:eu-repo/semantics/masterThesis
http://hdl.handle.net/11117/4161
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
oai:rei.iteso.mx:11117/64762022-09-28T16:22:37Zcom_11117_560col_11117_1541
Analítica Académica: Análisis de la graduación de estudiantes de un posgrado con PNPC
Coronado-González, Guillermo
Alcaraz-Mejía, Mildreth
Aprendizaje Máquina
Aprendizaje Supervisado
Regresión Logística
Árboles de Decisión
El objetivo principal de este trabajo es comprender la deserción de estudiantes de un posgrado que cuenta con las características particulares de ser un posgrado PNPC en la modalidad de programa con la industria. De tal forma que, si se logran identificar posibles eventos o circunstancias particulares, se pueda trabajar anticipadamente con los alumnos para evitar que esto suceda.
Se realizó un enfoque orientado a datos con una aproximación en aprendizaje máquina, para encontrar modelos de predicción que tuvieran métricas definidas, además, de encontrar el mejor modelo posible para determinar con la entrada de ciertas variables la probabilidad de un alumno de concluir el programa con un grado aceptable de certeza.
Se realizaron diferentes aproximaciones, todas basadas en diferentes algoritmos y paradigmas de aprendizaje máquina, se encontraron resultados prometedores de acuerdo con las métricas definidas, que ayudaron a entender mejor la deserción del programa de posgrado en estudio. Este trabajo está dividido en cinco secciones: en la primera se exploran trabajos previos similares al que se presenta; en la segunda se presenta el sustento teórico con el que se trabajó; en la tercera se desglosa el desarrollo del trabajo; en la cuarta se presentan los resultados obtenidos a partir de distintas aproximaciones; y en el quinto se detallan las conclusiones, trabajo futuro y recomendaciones a quienes deseen retomar este trabajo o un trabajo similar.
2021-02-06T00:12:44Z
2021-02-06T00:12:44Z
2020-07
info:eu-repo/semantics/masterThesis
Coronado-González, G. (2020). Analítica Académica: Análisis de la graduación de estudiantes de un posgrado con PNPC. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6476
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/63362021-09-06T15:58:16Zcom_11117_560col_11117_1541
Recognition of Plant Diseases Using Convolutional Neural Networks
León-Lemus, Cyntia D.
Cervantes-Álvarez, José F.
Convolutional Neural Networks
Detection of Diseases
Early detection of diseases in crops for human consumption is crucial for agricultural production in the world. Nowadays, Deep learning algorithms are used for the analysis and classification of images such as the convolutional neural network used to detect diseases in plants. Unfortunately, these algorithms still need a lot of computation to obtain results that could take hours, days, or maybe weeks for a prediction. This paper aims to provide an analysis of how the Wavelet transform in distributed platforms can provide competitive results with a fraction of the resources used comparatively in time and memory used to detect diseases in tomato leaves.
2020-09-29T23:44:28Z
2020-09-29T23:44:28Z
2020-02
info:eu-repo/semantics/masterThesis
León-Lemus, C. D. (2020). Recognition of Plant Diseases Using Convolutional Neural Networks. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/6336
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/48282020-02-12T06:55:19Zcom_11117_560col_11117_1541
Memory Layout Starring James Code: tutorial interactivo para la enseñanza del manejo de memoria
Peña-Arenzana, Enrique A.
Cornejo-Torres, Pedro A.
Piza-Dávila, Hugo I.
Programación en C
Mapas de Memoria
Estructura de Datos
Memory Layout
Este proyecto de tesis busca mejorar el desempeño académico de los alumnos de Ingeniería en Sistemas Computacionales e Ingeniería Electrónica en materias relacionadas con la enseñanza de programación en lenguaje C. Con la ayuda de un videojuego serio, se pretende generar conocimiento mediante una nueva forma de educación a la cual tengan acceso las 24 horas del día y que pueda ser repetida constantemente. Específicamente, se busca mejorar el conocimiento sobre las estructuras de datos y el almacenamiento de memoria. Se toman como base cinco temas principales: representación de enteros y flotantes en binario; acomodo de primitivos en memoria y alineación; acomodo de arreglos en memoria; optimización de tamaño de estructuras, y apuntadores: operadores & y *. El juego está compuesto por cinco niveles separados cada uno en un tutorial y una mecánica de juego, que pretenden explicar los conceptos mediante una historia divertida, personajes con los que se pueda relacionar y una mecánica que rete intelectualmente la capacidad del jugador. A su vez, queda una base para un trabajo futuro, sobre una máquina de estados jerárquica y un motor de algoritmos para la creación, mejora o reemplazo de niveles para un uso posterior.
2017-08-10T22:03:28Z
2017-08-10T22:03:28Z
2017-05
info:eu-repo/semantics/masterThesis
Peña-Arenzana, E. A. (2017). Memory Layout Starring James Code: tutorial interactivo para la enseñanza del manejo de memoria. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4828
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/46112020-02-12T06:54:12Zcom_11117_560col_11117_1541
Arquitectura informática para la recolección y análisis de datos médicos
Flores-Díaz, José A.
Villanueva-Paredes, Norma I.
Arquitectura Informática
Aplicación Móvil
Computación en Nube
Arquitectura Orientada a Servicios
Recolección de Datos Médicos
En este trabajo se presenta la propuesta de una arquitectura informática de recolección de datos médicos que permite recabar información de parámetros de salud de un paciente de manera directa y subirla a un repositorio de forma instantánea, evitando la interacción humana y, por lo tanto, los posibles escenarios de error que se pueden generar. La arquitectura propuesta utiliza los servicios que provee la nube con la intención de lograr una reducción de costos de implementación y potenciar el uso de la solución en diversos sectores de salud. Adicionalmente, dentro de los componentes de la arquitectura, se proponen dispositivos móviles y aplicaciones web como clientes para la explotación de la información recabada. De igual forma, en este documento se presenta una breve introducción al problema de la recolección de datos de pacientes en diversas instituciones del sector salud, actividad que frecuentemente se lleva de forma manual, lo cual no es lo más eficiente ya que no facilita el control de la información, además de que está sujeto a presentar errores. De manera particular, se implementó la arquitectura en apoyo del proceso de recolección de información que se lleva a cabo como parte del proyecto del Simulador de Tracto Digestivo en el Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco (CIATEJ).
2017-05-31T18:53:59Z
2017-05-31T18:53:59Z
2017-05
info:eu-repo/semantics/masterThesis
Flores-Díaz, J. A. (2017). Arquitectura informática para la recolección y análisis de datos médicos. Trabajo de obtención de maestría, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4611
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/41632020-02-12T06:52:43Zcom_11117_560col_11117_1541
Herramienta de análisis y monitoreo de entrenamiento para corredores de maratón no profesionales
Alatorre-Moreno, Addiel
Villanueva-Paredes, Norma I.
Herramientas Web
Desarrollo de Aplicaciones
Aplicaciones Móviles para el Deporte
Los corredores de maratón no profesionales a menudo descartan sus registros de entrenamientos y competencias, con lo que pierden conocimiento que pudiera ser útil para lograr sus metas deportivas en menor tiempo. Este trabajo plantea una solución a dicho problema a través de una herramienta automatizada para monitorear y dar seguimiento a la ejecución de un plan de entrenamiento de maratón; esta herramienta analiza los registros colectados y permite identificar puntos de mejora durante un ciclo de entrenamiento. A través de una aplicación móvil, el corredor puede ingresar los datos de cada entrenamiento, los cuales son almacenados en una base de datos remota. Con la utilización de una interfaz web, el corredor y su entrenador pueden visualizar el detalle diario del entrenamiento realizado, el progreso conforme al plan establecido, evaluar el rendimiento contra el esperado e histórico y hacer comparativos entre corredores que siguen el mismo plan. Con ayuda de análisis estadístico y funciones de agrupación, se identifican tendencias que permiten estimar el resultado de una competencia, así como identificar incidencias de factores de riesgo que pueden ayudar a prevenir lesiones. Esta propuesta no pretende sustituir el asesoramiento de un profesional en entrenamiento deportivo, sino proveer conocimiento útil tanto para el entrenador como para los corredores. Como resultado de este trabajo, se presenta una herramienta que permite validar el análisis propuesto bajo un plan previamente establecido cuyo caso se aplicó en el Maratón de San Diego 2016, con resultados alentadores que podrían ser incluso mejores si se cuenta con una base de datos más robusta.
2017-01-13T16:39:07Z
2017-01-13T16:39:07Z
2016-12-11
info:eu-repo/semantics/masterThesis
Alatorre-Moreno, A. (2016). Herramienta de análisis y monitoreo de entrenamiento para corredores de maratón no profesionales. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/4163
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/51872020-02-12T06:59:43Zcom_11117_560col_11117_1541
Migration Design from an Institutional Repository to the Semantic Web
Viorato-Rea, Angélica
Estrada-Barahona, Christopher O.
Alcaraz-Mejía, Mildreth
DSpace
Karma
Integration Tool
RDF
Web Semantica
VIVO
This work presents the methodology of the migration of the data stored in an institutional repository based on a relational database to the semantic web ontologies. Traditional databases do not guarantee to retrieve all possible results of a search, since they lack the power to make inferences on non-explicit relationships between entities. The semantic web provides a powerful and simple data model that associate entities inside classes, relationships, and attributes that conform the ontologies, making easy to avoid data duplication and to infer new non-explicit relationships. Currently the institutional repositories use relational databases to store its data which slows down the research of the state of the art due to the lack of flexibility. By migrating the current data to the semantic web ontologies, this work seeks to increase collaboration among researchers and allow for the creation of work networks among them. The data integration tool called Karma proposes a solution that permits the easy modeling of data from common file formats like Comma Separated Values (CSV) to different semantic web ontologies.
Este trabajo presenta la metodología de la migración de la información almacenada en un repositorio institucional montado en una base de datos relacional hacia las ontologías de la web semántica. Las bases de datos tradicionales no garantizan la obtención de todos los posibles resultados de una búsqueda, ya que carecen de la capacidad de hacer inferencias acerca de relaciones no explicitas entre entidades. La web semántica provee de un modelo de datos simple y poderoso que asocia entidades en las clases, relaciones y atributos que conforman ontologías, y evita la duplicidad de información al poder inferir relaciones no explicitas. Actualmente los repositorios institucionales usan bases de datos relacionales para almacenar su información, lo que ralentiza la búsqueda del estado del arte debido a su falta de flexibilidad. Al migrar la información actual a las ontologías de la web semántica, este trabajo pretende incrementar la colaboración entre investigadores y permitirá la creación de redes de trabajo entre ellos. La herramienta de integración de datos llamada Karma propone una solución que permite el fácil modelado de datos desde formatos de archivo comunes como lo es CSV a diferentes ontologías de la web semántica.
2018-01-29T20:50:21Z
2018-01-29T20:50:21Z
2017-08
info:eu-repo/semantics/masterThesis
Viorato-Rea, A. (2017). Migration Design from an Institutional Repository to the Semantic Web. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/5187
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/37602020-02-12T06:51:19Zcom_11117_560col_11117_1541
Base de datos analítica para Microsoft Project
González-Guerrero, Adrián
Díaz-Rodríguez, Miriam
Romero-Espinosa, César
ETL
DWH
Data Warehouse
El presente trabajo define el proceso de extracción, transformación y carga de la base de datos de Microsoft Project, cuya serie de tablas se encuentran definidas en cuanto a integridad como una base de datos transaccional. Estas tablas serán transformadas para optimizar la consulta de información a través de un Data Warehouse. Para esto, será necesario modelar la base de datos para este fin y alistarla para el reporteo de gran cantidad de información.
2016-08-01T16:56:00Z
2016-07
info:eu-repo/semantics/masterThesis
González-Guerrero, A. (2016). Base de datos analítica para Microsoft Project. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/3760
spa
http://quijote.biblio.iteso.mx/licencias/TodosLosDerechosReservados.pdf
ITESO
oai:rei.iteso.mx:11117/74362021-09-06T15:59:24Zcom_11117_560col_11117_1541
Sistema de recomendación basado en grafos: escenario de recomendación de productos
Partida-Ochoa, Sarahi
Ortega-Guzmán, Víctor H.
NEO4J
Grafo
Pagerank
Louvian
Recomendador de Productos
Filtro Colaborativo
NEO4J es un software de base de datos de grafos escalable y ejecutable en plataformas comunes, ya sea en modo autónomo en aplicaciones o modo manual con la intervención del usuario. En este documento se describe el desarrollo de un sistema de recomendación de productos de compra utilizando un set de datos públicos de Amazon, el cual ha sido diseñado e implementado de acuerdo con las necesidades actuales de la sociedad por el uso masivo de plataformas virtuales. En dicho set de datos se obtiene la información cruda generando relaciones a las compras, reseñas y productos similares que adquieren los clientes.
La recomendación es de tipo híbrida debido al uso de una recomendación colaborativa y de grafos. Después de extraer la información, esta fue mapeada a un grafo con nodos y sus relaciones a una base de datos de NEO4J; sus conexiones nos indicaron las relaciones entre los productos, clientes y grupos, las cuales fueron útiles para la generación de recomendaciones automáticas.
La información se almacenó en una base de datos de NEO4J, donde se hizo uso de librerías disponibles como lo es APOC, la cual contiene alrededor de 450 algoritmos incluyendo la integración de datos, algoritmos de grafos o de conversión de datos. Las consultas realizadas se basan en algoritmos de búsqueda, centralidad y comunidad, generando una recomendación más certera acorde al producto o artículo seleccionado. En conclusión, es fundamental contar con la disponibilidad de recomendadores de este tipo debido al incremento masivo de compras en líneas en los últimos tiempos.
2021-07-02T18:58:28Z
2021-07-02T18:58:28Z
2021-06
info:eu-repo/semantics/masterThesis
Partida-Ochoa, S. (2021). Sistema de recomendación basado en grafos: escenario de recomendación de productos. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/7436
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
oai:rei.iteso.mx:11117/60512020-02-12T06:48:19Zcom_11117_560col_11117_1541
Un estudio comparativo del desempeño en la clasificación de emociones en imágenes de rostros realizada por diferentes servicios en la nube
Grenz-Meza, Horst J.
Piza-Dávila, Hugo I.
Sánchez-Díaz, Guillermo
Los avances tecnológicos han permitido abrir puertas del conocimiento que traen nuevos beneficios y retos. El auge que ha tenido internet y la capacidad de almacenamiento masivo de información permitieron crear un concepto denominado “la nube”, el cual es una red de servidores remotos a nivel mundial, cuya conexión permite trabajar como un sistema único de manera escalable elásticamente. Debido a la facilidad en disponer esta capacidad de cómputo escalable, diferentes empresas y organizaciones han implementado algoritmos que trabajen con diversos tipos de datos como las imágenes, teniendo acceso de manera remota, usandolos servicios de la nube, permitiendo procesarlas en tiempo real o cercano a él, para una determinada tarea o función.Algunas tareas relacionadas con el procesamiento de imágenes de rostros desarrolladas en los años más recientes con servicios en la nube incluyen: reconocimiento biométrico, determinación de rasgos característicos como género y edad, reconocimiento de emociones en expresiones faciales, entre otras.Se han desarrollado diferentes programas y plataformas que permiten el reconocimientode emociones faciales en imágenes con rostros, incorporando algunas técnicas de inteligencia artificial y conocimiento de expertos de otras áreas como la psicología. Sin embargo, no se encontraron artículos en el estado del arte referentes al grado de precisión y confianza de estos clasificadores en expresiones faciales.Este trabajo de tesis se enfoca de manera específica al desarrollo de una metodología que permita conocer el grado de confianza y precisión de diferentes plataformas que utilicen los servicios de la nube para la clasificación de emociones en expresiones faciales.Además, se propone una herramienta que pudiera incorporarse en un futuro como un servicio complementario de la plataforma IBM Cloud y Watson para la clasificación de emociones en imágenes con rostros, ya que actualmente no cuenta con uno.Para validar los resultados de clasificación se utilizaron diferentes plataformas ya desarrolladas para la clasificación de emociones, además de la herramienta propuesta con el conjunto de datos Cohn-Kanade, el cual ha sido validado por expertos en detección de emociones. También, se usó un conjunto de datos propio, el cual fue generado tomando en cuenta la opinión de la gente mediante una aplicación remota que permite a un usuario clasificar un rostro en alguna de las emociones catalogadas en este trabajo.
2019-10-09T22:15:09Z
2019-10-09T22:15:09Z
2019-07
info:eu-repo/semantics/masterThesis
Grenz-Meza, Horst J. (2019). Un estudio comparativo del desempeño en la clasificación de emociones en imágenes de rostros realizada por diferentes servicios en la nube. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
http://hdl.handle.net/11117/6051
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-ND-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/74352021-09-06T15:57:21Zcom_11117_560col_11117_1541
Sistema de recomendación híbrido basado en grafos con enfoque a artículos científicos
Escamilla-Ornelas, Jorge M.
Ortega-Guzmán, Victor H.
Grafo
Neo4j
Louvain
PageRank
Neovis
Base de Datos
No SQL
Sistema de Búsqueda
El presente trabajo da evidencia del desarrollo de un sistema de recomendación de artículos científicos y sus entidades relacionadas como autores y journals a través de una interfaz web utilizando como fuente de información una base de datos de grafos (Neo4j).
Hasta hace no mucho tiempo internet era solamente un repositorio donde solo las personas con capacidad de entender y desarrollar códigos de programación eran las encargadas de generar contenido; ahora todo el mundo con acceso a la red tiene la posibilidad de producir información directa o indirectamente.
Desde la década de 1980, el internet ha crecido su demanda hasta el punto de incluir el potencial informativo de universidades y centros de estudio que ahora tienen la capacidad de publicar sus artículos de investigación en los repositorios de la web.
Debido a este aumento de demanda y generación de información, los sistemas de búsqueda se han vuelto ineficientes al momento de satisfacer las necesidades del usuario que desea encontrar artículos científicos que le ayuden a desarrollarse profesionalmente.
Fue así como surgió la motivación de desarrollo de un sistema de recomendación. Las principales características de esta propuesta incluyen el uso de una base de datos no relacional como fuente de datos, así como un sistema web con interfaz gráfica amigable que le permita al usuario final realizar una búsqueda de palabras clave y obtener, como resultado, un conjunto de artículos científicos acorde a sus necesidades.
Se mencionan diversos tipos de sistemas de recomendación que son analizados en el presente documento; nuestro sistema de recomendación es considerado híbrido debido a que analiza el texto interno de cada uno de los artículos científicos y las participaciones colaborativas que tuvieron los autores para la creación de las entidades en la base de datos de grafos.
Existe una amplia variedad de algoritmos enfocados a este tipo de topología, como lo son métodos de búsqueda, evaluación de importancia de nodos dentro de la estructura y generadores de comunidades que fueron utilizados para el desarrollo del algoritmo interno de recomendación como es el caso de Louvain y PageRank.
En los siguientes capítulos se presenta la descripción de funcionamiento y utilización del sistema creado, así como un caso de prueba donde el usuario final escribe con palabras clave su búsqueda y al finalizar obtuvo sugerencias directas e indirectas de manera interactiva en el sistema web.
Se concluye que el uso de un sistema hibrido de recomendaciones basada en grafos cumple eficazmente con las sugerencias resultantes y nos provee de cualidades como el análisis en tiempo real, persistencia de información y la capacidad de generalizar el tópico esencial de recomendación independientemente de la estructura del grafo.
2021-07-01T19:16:06Z
2021-07-01T19:16:06Z
2021-06
info:eu-repo/semantics/masterThesis
Escamilla-Ornelas, J. M. (2021). Sistema de recomendación híbrido basado en grafos con enfoque a artículos científicos. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/7435
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/52892020-02-12T06:57:57Zcom_11117_560col_11117_1541
Memory Allocation Simulator
Gómez-Navarro, Octavio
Cornejo-Torres, Pedro A.
Memory Allocation Simulator
Nowadays students tend to forget about memory usage and disposal, as our computer systems get more and more memory as a standard, the concern about how much memory a program uses become more of a second thought, it is not the priority. When we take that mi
ndset to embedded systems or performance applications it can get a
little bit challenging for someone to suddenly take care of these fine details, which can lead to memory leaks or over
allocation of memory, making the application’s performance go down.
For this, an application can be used to help the students understand all of this while programming for other signatures like data structures or algorithms, in any case, a library can be implemented to
provide this feature without affecting the user’s programs or development environment, but getting enough information to pinpoint a memory issue.This work shows the resulting library containing all this functionality in a very simple solution, intended for students and professors so they can visualize the dynamic memory allocations made by a program just by including the library in their projects. This solution is expected to increase the student’s awareness about the possible issues that may happen if the memory management portion of their programs is missing.
2018-03-23T19:16:24Z
2018-03-23T19:16:24Z
2017-12
info:eu-repo/semantics/masterThesis
Gómez-Navarro, O. (2017) Memory Allocation Simulator. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO. https://rei.iteso.mx/handle/11117/5289
http://hdl.handle.net/11117/5289
eng
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO
oai:rei.iteso.mx:11117/80532022-06-07T03:00:52Zcom_11117_560col_11117_1541
Modelo de aprendizaje profundo para la detección de objetos de interés en el Bosque de La Primavera
Magaña-Vázquez, José L.
Cervantes-Álvarez, José F.
Pérez-Bernal, Luis E.
Deep Learning
Aprendizaje Profundo
Bosque La Primavera
El Bosque la Primavera es uno de los ecosistemas más importantes en Guadalara, México. Sin embargo, en las últimas décadas, el ecosistema del bosque se ha degradado de forma preocupante debido a incendios, invasiones y al desarrollo urbano, entre otras causas. Por lo anterior, es importante monitorear de forma permanente el estado de salud del ecosistema. Sin embargo, realizar una inspección manual es un proceso lento y costoso. Por esto, y con el fin de reducir costos y tiempo, en este trabajo de obtención de grado se trabajó con el modelo Faster R-CNN para la detección de árboles del Bosque de la Primavera.
2022-06-06T18:03:04Z
2022-06-06T18:03:04Z
2022-06
info:eu-repo/semantics/masterThesis
Magaña-Vázquez, J. L. (2022). Modelo de aprendizaje profundo para la detección de objetos de interés en el Bosque de La Primavera. Trabajo de obtención de grado, Maestría en Sistemas Computacionales. Tlaquepaque, Jalisco: ITESO.
https://hdl.handle.net/11117/8053
spa
http://quijote.biblio.iteso.mx/licencias/CC-BY-NC-2.5-MX.pdf
ITESO