Resúmenes por Área


Cargando resúmenes...

Área VII: Ingeniería e Industria

Abad Salinas Jorge Andrey, Universidad Autónoma de Guerrero
Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE PROTOTIPOS DE HERRAMIENTAS SOFTWARE PARA LA IMPLEMENTACIóN Y USO DE BUENAS PRáCTICAS DEL PERFIL BáSICO DEL ISO/IEC 29110


DESARROLLO DE PROTOTIPOS DE HERRAMIENTAS SOFTWARE PARA LA IMPLEMENTACIóN Y USO DE BUENAS PRáCTICAS DEL PERFIL BáSICO DEL ISO/IEC 29110

Abad Salinas Jorge Andrey, Universidad Autónoma de Guerrero. Cedillo Ocaña Cler Mariana, Universidad Mexiquense del Bicentenario. Huerta Cámara Dulce Mariana, Universidad Mexiquense del Bicentenario. Tovar Espinoza de los Monteros Karen Annet, Universidad Mexiquense del Bicentenario. Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el presente documento se destaca el trabajo realizado durante la estancia del verano de investigación, en la que se llevó a cabo el desarrollo del proyecto Prototipos de herramientas software para la implementación y uso de buenas prácticas del perfil básico del ISO/IEC 29110. Este proyecto aborda la problemática que actualmente tienen las Empresas Muy Pequeñas (EMPs), relacionado como la falta de conocimiento y experiencia para la correcta implementación y uso de estándares, siendo una de las causas la falta herramientas que proporcionen soporte para  su adopción y uso. En este contexto, se pueden resaltar como ejemplos de algunos de los problemas más recurrentes que tienen algunas EMPs durante el desarrollo de proyectos de software, la falta de una gestión de riesgos adecuada, la carencia del diseño del software, la mala definición de requisitos y la poca o nula realización de actividades relacionadas con la verificación y validación de Requisitos, actividades que son necesarias para el aseguramiento de la calidad del producto. Lo antes mencionado hace evidente la necesidad del desarrollo de herramientas que funcionen como soporte para dar solución a dichos problemas.



METODOLOGÍA

Para el desarrollo del proyecto y teniendo en cuenta las restricciones de tiempo, se optó por adaptación de SCRUM utilizando buenas prácticas y artefactos proporcionados en el perfil Básico del estándar ISO/IEC 29110. De Scum se tomaron como base algunos de sus eventos y artefactos (de los eventos (planificación del sprint, Sprint, reuniones diarias y revisión del sprint) y de los artefactos (pila del sprint, producto mínimo visible)). Además, se reforzó con la implementación de tareas y productos de trabajo proporcionados por el perfil de entrada del ISO/IEC 29110, de las tareas (planificación, análisis de requisitos, diseño, pruebas, liberación), y de los productos de trabajo (enunciado de trabajo, entorno de desarrollo, instrucciones de entrega, estrategia de control de versiones, especificación de requisitos, riesgos, arquitectura de software y diseño detallado, registros de trazabilidad, pruebas, resultados de pruebas, minutas de reunión y respaldos y la configuración de software).


CONCLUSIONES

En conclusión, el resultado de este proyecto se desarrollaron 4 herramientas enfocadas a la gestión de proyectos e implementación de software, cómo lo son gestión de riesgos, diseño de software, definición de requisitos, y verificación y validación de requisitos, las cuales fueron creadas con el fin de servir de soporte a las EMPs que tengan la intención de adoptar prácticas del ISO/IEC 29110 para el desarrollo de sus proyectos. A continuación se presenta una breve descripción de la funcionalidad de las herramientas realizadas: Herramienta de Gestión de riesgos: Este módulo proporciona una solución para llevar a cabo la gestión de riesgos de un proyecto de empresas muy pequeñas (EMPs), permitiendo llevar a cabo el monitoreo del riesgo durante todo el proceso de desarrollo de software. La funcionalidad incluida en el módulo es: registrar los riesgos, clasificar riesgos según su prioridad e impacto, brinda el porcentaje de exposición del riesgo. Además permite llevar un monitoreo a base del registro de observaciones y brinda al usuario un documento de toda la información registrada. Definición de los requisitos: Este módulo está diseñado para brindar una guía para la especificación de requisitos de un software, a través del uso de criterios predefinidos, y segmentado con base en la técnica utilizada para la definición de los requisitos(casos de uso o historias de usuario), El usuario podrá al hacer uso del módulo, tener en cuenta los aspectos básicos para la correcta definición de los requisitos. Diseño de software: este módulo brinda información de apoyo para ayudar al usuario a tener mayor conocimiento de los elementos a tener en cuenta para el desarrollo del diseño de software. El módulo cubre la información para el diseño de alto nivel (arquitectura) y para el diseño de bajo nivel (diseño detallado). A través de la interfaz del  módulo, se brinda información sobre conceptos y ejemplos para el desarrollo correcto del diseño de software.  Verificación y validación de requisitos: este módulo brinda una solución para facilitar la ejecución de actividades de calidad (verificación y validación) de los requisitos mediante el uso de un Checklist, con el cual se brinda apoyo para que el cliente pueda llevar a cabo la revisión de manera adecuada de los requisitos e identificar dudas o expresar inconformidades relacionados con los requisitos. Cómo funcionalidad del módulo además se incluye proporcionar los resultados de la verificación y la validación del mismo, tal que éstos pueden ser utilizados con facilidad por la empresa.  Además de los resultados antes mencionados, se logró obtener conocimiento del estándar ISO/IEC 29110 y de Scrum, la implementación de algunos elementos del estándar y de algunos eventos de Scrum para el desarrollo del proyecto, la lectura de artículos y reportes técnicos, y la elaboración de documentos técnicos a través de la redacción del reporte técnico y un artículo.
Abarca Agripino Héctor Ulises, Universidad Autónoma de Guerrero
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

PROTOTIPO DE BLOCK ECOLóGICO, CONSTRUIDO CON PET Y FIBRAS NATURALES DE OCOXAL.


PROTOTIPO DE BLOCK ECOLóGICO, CONSTRUIDO CON PET Y FIBRAS NATURALES DE OCOXAL.

Abarca Agripino Héctor Ulises, Universidad Autónoma de Guerrero. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

En 2015, la ONU aprobó la Agenda 2030 sobre el Desarrollo Sostenible, una oportunidad para que los países y sus sociedades emprendan un nuevo camino con el que mejorar la vida de todos, sin dejar a nadie atrás. La Agenda cuenta con 17 Objetivos de Desarrollo Sostenible, que incluyen desde la eliminación de la pobreza hasta el combate al cambio climático, la educación, la igualdad de la mujer, la defensa del medio ambiente o el diseño de nuestras ciudades. Objetivo 11: Lograr que las ciudades y los asentamientos humanos sean inclusivos, seguros, resilientes y sostenibles. La contaminación ambiental es un tema que compromete a todos, es la consecuencia del progreso y desarrollo de la sociedad, en muchos casos está vinculada a la carencia de información y a la falta de conciencia, (Fundación Aguaclara); es por ello, que en los últimos años las investigaciones sobre temas ambientales, han tomado especial interés en la generación de desechos, su problema de recolección y disposición final. La presente investigación es con la finalidad de diseñar y crear un prototipo de block ecológico con materiales reciclados como el PET y fibras naturales de ocoxal para mejorar sus características mecánicas y utilizarlo como un material de la construcción. El prototipo de block ecológico con materiales reciclados es una gran innovación para la industria de la construcción ya que aportará beneficios para el cuidado del medio ambiente, así como también reducir la contaminación en los depósitos de basura teniendo en cuenta que el PET tarda hasta 700 años en degradarse. La sociedad necesita materiales de construcción innovadores y sostenibles, para enfrentar los fenómenos naturales como sismos o huracanes. Los métodos constructivos necesitan propuestas de materiales de construcción de vivienda rural sustentable, con las características físicas y mecánicas, necesarias para soportar las cargas a los cuales estarán sometidos los elementos estructurales.



METODOLOGÍA

La investigación es de manera documental, La parte experimental se basará en normas oficiales mexicanas, para considerarlo un material de construcción de resistencia a la compresión, se tendrán que realizar pruebas de laboratorio de resistencia de materiales, controlando las variables del prototipo. En los últimos años el desarrollo de ideas en el uso y reciclado de las botellas PET se ha visto incrementado a nivel mundial, por el nivel de problema ecológico que supone. Los Ecoblock son un sistema de materiales que se utiliza para la construcción de alta calidad, resistente, durable, con aislamiento térmico, de fácil manejo y de precio accesible al público. Las fibras naturales son alternativas viables pueden ser una posibilidad real para los países en desarrollo, ya que están disponibles en grandes cantidades y representan una fuente renovable y continua. Los productos hechos con cemento portland y fibras naturales no procesadas tal como coco, caña de azúcar, bambú, yute, madera, ocoxal, etc., se han probado para determinar sus propiedades de ingeniería y su posible uso en la construcción. Se realizará la mezcla para crear el ecoblock, una vez teniéndose la mezcla se agregará en cilindros y se dejaran reposar el tiempo estimado que es de 28 días. Una vez pasando este periodo de el prototipo se realizará el cabeceo para después llevarlo a la máquina de compresión (Maquina universal) este instrumento esta validado por la NOM. Esta es una de las pruebas más importantes para este prototipo ya que en ella nos mostrará cuál es la resistencia que este puedo soportar y si es apta para poder cumplir el papel de realizar una casa.


CONCLUSIONES

En la estancia de verano se logró adquirir los conocimientos teóricos del ecoblock, así como también para poder realizar un protocolo de investigación de manera ordenada y gracias al apoyo del investigador que siempre nos fue aportando sus conocimientos se pudo concluir satisfactoriamente este verano de investigación virtual. El protocolo de investigación se realizó en conjunto con el investigador ya que, ayudé a redactar y a conocer el marco teórico del ecoblock. Por la contingencia del Covid-19 no fue posible elaborar el prototipo del block ecológico. Como se aprecia en esta investigación solo se realizó la parte documental, la parte experimental será someter a compresión el prototipo de ecoblock. Pero esto quedará como un avance en esta investigación que se elaboró de manera documental.
Abrego Ulloa Edwin Raul, Universidad Autónoma de Nayarit
Asesor: Mg. Reinel Tabares Soto, Universidad Autónoma de Manizales

APLICACIóN DE REDES NEURONALES CONVOLUCIONALES PARA ESTEGOANáLISIS


APLICACIóN DE REDES NEURONALES CONVOLUCIONALES PARA ESTEGOANáLISIS

Abrego Ulloa Edwin Raul, Universidad Autónoma de Nayarit. Asesor: Mg. Reinel Tabares Soto, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

La Esteganografía consiste en ocultar mensajes dentro de una imagen digital cambiando el valor de algunos pixeles de manera que sea visualmente imperceptible. El mensaje que se desea ocultar puede ser un texto, una imagen o un binario. Este proceso se puede hacer sobre dos dominios, espacial o frecuencial(JPEG). Los algoritmos más usados para hacer Esteganografía en el dominio espacial son: HUGO, HILL, MiPOD, S-UNIWARD y WOW.  Para el dominio de la frecuencia son: J-UNIWARD, F5, UED y UERD. El Estegoanálisis consiste en detectar si una imagen tiene un mensaje oculto (Imagen-Stego) o no (Imagen-Cover). Normalmente el Estegoanálisis se divide en dos etapas, la primera es la extracción manual de características en donde los mejores resultados se han logrado con Rich Models (RM por sus siglas en inglés) y la segunda es la clasificación en donde normalmente se ha utilizado Ensemble Classifier (EC por sus siglas en inglés), Maquinas de Soporte Vectorial (SVM por sus siglas en inglés) o un perceptrón. Cuando se utiliza Deep Learning en Estegoanálisis la etapa de extracción de características y la clasificación se unen bajo una misma arquitectura optimizando los parámetros de forma simultánea permitiendo disminuir la complejidad y la dimensionalidad que introduce la extracción manual de características. El procesamiento de imágenes ha permitido incursionar en el campo de la seguridad informática, como es el caso del Estegoanálisis. El problema actual es el bajo porcentaje de detección de imágenes Esteganográficas y la alta complejidad computacional que involucra el entrenamiento de este tipo de algoritmos.



METODOLOGÍA

El enfoque de la investigación es cuantitativo porque por medio de la experimentación se obtendrán estadísticas y porcentajes de precisión de detección de imágenes Esteganográficas. El universo para este problema de investigación son todas las posibles imágenes digitales que existen; como muestra se tomaran las bases de datos que más utilizan los investigadores para hacer Estegoanálisis las cuales son: BOSSBase, BOWS2 e ImageNet. Las bases de datos de imágenes digitales se descargarán desde las fuentes que utilizan los investigadores en el tema, estas fuentes son de libre acceso. Cada una de las bases de datos de imágenes digitales necesarias para la experimentación (BossBase, BOWS2, ImageNet, Alaska) cuentan con derechos de autor bajo licencia GNU, esto significa que si el uso de las imágenes es con fines académicos (no comercial), no necesita ningún tipo de permiso, solo se solicita hacer los respectivos agradecimientos y citaciones; estas bases de datos pueden ser descargadas directamente desde internet de forma libre por cualquier investigador interesado en el tema. Las implementaciones de los algoritmos Esteganográficos y de las arquitecturas de las CNNs necesarios para contrastar los resultados obtenidos se encuentran en repositorios libres como GitHub bajo licencia GNU, lo que significa que las implementaciones pueden ser completamente utilizadas en la investigación con fines académicos (no comercial) teniendo en cuenta de hacer los respectivos agradecimientos y citaciones. Las bases de datos de imágenes digitales descargadas se codificarán con los algoritmos Esteganográficos más utilizados. Para la implementación de los algoritmos y análisis de datos se utilizará el lenguaje de programación Python en el framework Tensorflow para implementar las arquitecturas en menos tiempo. Se implementaron arquitecturas de CNNs como lo es YedroudjNet y XuNet como principales arquitecturas para la detección de imagenes esteganográficas. Se utilizaron las arquitecturas antes mencionadas con el fin de mejorar la precisión del 50% con lo nuevos modelos propuestos que se desarrollaron bajo los siguientes criterios. Un filtro de paso alto (High Pass Filter HPF) de 5x5 para aumentar el ruido esteganográfico en las imagenes. Convoluciones inicializadas con el método Xavier. Funciones de activación tangente hiperbólica en la primera y segunda convolución, así como la unidad lineal rectificada para las siguientes tres convoluciones. Normalización batch con un momentum de 0.1, epsilon de 0.00001 con un escalado solo en las dos primeras convoluciones. Un average pooling de 5x5 con un stride de 2. Una capa totalmente conectactada con 128 neuronas para el procesamiento y dos neuronas activadas con la función softmax para la clasificación de las imagenes. Optimizador Adam con una taza de aprendizaje ajustada en 0.0001. Las especificaciones del hardware sobre las cuales se trabajaron fueron en entornos de colaboración en la nube como Colab, así como los experimentos que se realizaron fueron hechos sobre imagenes en el algoritmo SUNIWARD con un carga útil de 0.4bpp.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos y prácticos sobre como las redes neuronales convolucionales son construidas e implementadas sobre los distintos algoritmos de esteganografía que existen y consiguiendo el 74% de precisión el la nueva arquitectura que se propuso. Sin embargo, a pesar de ser un trabajo extenso de investigación se han obtenido los siguientes resultados: Recursos documentales con las arquitecturas, elementos computacionales, requisitos de hardware y software. Bases de datos de imágenes digitales para hacer esteganalisis organizadas, procesadas y etiquetadas. Los resultados que se esperan obtener se encuentran el diseño de nuevas arquitecturas de redes neuronales e implementación de los algoritmos de las nuevas redes neuronales, así como, el diseño de nuevos elementos computacionales de redes neuronales convolucionales. El presente trabaja contribuye al Objetivo de Desarrollo Sostenible número 9: Desarrollar infraestructuras resilientes, promover la industrialización inclusiva y sostenible, y fomentar la innovación, esto debido a la naturaleza del tema, que fomenta la innovación en las técnicas convencionales de detección de imagenes esteganográficas.
Abriz Morales Luis Enrique, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Néstor García Chan, Universidad de Guadalajara

SOLUCIóN NUMéRICA DE UN MODELO DE TRAFICO VEHICULAR LWR CON FORZAMIENTOS.


SOLUCIóN NUMéRICA DE UN MODELO DE TRAFICO VEHICULAR LWR CON FORZAMIENTOS.

Abriz Morales Luis Enrique, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Néstor García Chan, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las teorías de tráfico vehicular son el resultado de observar el comportamiento de los autos en una avenida, sin embargo, existen diferentes puntos de vista para su estudio, lo que son llamados modelos microscópicos y macroscópicos. Los modelos macroscópicos debidos a su analogía con un fluido son capaces de modelar efectos que modifican a las variables de interés, los llamados forzamientos. El caso de estudio del trafico vehicular en carreteras y ciudades sigue implicando un gran reto para los urbanistas e incluso para quienes desarrollan tecnologías relacionadas. El congestionamiento de vehículos trae consigo problemas derivados como: salud, productividad y bienestar de los habitantes, también otros como lo es la contaminación por emisiones contaminantes de los autos.  Este trabajo pretende obtener un modelo basado en el ya conocido modelo LWR (Lighthill-Whitham-Richards) con los forzamientos de semáforos, rampas de entrada-salida y cambio en el número de carriles en una avenida, además de una propuesta para su aproximación numérica, con la cual se realizarán simulaciones para distintos escenarios posibles dentro de una avenida. Finalmente se tomará una sección de avenida en la ciudad de Guadalajara para validar lo antes mencionado debido a que se ha llevado a cabo una obra nueva que ha modificado el estado de la avenida y esto provoca diferentes comportamientos de tráfico.



METODOLOGÍA

El objetivo es obtener un modelo de trafico vehicular capaz de simular las características principales de una avenida, por lo que se realizara un análisis con distintos forzamientos a la ecuación de continuidad en conjunto con la relación Hidrodinámica pues, se habla de parámetros importantes como densidad (ρ) en [Veh/Km], velocidad (V) en [Km/hr] y flujo (Q) en [Veh/hr], las cuales son variables utilizadas desde el punto de vista macroscópico. El uso de la ecuación de continuidad no es particularmente dependiente del modelo usado, sino de la infraestructura de la avenida, sin embargo, en Treiber se deduce la ecuación de continuidad a partir de secciones de calles o avenidas homogéneas. Una vez decidido que será tomado en cuenta para el análisis y revisada bibliografía correspondiente al tema, se procede a desarrollar la ecuación de continuidad con los forzamientos reportados como rampas de entrada-salida o semáforos, y se agregan los que son de interés particular como cambio en el numero de carriles, el cual ha tenido poco análisis en la literatura y por las condiciones que se quieren simular es necesario tomarlo en cuenta. Ya obtenida la ecuación de continuidad con las consideraciones necesarias se realiza la formulación del modelo basado en el propuesto por Lighthill y Whitham (1955), y posteriormente Richards (1956), el modelo LWR, la cual por el resultado de la ley de conservación que propusieron, consiste en introducir una relación estática Q=f(ρ), que depende únicamente de la densidad (ρ) y que complementa a la ecuación de continuidad. Concluida la obtención del modelo, se propone una manera de discretizar el modelo para su aproximación numérica, esto se hizo tomando consideraciones, pues cada parámetro es de naturaleza distinta, se utiliza un método llamado volúmenes finitos donde se divide en celdas o trozos al dominio y a partir del flujo en los extremos de cada celda se estima la densidad media en ella misma. Se obtiene el volumen de control, en el cual se desarrollan cada uno de los componentes del modelo de trafico obtenido basado en el LWR ya obtenido y se llega al modelo LWR discreto. Con la finalidad de comprobar que el modelo es capaz de aproximar diversas situaciones, se procede a seleccionar un tramo de la avenida Revolución en el estado de Guadalajara como ejemplo. El tramo se elije por haber sido resultado de una obra de infraestructura que consta de un tren ligero con una parte de sus vías subterráneas, donde hay mayor número de carriles para auto a excepción de la salida del tren al exterior, y otra parte elevada en la cual los carriles modifican su número nuevamente, a esto se ve sumada la implementación de una ciclovía. Esto es conveniente puesto que nos permite tener diferentes escenarios en los cuales obtener resultados numéricos de cada uno y comparar con lo que se logro notar antes, durante y después de la obra. El tramo de la avenida en cuestión fue dividido en segmentos uniformes y se localizaron cada uno de los forzamientos existentes en las celdas correspondientes. Finalmente se realizan las simulaciones programadas en MATLAB, y se hacen diferentes corridas para observar el comportamiento en cada escenario. Con la finalidad de poder hacer una comparación mas evidente, se obtiene una expresión que con los datos de la simulación muestra un valor que es comparable entre escenarios.


CONCLUSIONES

El estudio de la dinámica vehicular representa un área de oportunidad para urbanistas y ciencias relacionadas cuyo objetivo es desarrollar infraestructura vial y fomentar la innovación. EL modelo obtenido es capaz de representar diferentes características en una avenida de manera efectiva dando como resultado una manera de aproximar distintas situaciones posibles en una sección de carretera. Los datos obtenidos de las simulaciones demuestran que el modelo responde a los forzamientos de manera congruente en la avenida. Obtenido el parámetro de tiempo de viaje para cada caso simulado se encontró que el valor mas alto es durante la obra con 850.2340, con esto cómo referencia, la diferencia con el estado original es de 31.5850%. El estado final está 9.91% por encima del original, con esto es posible fomentar alternativas de viaje para destinos que estén dentro del área estudiada. El estudio se realizo con datos estándar logrando resultados congruentes, lo que nos anima a realizar este análisis con datos reales y de esta manera llegar a hacer otro tipo de análisis acoplando alguno modelo para atender un problema derivado del trafico como lo es el de la contaminación.
Achiquén González Luis Eduardo, Universidad Autónoma del Estado de México
Asesor: Dr. Ileana Gloria Pérez Vergara, Universidad de San Buenaventura

DIAGNóSTICO EMPRESARIAL, CON ENFOQUE LEAN, DE LAS MIPYMES DEL SECTOR 31-33 DEDICADAS A LA FABRICACIóN DE PRODUCTOS METáLICOS; CASO CABECERA MUNICIPAL DEL MUNICIPIO DE MALINALCO, ESTADO DE MéXICO.


DIAGNóSTICO EMPRESARIAL, CON ENFOQUE LEAN, DE LAS MIPYMES DEL SECTOR 31-33 DEDICADAS A LA FABRICACIóN DE PRODUCTOS METáLICOS; CASO CABECERA MUNICIPAL DEL MUNICIPIO DE MALINALCO, ESTADO DE MéXICO.

Achiquén González Luis Eduardo, Universidad Autónoma del Estado de México. Asesor: Dr. Ileana Gloria Pérez Vergara, Universidad de San Buenaventura



PLANTEAMIENTO DEL PROBLEMA

Para los países en desarrollo es muy importante crear sistemas robustos que permitan introducir a cualquier tipo de empresas a la cadena de valor al mismo tiempo que estas sean capaces de satisfacer las necesidades de sus clientes y participar en el mercado internacional. En México, de acuerdo con la información del Instituto Nacional de Estadística y Geografía, la esperanza de vida para las empresas recién creadas es de 7.8 años lo que hace muy difícil que se consoliden en el mercado nacional. En este contexto solo el 62.6% de las microempresas sobreviven al primer año y el 42.6% logran sobrevivir el segundo año. Por otro lado, el aporte de las MIPYMES al PIB nacional ronda el 52% y crean el 72% de los empleos formales. La información anterior es reflejo de la situación que viven las MIPYMES del sector 31-33 dedicadas a la fabricación de productos metálicos de la cabecera municipal de Malinalco Estado de México, debido a que no cuentan con los conocimientos necesarios para implementar herramientas y metodologías que faciliten su desarrollo. Resulta entonces una necesidad, potenciar el desarrollo de las empresas del sector y para esto se planteo como objetivo principal del proyecto de investigación, hacer un diagnostico del estado actual de las empresas del sector empleando un instrumento de apoyo para la colección y análisis de los datos, creado por el Instituto Tecnológico de Georgia bajo el enfoque de la filosofía Lean Manufacturing.



METODOLOGÍA

Tomando en cuenta la propuesta de proyecto, por parte del asesor investigador y bajo criterios formulados a conveniencia del esquipo de trabajo, se determino que el estudio sería realizado a las MIPYMES del sector 31-33 dedicadas a la fabricación de productos metálicos de la cabecera municipal de Malinalco, Estado de México.  Los alcances del proyecto de investigación se concretaron en términos de impacto social, científico y cultural, tomando en cuenta aspectos como: habilidades, conocimientos y disposición de cada integrante del equipo de trabajo. Un paso importante dentro del desarrollo del proyecto fue adaptar la herramienta de levantamiento y análisis de datos, creada por el instituto tecnológico de Georgia, a las circunstancias del entorno donde se desarrollo el proyecto de investigación. Esta adaptación consistió en socializar los términos y tecnicismos de manera que los encuestados pudieran digerir los enunciados y responder de forma coherente a cada cuestión. La herramienta consistió en una evaluación de la gestión organizacional de las empresas bajo los aspectos que lean manufacturing plantea como fundamentales, los cuales son: Culture, management, value, people, kaizen y tools, y estos fueron evaluados mediante la respuesta a cien preguntas que fueron capturadas bajo la escala tipo Likert que, para el caso de estudio, los encuestados tuvieron la oportunidad de mostrar su nivel de acuerdo o desacuerdo en 5 niveles diferentes. La manera de obtener las evaluaciones queda representada por la siguiente expresión:  Total de puntajes obtenidos por pregunta / Total de preguntas con evaluación > 0 Una vez capturados los datos, de manera objetiva y haciendo uso de los conocimientos y experiencia de los integrantes del equipo, el siguiente paso fue realizar el análisis de la información obtenida.  Los resultados obtenidos muestran los datos de 11 empresas que representan el 70% del total de la muestra a las cuales fue posible aplicar la herramienta de captura y análisis datos. En la siguiente tabla pueden verse reflejados los resultados generales de las empresas que fueron evaluadas con el enfoque Lean. ASPECTO LEAN.            PROMEDIO. Cultura                              2,0 Management                    1,7 Value                                2,6 People                              1,7 Kayzen                             1,4 Tools                                 2,0   Esta tabla muestra un pobre desempeño organizacional por parte de las empresas que fueron evaluadas al mostrar un rendimiento que apenas alcanza a promediar 2,0 cuando 5,0 era el máximo posible por alcanzar. También es posible ver que el comportamiento en estas es muy similar en cada uno de los criterios que maneja la herramienta metodológica. Esto revela amplias oportunidades de mejora dentro de las empresas con ayuda de la filosofía Lean.


CONCLUSIONES

Los resultados obtenidos nos demuestran que hay una gran deficiencia de conocimientos en cuanto a metodologías y herramientas Lean que pueden mejorar el desempeño de las empresas. Una evaluación sistemática, podría ayudar a obtener información de la organización y adaptación de las empresas frente a los cambios del mercado y el entrono. La mala comunicación interna, una mala administración y asignación de tareas, el desperdicio de talento humano, falta de una buena administración y la ausencia de una cultura de trabajo enfocada en mejoramiento continuo y la detección de desperdicios, son factores que no permiten el buen desempeño de las empresas y por ende su crecimiento productivo. Es importante destacar que, cuando todos los involucrados entienden los procesos y la parte metodológica del asunto, estos mismos podrían ser capaces de detectar los errores y defectos con los que la empresa convive día a día. La empresas y organismos independientes, podrían tener el acceso a esta información que podra ser de ayuda para la elaboracion de proyectos que busquen el fortalecimiento de las MIPYMES analisadas.
Acosta Cuellar Eduardo David, Instituto Politécnico Nacional
Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla

CIBERSEGURIDAD PARA APLICACIóN CONTRA EL CALENTAMIENTO GLOBAL


CIBERSEGURIDAD PARA APLICACIóN CONTRA EL CALENTAMIENTO GLOBAL

Acosta Cuellar Eduardo David, Instituto Politécnico Nacional. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Buscar la protección de transmisión de datos que recolecta una aplicación movil que busca combatir el calentamiento global. El objetivo es que la transmisión de los paquetes hacia la base datos sea segura, también que no pueda ser leida si es robada y que tampoco pueda ser remplazada, además, la aplicación no debe suponer una vulnerabilidad de sistema para el usuario, por lo que se cifrará dicha información. Un último requisito es que posteriormente pueda integrarse a un módulo de machine learning.



METODOLOGÍA

Inicialmente se hizo un análisis del problema y enseguida, una investigación y análisis para determinar cuál es el mejor algoritmo de cifrado (RSA, , la mejor plataforma y lenguaje de programación para llevar a cabo el diseño y desarrollo del programa. Se llegó a la conclusión, de que debía ser el algoritmo de cifrado RSA y el lenguaje de programación Python, debido a que contienen características que las hacen óptimas para este proyecto. Específicamente RSA trabaja con dos llaves, una pública y una privada, lo que lo hace más seguro comparado con otros algoritmos, viajando un mensaje seguro desde dos puntos distintos de internet. y Python tiene una enorme comunidad que es muy activa, además de open source, por lo que tenemos una gran cantidad de herramientas a nuestro alcance para desarrollo de todo tipo de aplicaciones. El desarrollo consistió en tres aplicaciones: Una de generación de llave pública y privada RSA Una de cifrado que reciba un registro de localización y temperatura, que lo guarde Una de descifrado que se encargará de decodificarlo y ajustarlo para mandarlo a una base de datos. Cada segmento necesita librerías distintas. El código de generación de llaves requiere de Binascii, y Pycrypto, esta última contiene el módulo Crypto que nos permitirá acceder a los algortimos RSA de cifrado, a la vez nos da una base de aleatoriedad potente con Random.new() para la creación de una llave privada de 1024 bits, que es lo recomendado para que sea segura,  a partir de ella se obtiene también la llave pública. Una vez creadas las llaves se almacenarán en archivos de extensión pem con el uso de los métodos open('','w'), write() y close() incluidos en Python por defecto, para guardarse deberán decodificarse de binario a ASCII con el método binascii.hexlify().decode(‘utf8’) de la librería Binascci. El código de cifrado requiere de importar un método extra llamado from Crypto.Cipher import PKCS1_OAEP, que nos permitirá realizar la codificación RSA. Después el código accede a la llave pública, y después de codificarla de ASCII a binario, la utiliza para obtener el tipo de codificación RSA con el uso del método PKCS1_OAEP.new(llave_pública) y cifrar los mensajes con encrypt(). Ya obteniendo el mensaje cifrado, su almacenamiento en un archivo con extensión txt nuevamente empleará la decodificación de binario a ASCII por ser necesario, después se enviará a una dirección donde el código de descifrado pueda acceder a él. El proceso de descifrado es exactamente el inverso. Su código emplea las mismas librerías que el de cifrado y solo agrega la librería csv. Para descifrar el mensaje solicita la llave privada y la codificará a binario, empleará nuevamente PKCS1_OAEP.new(llave_privada) para obtener el tipo de decodificación y debe coincir con la que generó la llave pública para revelar el mensaje cifrado utilizando el método decrypt(), de no haber coincidencia entonces descartará el mensaje. Una vez que se acceda al registro es separado y reasignado a las variables sensibles y guardados en un archivo csv a través de la librería del mismo nombre. Es necesario este formato ya que es fácil de manipular y es ideal si se manejan base de datos.


CONCLUSIONES

Se realizó con éxito los códigos de programación. Estas son capaces de generar llaves públicas y privadas de 1024 bites, lo suficientemente largas para no ser vulneradas, se recibe un registro de datos de localización y temperatura, se empaqueta, de cifra con RSA usando la llave pública, se guarda, se manda a la siguiente dirección, se descifra y se guarda en un archivo CSV para acoplarse a la base de datos. Queda todo preparado para su integración con la aplicación móvil y módulos de machine learning.
Acosta del Angel Leonides, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

SANEAMIENTO AMBIENTAL EN LA REINCORPORACIóN DE ÁREAS UTILIZADAS COMO DESTINO FINAL DE RESIDUOS SóLIDOS URBANOS: CIUDAD MADERO, TAMAULIPAS


SANEAMIENTO AMBIENTAL EN LA REINCORPORACIóN DE ÁREAS UTILIZADAS COMO DESTINO FINAL DE RESIDUOS SóLIDOS URBANOS: CIUDAD MADERO, TAMAULIPAS

Acosta del Angel Leonides, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La política ambiental emerge como la posibilidad de prevenir, encauzar o corregir los impactos que provocan las actividades humanas sobre el medio ambiente. Disminuir y evitar los impactos es importante para asegurar el derecho humano de todas las personas a un ambiente sano. En el  Plan Nacional de Desarrollo del Periodo 2001-2006, se estableció a la sustentabilidad como uno de sus doce principios fundamentales y planteó los objetivos nacionales para un desarrollo que proteja el presente y garantice el futuro:  • La inclusión de la protección de la naturaleza en el desarrollo de nuestro país. • La valoración correcta de los recursos naturales para evitar su depredación y contaminación.  • La incorporación de la sustentabilidad ambiental en los procesos de desarrollo industrial, de urbanización y de dotación de servicios.  • La preservación del patrimonio natural del país y la reconstrucción de los sistemas ecológicos para las generaciones futuras. Por consiguiente: La transversalidad consiste en introducir un tema en la vida diaria para abordarlo posteriormente de forma permanente. Así podemos decir que la Educación Ambiental tiene que estar presente en todos los contenidos curriculares, es decir debe ser tratada desde el punto de vista de la transversalidad. Objetivo General, Identificar las Técnicas de Tratamiento para el Saneamiento Ambiental y Restauración de Áreas Utilizadas en el Destino Final de Residuos Sólidos urbanos, integrando la Transversalidad Ambiental a fin de valorar su Viabilidad como Proyecto Sustentable.



METODOLOGÍA

La Metodología que se utilizó a lo largo de las siete semanas de duración de la estancia de investigación virtual por motivos de la Pandemia, en el diseño de la estrategia del diagnóstico a realizar en la línea de investigación Se enuncia a continuación, fundamentado en seis grandes rubros:  Utilización y Apoyo de Tecnologías de Información, por medio de la planeación y organización de reuniones virtuales en Zoom, por parte del Asesor - Investigador en Temáticas de: a).- Concepto  y Tipos de Investigación, b).- Estructura de Protocolos, c).- Medioambiente y Desarrollo Sustentable, d).-Gestión Ambiental, e).- Planeación Ambiental y f).- Objetivos del Desarrollo Sustentable 2030; así como comunicación directa vía llamada telefónica al celular del Asesor - Investigador, mensajes vía WhatsApp, intercambio de información por medio de correos electrónicos institucionales, entre otros. Se facilito por parte del Asesor - Investigador información en documentos PDF, de las Temáticas para lectura, análisis y exposición por parte del estudiante, respecto a la conceptualización de la línea de investigación a desarrollar. Planteamiento de la Estructura y conformación para su análisis de los apartados a desarrollar en el Informe del Diagnóstico Ambiental Acopio, análisis y reflexión en los apartados de introducción, antecedentes y descripción de los rasgos físicos, biológicos y socioeconómicos de la zona en estudio, vinculada a la línea de investigación por realizar. Acopio y análisis de Información estadística especializada en la línea de investigación en el Saneamineto Ambiental de Áreas utilizadas en el  Destino Final  de Residuos Sólidos Urbanos,  los para redacción e integración del Informe. Estudio comparativo de las Estrategias y Líneas de acción de  Planes de Desarrollo Municipal de Ciudad Madero, con respecto al Objetivo número 12.- denominado: Consumo Responsable y Producción, que forma parte de los 17 Objetivos del Desarrollo Sustentable 2030.


CONCLUSIONES

Resultados, el diagnóstico al antiguo TCA de Residuos Sólidos Urbanos (RSU) en Ciudad Madero, es un problema de contaminación ambiental añejo desde el año 2004. Existen asentamientos humanos periféricos al antiguo TCA, fue un proceso de relleno de cuerpos de agua con RSU, actualmente se percibe el esparcimiento de RSU en el área, Se determinaron seis factores a considerar en la transversalidad correlacionados con los Instrumentos de Política Ambiental y sus ámbitos de competencia en la Federación, Estado y Municipio, Enunciando tipos y características en la Clausura y Saneamiento de depósitos de residuos sólidos urbanos,  Conclusiones, que presentamos de manera conjunta, se hace necesaria una Voluntad Política con Transversalidad Ambiental para Integrar y Gestionar un Proyecto de Saneamiento, sustentado en la tenencia de la tierra y extensión territorial, a fin de Restaurar la Calidad Ambiental, sustentadas en la incorporación del uso y vocación del suelo para proyectos futuros.
Acuña Martínez Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Edith Osorio de la Rosa, Universidad de Quintana Roo

SIMULACIóN DE UN SISTEMA HíBRIDO DE FUENTES RENOVABLES DE BAJA POTENCIA


SIMULACIóN DE UN SISTEMA HíBRIDO DE FUENTES RENOVABLES DE BAJA POTENCIA

Acuña Martínez Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Edith Osorio de la Rosa, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

El crecimiento social y demográfico durante las últimas décadas alrededor del planeta, y principalmente en zonas urbanas ha significado un incremento en la demanda de recursos para satisfacer las necesidades sociales.  Uno de estos recursos de mayor incremento en demanda es la energía eléctrica, aunado a esto, el agotamiento de energéticos fósiles que son la fuente principal de generación de energía eléctrica y el daño ocasionado a la naturaleza y sus ecosistemas debido a su uso, nos obligan a la búsqueda e implementación de nuevas formas de obtención de energía.  El desarrollo continuo de nuevas tecnologías ha permitido crear dispositivos que logren aprovechar de forma cada vez más eficiente las energías renovables y con ello se ha ido incrementando su implementación en pequeña y gran escala tanto en el mercado comercial, industrial, así como el residencial. Actualmente el aprovechamiento de las energías eólica y solar son unas de las fuentes renovables de energía con mayor crecimiento en el mundo, ya que al ser limpias y seguras garantizan un mejor aprovechamiento y manejo. Además la eliminación de residuos peligrosos para el medio ambiente que ocasionan otras fuentes de energía no renovables es otra de las razones por las que se está optando por el desarrollo de estas nuevas fuentes de energía. se llevará a cabo el desarrollo y simulación de un sistema híbrido para la generación de energía eléctrica a partir de la captación y aprovechamiento de la energía eólica y solar disponibles en la región del caribe mexicano, en especial atención a la región de Chetumal, Quintana Roo que es donde se espera desarrollar el proyecto de forma práctica. El sistema que se propone es un sistema híbrido integrado por módulos fotovoltaicos y turbinas eólicas (o aerogeneradores) con la finalidad de disminuir el uso de energías procedentes de recursos no renovables y así disminuir el impacto que estas tienen sobre el medio ambiente. Todo esto con ayuda del software MATLAB®, para programar el modelado eléctrico de estos instrumentos y analizar su comportamiento. En el presente proyecto se plantea abordar la problemática de uso eficiente de los sistemas renovables, el cual se debe adaptar al recurso que existe en la región, prioridades, necesidades y esquemas de producción de la localidad en la que se pretende llevar a cabo la instalación.



METODOLOGÍA

Se llevó a cabo una investigación bibliográfica para modelar el comportamiento eléctrico a partir del modelo matemático que rige el comportamiento de un panel solar y una turbina eólica, ambos de baja potencia. Para este caso el panel a modelar se trató de uno de la marca Kiocera de 200W de potencia máxima y para el aerogenerador se tomaron como referencia dos, el primero de funcionamiento horizontal de la marca AIR-X (400W) y el segundo de funcionamiento vertical  de la marca Aeolos (V 600W). Se analizaron y se adaptaron las ecuaciones matemáticas del modelo matemático de estos dos instrumentos y para obtener las ecuaciones necesarias.  Con ayuda del software Matlab se programaron las ecuaciones obtenidas y en conjunto con las características obtenidas de las ficas técnicas del panel solar y los aerogeneradores y datos obtenidos de las condiciones ambientales de la irradiancia solar y velocidad del viento de la región de Chetumal, Quintana Roo se obtuvieron graficas con los valores de salida en Voltaje, Corriente y Potencia de los instrumentos de generación de energía antes mencionados. Con ayuda de las gráficas se analizaron y determinaron numéricamente las potencias eléctricas máximas, promedio y mínimas esperadas al implementar estos dispositivos de aprovechamiento de energías renovables en esta región del caribe mexicano.  Se realizó una segunda investigación bibliográfica sobre los sistemas híbridos de fuentes renovables (HRES), para analizar las características básicas sobre el funcionamiento y las partes de este tipo de sistemas. Posteriormente se conjuntaron los resultados obtenidos por parte del panel fotovoltaico y de uno de los aerogeneradores para obtener la potencia total obtenida por el sistema hibrido.  De igual forma se analizaron los resultados obtenidos para rescatar puntos importantes y determinar la viabilidad de la implementación de acuerdo con las condiciones ambientales y los dispositivos utilizados para obtener la simulación. 


CONCLUSIONES

La explotación del recurso de irradiación solar presente en el estado, gracias a su ubicacion geográfica es una alternativa para disminuir el consumo de energia proveniente de las redes eléctricas que suponen un consumo de combustibles fósiles como el petroleo, gas natural y carbón, los cuales ocasionan problemas ambientales principalmente al producir gases de efecto invernadero, contaminación del aire y del agua, principales factores del cambio climático. Por otro lado la energía disponible por el aprovechamiento de la energia del viento es menos abundante en la region que la solar debido a que las corrientes de aire de la region que son bajas en la mayor parte del año, pero complementaría en gran medida en un sistema hibrido donde se dispongan de varias fuentes de energia, ademas de complementar el sistema cuando el recurso solar se vea interrumpido ya que no se dispone de energía solar durante todo el transcurso del día. En esta investigación se presentó una metodología sencilla con ayuda del software MATLAB® para evaluar técnicamente la implemetación de un sistema híbrido de energía renovable eólico/solar tomando como referencia la presencia de estas formas de energias renovables en la ciudad de Chetumal, Quintana Roo. Esta metodología puede ser usada para calcular el resultado de instrumentar diferentes configuraciones de paneles y aerogeneradores de baja potencia, algunos de estos expuestos en este trabajo, ya que existe una amplia variedad de estos dispositivos. Es importante remarcar que facilmente se puede alcanzar una generación mas alta de energía pero esto implicaría la implementación de mas dispositivos o de dispositivos de mayor tamaño, así mismo, sería necesario considerar los costos de instalación y mantenimiento no abordados en este proyecto.
Aguayo Rivera Milton Ivan, Universidad de Guadalajara
Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango

PROTOTIPO DE MECANISMO PARA MOVIMIENTOS MANDIBULARES DE UN TíTERE ANIMATRóNICO


PROTOTIPO DE MECANISMO PARA MOVIMIENTOS MANDIBULARES DE UN TíTERE ANIMATRóNICO

Aguayo Rivera Milton Ivan, Universidad de Guadalajara. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

México es considerado como uno de los países con mayor riqueza lingüística en el mundo de acuerdo con el Instituto Nacional de Lenguas Indígenas. Actualmente 68 del total de lenguas existentes en el siglo XVI en nuestro país siguen siendo habladas no obstante el porcentaje de hablantes de alguna lengua indígena pasó del 16% al 7.1% en cuestión de 70 años (1930-2000) según el Instituto Nacional de Estadística, Geografía e Informática (INEGI). Particularmente en la Sierra Norte de Puebla, el número de hablantes que prefiere evitar el uso de su lengua materna (Náhuatl) ha ido decreciendo, debido a la discriminación, en su lugar prefieren comunicarse principalmente en español. El presente proyecto propone el diseño de un mecanismo para imitar los movimientos naturales de una mandíbula con el propósito de ser utilizada en un títere animatrónico que apoye el aprendizaje inductivo de la lengua náhuatl.



METODOLOGÍA

Podría creerse que el único movimiento realizado por la mandíbula es el de apertura y cierre, el cuál posee el mayor rango de movimiento, pero si nos centramos en la anatomía del ser humano, la mandíbula cuenta con 3 movimientos principales. Apertura-cierre, lateralidad y protrusión-retrusión o hacia adelante y atrás. Con el objetivo de obtener una apariencia natural en el movimiento de la mandíbula, se contemplarán los movimientos apertura-cierre y protrusión-retrusión ya que estos pueden ser diseñados en un sólo plano y el tercer movimiento al tener menos rango, se puede descartar. Se propuso un mecanismo plano con dos grados de libertad, cuyos eslabones conductores serán coronas de servomotores. Si se consideran los grados de libertad independientemente se cuenta con un mecanismo de cuatro barras, el cuál realizará el movimiento oscilatorio de apertura-cierre de la mandíbula, y mecanismo de corredera, que se encargará del movimiento protrusión-retrusión. El diseño del mecanismo se realizó en el software SolidWorks usando sus funciones desde piezas hasta ensambles. Dentro del diseño de las piezas a utilizar se consideraron los métodos de manufactura disponibles, que son impresión 3D y CNC.


CONCLUSIONES

Debido a que el Verano de Investigación en esta ocasión fue virtual, los resultados en la funcionalidad del mecanismo sólo fueron analizados mediante su comportamiento en el software, esto refleja tener movimiento fluido y posible por los servomotores. Se espera seguir el trabajo de diseño, manufactura y pruebas para que este mecanismo pueda ser añadido con éxito al proyecto final.
Aguilar Ordaz Ramiro, Instituto Politécnico Nacional
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL


IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL

Aguilar Ordaz Ramiro, Instituto Politécnico Nacional. Cruz Garcia Ivan Alberto, Instituto Politécnico Nacional. Gálvez Parra Kevin, Instituto Tecnológico de Culiacán. Gutiérrez Zazueta Héctor Manuel, Instituto Tecnológico de Culiacán. Partida Pérez Rauel, Universidad Tecnológica de Nayarit. Pérez Rios Yotziri Paloma, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

Se plantea como objetivo general la identificación de personas desaparecidas mediante inteligencia artificial. Coadyubando con técnicas de bases de datos y programación.



METODOLOGÍA

La metodología aplicada consta de seis puntos fundamentales descritos a continuación:  El experto en seguridad ingresará la información de la persona en cuestión dentro del sistema. El sistema procesa la información lo que hará que se eliminen elementos no deseados. El sistema clasificará la información en función de sus puntos de referencia, por ejemplo, la longitud de la línea de la mandíbula y la distancia entre los ojos con una precisión de por lo menos 95%. El sistema realizará una búsqueda coincidente a través de la base de datos. El sistema envía la alerta a autoridades. El sistema guarda registro de evento en base de datos.


CONCLUSIONES

Como parte de los resultados del Verano Cientifíco 2020, se enlistan los siguientes: Se construyó y entrenó el modelo inteligente. Montar un servidor que contenga la base de conocimiento y el modelo inteligente. Se construyó un sistema de notificaciones. Se realizaron las pruebas que garantizan la correcta funcionalidad del sistema.
Aguilar Rosas Emmanuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

CFD MULTIFASE EN UN CONTACTOR DE OZONO


CFD MULTIFASE EN UN CONTACTOR DE OZONO

Aguilar Rosas Emmanuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El ozono se ha utilizado continuamente durante casi 90 años en el tratamiento de agua municipal y la desinfección de suministros de agua. Esta práctica comenzó en Francia, luego se extendió a Alemania, Holanda, Suiza y otros países europeos, y en los últimos años a Canadá. El ozono es una sustancia oxidante fuerte con propiedades bactericidas similares a las del cloro. En condiciones de prueba se demostró que la destrucción de bacterias fue entre 600 y 3000 veces más rápida por el ozono que por el cloro. Las características de disolución del ozono definen dos categorías principales de contactores de ozono. Los contactores de ozono con difusor de burbujas disuelven el ozono en el agua a través de un difusor de piedra porosa que crea pequeñas burbujas. Después de la disolución, el agua ozonizada continúa a través del contactor para reacciones de oxidación y desinfección. Los sistemas de ozono de flujo lateral disuelven el ozono en un flujo secundario mediante una configuración de inyección o en el flujo principal del proceso en algunas configuraciones de flujo lateral. El flujo secundario se mezcla posteriormente con el flujo principal del proceso, que se dirige a un tanque de reacción o tubería para reacciones de oxidación y desinfección. Históricamente, los contactores de ozono con difusor de burbujas han sido comunes en aplicaciones de tratamiento de agua potable. Actualmente, los sistemas de inyección de flujo lateral están ganando popularidad. (Rakness, 2005). En la estancia de verano se analiza un contactor de ozono para poder estudiar el comportamiento de tres fluidos principalmente, el agua, el ozono y el aire dentro del contactor.



METODOLOGÍA

La dinámica de fluidos computacional (CFD) es la ciencia de predecir el flujo de fluidos, el calor transferencia, transferencia de masa, reacciones químicas y fenómenos relacionados resolviendo las ecuaciones matemáticas que gobiernan estos procesos utilizando algoritmos numéricos. La hidrodinámica de fluidos que gobierna las ecuaciones se conoce como: Ecuaciones de Navier-Stokes (N-S). Estas son ecuaciones diferenciales parciales que fueron derivado a principios del siglo XIX. No tienen una solución analítica general conocida, pero se puede discretizar y resolver numéricamente. (Zhang, 2006). Para poder desarrollar el análisis CFD se utilizó el software ANSYS Workbench 2019 R3 y en específico para la solución multifase, el software Fluid Flow (Fluent). En la etapa de preproceso se define la geometría a la que se le realizará el estudio, en este caso se diseñó un contactor de ozono por difusión basado en las dimensiones de la planta de tratamiento de agua Patterson Pass, así creando un prototipo de contactor de las dimesiones 12.192m x 4.876m x 6.705m. Al tener la geometría lista se necesita generar un mallado o discretización del módelo, en el cual se obtuvieron 191832 nodos y 984365 elementos por medio de una generación automática dando prioridad a la entrada de ozono al sistema para obtener resultados más precisos en esa zona en específico, sin embargo, es necesario realizar un mallado personalizado para mejores resultados. Después se crearon los dominios correspondientes a la entrada y salida del flujo de agua del contactor y las entradas de los difusores de ozono al sistema, esto para facilitar la especificación de las condiciones de frontera. Se estableció un estudio transitorio, afectado por la aceleración gravitacional. Dentro de Fluent se escogió el modelo Multifase de volúmenes de fluidos para poder observar las interacciones de los fluidos a estudiar. Y para el modelo de turbulencia se utilizó el k-epsilon. También se definieron los fluidos involucrados en el estudio: aire, agua líquida y ozono. Como último en la etapa de preproceso se terminaron de definir las condiciones de frontera, es decir las condiciones iniciales, propiedades y características, así como la asignación de los fluidos a sus entradas correspondientes. En la etapa de solución se escogió el método PISO debido a que, aunque requiere un poco más de tiempo de CPU por iteración, puede disminuir drásticamente el número de iteraciones necesarias para la convergencia, especialmente para problemas transitorios. Finalmente, en la definición de los parámetros para el cálculo de la solución se establecieron 100 pasos un tiempo de 2 segundos por paso debido a la extensa duración del evento a estudiar y al tamaño de la geometría, aunque dependiendo del fenómeno que se quiera estudiar es recomendado reducir el tiempo de cada paso e incrementar los pasos para mayor precisión a cambio de mayores requerimientos de procesamiento. En la última etapa, el postprocesamiento es la visualización de los resultados de manera gráfica, y se utilizó una animación de los contornos de las fases de cada paso de la solución con el fin de poder observar el comportamiento e interacción de cada fluido involucrado en el estudio.


CONCLUSIONES

En la realización de la estancia de investigación logré adquirir conocimientos teóricos del proceso de ozonificación para el tratamiento de agua, desde la generación del ozono hasta la aplicación del mismo con fines de desinfección en fuentes de agua. Así como el aprendizaje y utilización de software de ANSYS para CFD y la aplicación de modelos como el de multifase que permite la simulación de sistemas que involucran mezclas e interacción de 2 o más fluidos en distintas fases, y gracias al postprocesamiento de los resultados un mejor entendimiento de los datos adquiridos, a través de las animaciones y gráficas que facilitan el estudio y la recreación de los fenómenos que se quieran estudiar, sin embargo para la correcta simulación del comportamiento de un contactor de ozono se necesita un mayor énfasis en el mallado de la geometría y para una mejor apreciación de los resultados, un completo entendimiento de las herramientas que proporciona ANSYS para poder crear animaciones y recursos visuales que reflejen mayor precisión e información necesaria que justifique un estudio de CFD.
Aguilera Pérez Vicente, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan

PRáCTILAB


PRáCTILAB

Aguilera Pérez Vicente, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Planteamiento Propósito PráctiLab es una aplicación que va dirigida a estudiantes de la comunidad tecnológica del Instituto Tecnológico Superior de Uruapan (ITSU), la cual esta aplicación servirá para que los alumnos y profesores puedan realizar las prácticas de laboratorio pertinentes que se tengan planeadas para la materia durante el semestre. El alumno podrá consultar y responder las prácticas, así como el alumno podrá consultar las calificaciones, las materias y todo lo relacionado con la materia y sus prácticas. Ámbito del sistema PráctiLab es un sistema cuyo objetivo es facilitar a los alumnos y docentes el manejo de las prácticas de las materias de una forma fácil, rápida y sencilla, en la cual se ahorre papel a corto y a largo plazo y además de que se pueda digitalizar y calificar a los alumnos de una manera más rápida, fácil y moderna con ayuda del uso de la tecnología y la programación. Este sistema funcionará para dispositivos móviles con sistema operativo (S.O.) Android 7.0.0 (API 24) y posteriores, ya que algunas de las implementaciones en el código fuente solo funcionan a partir de esta. Descripción del usuario PráctiLab es una aplicación móvil la cual va dirigida a usuarios que son estudiantes de educación superior del Instituto Tecnológico Superior de Uruapan. Los usuarios, en este caso el alumnado podrá inscribirse a una clase que se imparta en la institución, y realizar sus prácticas de la materia desde ese lugar.  



METODOLOGÍA

Metodología PráctiLab fue realizado con una métodología ágil, la cual consta de 7 pasos, los cuales se detallan a continuación y además de maneja un paso 8 el cual es donde  redacta esta información, cada uno de los pasos se llevo a cabo en 1 semana a escepción del paso 7 y 8, estos se realizaron en una semana. 1. Análisis.  En esta semana se hará lo que es el análisis de los requerimientos necesarios para realizar el proyecto en la estancia virtual y se analiza todo lo que la aplicación deberá contener de una forma escrita, además se realizara un maquetado rápido de la aplicación. 2. Diseño. En esta semana el maquetado rápido, se perfeccionará el maquetado rápido en algunas herramientas de diseño y se observará la UX/UI del diseño de las pantallas de la aplicación con la finalidad de observar desde el punto de vista del usuario el comportamiento de la aplicación 3. Implementación de UX/UI. En esta semana se comenzará con una introducción a como es funciona el framework Flutter, que es donde se desarrollará la aplicación así como los fundamentos necesarios para programar en dicho framework bajo el lenguaje Dart. 4. Implementación de UX/UI. En esta semana se iniciará a realizar la aplicación en el framework Flutter y a realizar el traspaso del maquetado, así como la lógica básica necesaria para simular el cambio o transición de las funcionalidades que  va a tener sin aun poner información, sólo el funcionamiento básico de la transición de las actividades o pantallas que contendrá la aplicación. Aquí se ejecutará la aplicación en algunos dispositivos virtuales con sistema operativo IOS y en dispositivos reales con sistema operativos Android. 5. Implementación de BD. En esta semana se realizará la conexión a la base de datos la aplicación y se realizará la parte de lógica de programación pesada que permita realizar los comportamientos y evaluaciones necesarios para que la aplicación realice sus funciones de forma correcta. A demás de que se realizarán las altas, bajas, actualizaciones y eliminaciones de los datos que se almacenen en la base de datos. Y se verificará que su funcionamiento sea correcto. 6. Pruebas de la aplicación. En esta semana se evaluará el funcionamiento de la aplicación en las diferentes plataformas en las que funcionará como es Android y IOS; para Android se usará dispositivos reales, en los cuales se evaluará el funcionamiento del sistema y en el caso de IOS se usarán emuladores para ver cómo es que funciona la aplicación. 7. Corrección de errores y depuración. En esta semana se llevará acabo la corrección de los errores que contenga la aplicación, tratando de que el funcionamiento de esta sea óptimo, correcto y funcional para el usuario al que va dirigido. 7. Resumen de actividades.  En creación del documento de resumen de las actividades desarrolladas en el verano de investigación Delfín 2020.


CONCLUSIONES

Conclusiones y resultados La aplicación el desarrollo de la aplicación de alumnos cumple con lo planeado desde un inicio y es como se esperaba realmente. Lo que falta por obtener es que el alumnado que la use y verificar que funcione sin ningún inconveniente y que esta responda a todo lo planeado desde un inicio y de existir algún error solucionarlo. Verificar que la aplicación con respecto a su diseño sea amigable y fácil de usar para los usuarios y analizar la evaluación que los usuarios le dan y como se sienten al usarla.
Aguirre Chavez Andrea Guadalupe, Universidad de Sonora
Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo

HOTEL ECO-TURÍSTICO


HOTEL ECO-TURÍSTICO

Aguirre Chavez Andrea Guadalupe, Universidad de Sonora. Arévalo D Elia Uziel Mizraim, Consejo Quintanarroense de Ciencia y Tecnología. Bueno Gutiérrez Mayra Saraí, Universidad Autónoma de Guerrero. Cruz Garcia Isabel Alejandra, Universidad Autónoma de Guerrero. Miranda Cayetano Yazmin Alejandra, Universidad Autónoma de Guerrero. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como objetivo el implementar la madera como material principal en la edificación arquitectónica. Dando una solución tanto estructural como de diseño. Un hotel ecoturístico busca un ambiente armonioso que integre áreas de relajación, deportivas, de descanso, de sanación espiritual y talleres de recreación que fomenten el desarrollo sustentable, haciendo uso eficiente y racional de los recursos naturales. Su enfoque principal es hacia el desarrollo turístico el cual busca la relación del usuario con el medio ambiente.



METODOLOGÍA

a través  -Estudio de la zona -Entorno natural (Clima, topografía, flora, fauna) -Contexto construido (Tipologías, estilos) -Contexto social (Habitantes, alfuencia turística, cultura) -Normatividad Análisis  -Diagramas -Zonificación -Programa arquitectónico Síntesis -Planos -Perspectivas


CONCLUSIONES

Debido a las condiciones medioambientales que se viven en la actualidad, se han buscado nuevas formas para poder reducir nuestro impacto ecológico, es por ello que en el sector turístico ha surgido el término hotel ecoturístico el cual deberá propiciar un ambiente armonioso de relajación y recreación, este se enfoca al desarrollo y realce del turístico porque busca relacionar al usuario con el medio ambiente. Es por ello que este proyecto se desarrollará en una zona que tiene un potencial para diseñar este tipo de espacios, asi como se propone el uso de madera y sus sistemas constructivos para el plantemiento del proyecto. 
Alba Gómez Angel, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Carmen Elisa Gomez Tobon, Universidad Cooperativa de Colombia

SEGURIDAD Y SALUD EN EL TRABAJO, EN LA ERA DE LA INDUSTRIA 4.0


SEGURIDAD Y SALUD EN EL TRABAJO, EN LA ERA DE LA INDUSTRIA 4.0

Alba Gómez Angel, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Carmen Elisa Gomez Tobon, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

El trabajo aborda un tema en conjunto donde se toma en cuenta aspectos primordiales en la industria siendo estos las seguridad y salud pero en la industria 4.0 comparando dos empresas del sector alimenticio que van a la vanguardia  en este tema por un lado una empresa colombiana y por el otro una empresa mexicana que aun que con giros diferentes coinciden en algunos aspectos, donde se comparan las condiciones de trabajo anteriores y actualestrabajo aborda un tema en conjunto donde se toma en cuenta aspectos primordiales en la industria siendo estos las seguridad y salud pero en la industria 4.0 comparando dos empresas del sector alimenticio que van a la vanguardia  en este tema por un lado una empresa colombiana y por el otro una empresa mexicana que aun que con giros diferentes coinciden en algunos aspectos, donde se comparan las condiciones de trabajo anteriores y actuales



METODOLOGÍA

Selección del tema de estudio Realización de marco teórico Selección de empresas de estudio Búsqueda de antecedentes Contextualización de las empresas Especificación de procesos Análisis de procesos Comparativa de procesos La investigación está definida para que se desarrolle a través del método cualitativo ya que por condiciones actuales se basa en documentos y no se puede aplicar un estudio de campo usando poco la recolección de datos estadísticos con un proceso inductivo partiendo de dos perspectivas con un alcance explicativo esta situación conlleva al diseño no experimental en su etapa longitudinal


CONCLUSIONES

Las empresas que incursionan en la industria 4.0 aún tienen un largo camino por delante, porque se puede apreciar como la evolución de los medios obliga a las empresas a cambiar para poder seguir operando así mismo con estos cambios las nuevas industrias que vayan surgiendo traerán consigo integrado los conceptos adecuados referentes al tema de seguridad y salud En el caso de estudio referente a la panificadora Bimbo se encontró que están comprometidos para con su gente, capacitándola y generando oportunidades nuevas de empleo En el caso de estudio de los ingenios azucareros se puede notar un adelanto significativo en sus procesos productivos no olvidando la seguridad de sus trabajadores reduciendo accidentes fatales no obstante existe demasiado desgaste mental y físico en ocasiones con jornadas de trabajo de más de 12 horas Se espera que este proyecto pueda contribuir de manera significativa como punto de partida, para entender la importancia del rendimiento del operador y así maximizar la producción sin sacrificar su salud y seguridad. Del mismo modo beneficia a la empresa al evitar gastos elevados en posibles lesiones de los trabajadores.
Albarran Menchaca Ariana Lilibeth, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PROPUESTA DE UN SISTEMA DE BOMBEO FOTOVOLTAICO EN LAS ZONAS VERDES DEL SENA


PROPUESTA DE UN SISTEMA DE BOMBEO FOTOVOLTAICO EN LAS ZONAS VERDES DEL SENA

Albarran Menchaca Ariana Lilibeth, Tecnológico de Estudios Superiores de Valle de Bravo. Fandiño Rojas Johan Stiven, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El riego de zonas verdes representa un costo importante en las finanzas de cualquier institución, tanto pública como privada, sin embargo, el mantenimiento de estas zonas no solo es con el objetivo de que se tenga una mejor presentación en estos recitos, sino que tiene beneficios en las personas que los frecuentan. Como lo son la reducción de altas temperaturas en los edificios, reducen el estrés, restaurador mental y tiene beneficios en cuanto al rendimiento académico. Se han presentado caso en el que el riego y mantenimiento de las zonas verdes puede ser hasta de un 75% de un presupuesto dependiendo de las dimensiones de estos. Lo cual deriva en el abandono y perdida de estos espacios. Uno de los mayores problemas en estos casos, es que no se consideran alternativas con energías renovables para que el abastecimiento de la energía del equipo de bombeo encargado del riego sea independiente al de la red que alimenta toda la institución, y de esta manera reducir el gasto por consumo eléctrico.



METODOLOGÍA

Para llevar a cabo la realización de la propuesta se propone un sistema automatizado, eficiente, funcional y viable para su realización teniendo en cuenta las condiciones del lugar de realización y los materiales a utilizar. La institución pública del SENA ubicada en ciudad de Barranquilla Colombia presenta una alta composición de zonas verdes y un alto compromiso con el medio ambiente, para llevar a cabo los materiales que debe contener el sistema se hizo necesario la medición del área del jardín a llevar la respectiva implementación y sus condiciones durante un año para generar con ello la respectiva dimensión. El área midió 261,408 m² por cada metro cuadrado se hace necesario 10 litros para un riego eficaz, por lo que se necesitan 2614,08 litros de agua para abastecer las áreas verdes. Para suplir esta cantidad de agua se hace necesario un tanque elevado de 3000 litros ubicado de 4 a 7 metros de la superficie, con una capacidad mayor de lo que requerido, este tanque podrá ser llenado bien del agua red municipal o bien del aprovechamiento de temporadas lluviosas para la reutilización de esta. Para establecer el sistema de riego que pueda llegar de forma homogénea y alcanzar el área a hacer regada se hace selección del sistema más económico y ecológico a largo plazo con uso de paneles fotovoltaicos el riego por goteo. La bomba de agua sumergible SHURFLO 24V/DC modelo 9300 es la ideal para sistema de bombeo al tener las características que llevan al mejor rendimiento en bombeo, presión y caudal requerido, características tan importantes como: Puede ser regulada a 12v. Bombeo de 300-400 litros por hora de agua en caudal. Funciona a 24v corriente continua para poso o directa. Pesa 3 kilos. Funciona con panel de 180vatios a 24v Conociendo el recurso solar en Barranquilla Colombia, el cual es de 35° C como máxima y 24° C como mínima en promedio, además de la irradiación de las horas pico en donde su mayor promedio se presenta para el mes de marzo con un 6,5 Horas sol pico (HSP) y su mínima para el mes de octubre con 4,8 HSP por las altas lluvias presentadas durante ese mes, en busca de su mayor aprovechamiento, rendimiento y funcionamiento durante temporadas de alta irradiación se propone al sistema el uso de 5 paneles fotovoltaicos de 200W a 24V/DC regulados y almacenadas en 2 baterías estacionarias de 2000 amperios para el almacenar lo brindado en estas horas efectivas de sol, para temporadas con poca HSP consecuencia de las lluvias se hará almacenamiento y reutilización de la misma almacenada en el tanque para el riego después de lluvias o lo que se requiera con ello se determinó el equipo de bombeo. Para la puesta en marcha se propone un sistema compuesto por: 5 paneles fotovoltaicos de 200W a 24V. 2 baterías estacionarias de 2000 amperios Bomba de Agua Sumergible Shurflo 24V modelo 9300 1 controlador solar. 1 tanque elevado de 3000 litros. 60 metros de tubo PVC 7 metros de manguera.


CONCLUSIONES

Durante la estancia de verano virtual se logró adquirir conocimientos teóricos y prácticos de la energía solar y todo el trasfondo e impacto que tiene en la línea de investigación energías renovables, durante el tiempo de aprendizaje mediante el uso de diferentes plataformas y la puesta en práctica de cada uno de los temas trabajados, pudimos hacer el análisis del requerimiento energético para una propuesta basada en una bomba solar sustentada por paneles fotovoltaicos, buscando con ello el mayor aprovechamiento posible, además determinar según el medio, las condiciones y el comportamiento solar la dimensión para calcular lo eficiente y funcional que sería la realización de la propuesta antes mencionada.
Alcantara Alvarado Lorena, Universidad Mexiquense del Bicentenario
Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México

ANONIMATO Y CONFIDENCIALIDAD EN BLOCKCHAIN


ANONIMATO Y CONFIDENCIALIDAD EN BLOCKCHAIN

Alcantara Alvarado Lorena, Universidad Mexiquense del Bicentenario. Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Las transacciones físicas y/o electrónicas han permanecido con el mismo sistema durante años, en el cual un tercero tiene el rol de intermediario para garantizar que dichas transacciones se realicen correctamente. Sin embargo, los ataques y atentados contra estas instituciones han aumentado constantemente, con el objetivo de obtener datos valiosos y al mismo tiempo las identidades de los usuarios, como direcciones, correos electrónicos e información personal, para atacarlos directamente. Las instituciones que realizan las transacciones entre identidades ofrecen distintos tipos de seguridad a sus usuarios, pero no le garantizan la seguridad después de haber sufrido un ataque, por otro lado, la recuperación de la información robrada es nula en muchos casos.



METODOLOGÍA

La investigación de seguridad y anonimato en blockchain se desarrolló siguiendo la metodología del análisis y la síntesis, en la cual como primer paso se estudio que es la blockchain, comprendiendo que la cadena de bloques blockchain, es un sistema descentralizado que funciona como un libro de registro de transacciones, difíciles de manipular,  funciona a base de bloques, son públicos  y generan un sistema abierto de confianza y solides, puede ser semi-anónimo, en donde los usuarios cuentan con una cave pública sin tener su identidad real, son compartidos de forma punto a punto, debe ser aceptada mediante un acuerdo por la mayoría de los usuarios. Las propiedades fundamentales que este sistema ofrece son: 1) la disponibilidad, , 2) persistencia, los usuarios tienen acceso a ella a pesar de las fallas, 3) verificabilidad pública, los usuarios de esta comprueban y verificar que las transacciones se hayan efectuado, 4) transparencia en los datos, 5) privacidad, las transacciones usan métodos y protocolos para que las identidades no puedan ser asociadas a una transacción, 6) integridad de los datos, no se pueden manipular por nadie más, 7) redundancia de datos, cada usuario tiene una copia de la misma, 7) ancla de confianza, define la máxima autoridad del sistema, 8) seguridad, aplicación de métodos y protocolos para impedir que las transacciones sean rastreables. La investigación procedió al conocimiento del anonimato y la privacidad. Blockchain ofrece a sus usuarios las ventajas de privacidad y anonimato como características fundamentales. El anonimato es una propiedad permite a los usuarios realizar transacciones imposibles de rastrear, no es necesario el destinatario o alguna identificación, pero para tener anonimato se debe comprender los tipos de anonimato. 1) Seudo anonimato, es el nivel básico ofrecido por la blockchain, 2) establecer el anonimato, considera las identidades de la red para hacer más difícil la búsqueda de una en específico, 3) anonimato completo, cualquier nodo puede enviar cualquier transacción sin ser rastreada, 4) transacciones confidenciales, se encuentran ocultas entre las demás transacciones. La investigación continuó con las propiedades que la blockchain tiene para ser anónima siendo: la desvunculabilidad de las transacciones, protección de la identidad, ser consistente y resistente a manipulaciones , para ello se implementan las técnicas de anonimato  como el direccionamiento seudónimo, que rompe el vinculo de las direcciones con las identidades, la firma de anillo, utilizadas como identificador, los mezcladores, que combinan todas las transacciones al mismo tiempo durante su realización y las pruebas de conocimiento cero para anonimizar. Finalmente, la investigación concluyo con la seguridad en blockchain, esta ofrece a los usuarios, cifrar la información por medio de hash, el remitente y el destinatario generan un par de claves publicas y privadas, para autenticar que la información se envié al usuario y no sea manipulada, como lo es SHA-256, trabaja con el árbol de Merkle, que permite hacer consultas sin tener que descargar toda la información. Las propiedades que garantizan la seguridad son basadas en la resistencia a los ataques de denegación de servicio, de doble gasto, donde un usuario solo puede gastar el saldo de su cuenta, resistente a manipulaciones, y a acuerdos de verificación de transacciones.


CONCLUSIONES

Finalizada la investigación del anonimato y la seguridad en blockchain se concluye que blockchain es un sistema que amenaza al sistema tradicional de transacciones, en primer lugar por eliminar instituciones mediadoras, como por ejemplo un banco, al no existir una entidad tercera de confianza, la identidad de los usuarios no es expuesta a personas que pueden ser víctimas de un atentado para extraer los datos de los usuarios y ponerlos en riesgo, con ello, las transacciones serán autorizadas por los mismos usuarios de la red, generando mayor confianza entre los usuarios participantes de la blockchain. En segundo lugar se encuentra la seguridad de la blockchain, ya que el sistema se encuentra altamente seguro mediante el uso de las herramientas para proteger la información, pero a su vez tiene pequeñas desventajas, ya que el uso de estas técnicas requiere de mayor tiempo de aplicación y gasto de energía, por ejemplo, si se pretende usar el cifrado en la información para al mismo tiempo emplear el anonimato, se requiere de la generación de las claves públicas y privadas por parte del usuario y del remitente, la desventaja es el tiempo, porque requiere la creación de las claves, la firma de transacción, verificar la autenticidad y que los hash coincidan con la clave del destinatario, este proceso es tardado, sumándole el tiempo de verificación de los usuarios dentro del acuerdo de consenso. Es recomendable el uso de los mezcladores para frustrar la trazabilidad de las transacciones y evitar el rastreo de identidades, que es el tercer punto como ventaja dentro de blockchain, que permite a los usuarios usar direcciones seudo anónimas para no revelar su identidad real y protegerlos de las amenazas, este factor es tanto una ventaja como desventaja, porque puede ser usado en contra de las leyes establecidas, efectuando negocios ilegales mediante esta red sin conocer la procedencia de las transacciones y mucho menos la identidad. Este tema requiere de mayor esfuerzo de investigación, como también opciones que impidan en menor porcentaje el mal uso de este sistema, sin dañar a los usuarios de blockchain.
Alcaraz Rivera Francisco, Universidad Autónoma de Baja California
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE ACTIVIDAD SíSMICA EN LA REPúBLICA MEXICANA


APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE ACTIVIDAD SíSMICA EN LA REPúBLICA MEXICANA

Alcaraz Rivera Francisco, Universidad Autónoma de Baja California. Álvarez Gutiérrez Aldo Aarón, Universidad de Guadalajara. Cruz Calvillo Brandon Alain, Instituto Tecnológico de Reynosa. Núñez López Lilian Carolina, Universidad de Guadalajara. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Los sismos son un fenómeno natural causado por movimientos bruscos producidos en la corteza terrestre los cuales pueden llegar a generar grandes desastres en la superficie de las zonas geográficas afectadas, llegando incluso a provocar muertes y daños irreversibles a la infraestructura de las ciudades. Por ello, es de suma importancia para la humanidad hacer un esfuerzo por comprender mejor estos procesos naturales e intentar idear diferentes técnicas para reducir y lidiar con las consecuencias que conllevan. Una manera eficaz de mantenerse preparados contra los terremotos es la capacidad de anticipar el evento para poder ejecutar con tiempo los protocolos de emergencia. En este proyecto de investigación, se propone implementar algoritmos de machine learning (aprendizaje automático) con el fin de analizar los registros de actividad sísmica en la República Mexicana y así intentar encontrar relaciones dentro del conjunto de datos que permitan predecir de forma certera la magnitud de un nuevo sismo. 



METODOLOGÍA

Con el fin de encontrar fuentes confiables para la obtención de registros sismológicos de la República Mexicana, se contemplaron diferentes fuentes para la obtención de los datos, de entre las cuales se buscaba aquellas que tuvieran el formato y cantidad de eventos suficientes para realizar su análisis. Dichos datos fueron recolectados del Servicio Sismológico Nacional de México, dependencia del Instituto de Geofísica de la Universidad Nacional Autónoma de México, el cual se encarga de monitorear y almacenar los registros sismológicos de la nación. De este sitio se descargó un archivo en formato csv, con los eventos registrados desde el 1 de Enero del 2010 hasta el 1 de Julio del 2020. Una vez que se contaba con los datos, se procedió a preprocesarlos. El procesamiento de datos hace uso de métodos y herramientas que nos permiten arreglar errores puntuales que se dan en el conjunto de datos que estamos tratando y que afectan negativamente pudiendo interferir en el aprendizaje automático. Muchos de los errores provienen de faltantes o huecos en nuestro dataset y de información que tiene poca relación con la variable que queremos predecir. Para evitar lo anterior mencionado, se descartaron las columnas del dataset que no contenían información útil y se emplearon técnicas matemáticas para sustituir la información faltante. Finalmente, se utilizó el nuevo dataset preprocesado para entrenar y probar los algoritmos de predicción. Se experimentó con varios algoritmos de machine learning: Knn, SVM, Árbol de decisión y Árbol de decisión en regresión. Para todos los algoritmos se asignó el 80% del dataset para entrenamiento y el 20% restante para pruebas.


CONCLUSIONES

Por medio de los algoritmos empleados durante el desarrollo de este proyecto se pudo obtener un porcentaje de certeza cercano al 90%, lo cual indica que los algoritmos lograron obtener una relación dentro del dataset que les permitió predecir satisfactoriamente la magnitud de los sismos con base a la ubicación de su origen geográfico. No obstante, la predicción y la ocurrencia de los sismos se considera un fenómeno no lineal altamente aleatorio, y hasta la fecha no se conoce un modelo matemático capaz de predecir con exactitud el instante ni la ubicación en que sucederán. Lo anterior lleva a considerar la posibilidad de que las predicciones de los algoritmos podrían estar sesgadas por las particularidades del dataset empleado. Esto abre nuevas oportunidades para poner a prueba los resultados obtenidos y seguir analizando la efectividad de los algoritmos sometiendolos a distintas condiciones experimentales en investigaciones futuras.
Alejandro de la Rosa Luis David, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Hector Cardona Reyes, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE UN ENTORNO DE SIMULACIóN EN UNITY PARA EN ENTRENAMIENTO DE VEHíCULOS UTILIZANDO AGENTES INTELIGENTES, BAJO EL PROYECTO ROBóTICA Y REALIDAD VIRTUAL EN CIMAT, ZACATECAS.


DESARROLLO DE UN ENTORNO DE SIMULACIóN EN UNITY PARA EN ENTRENAMIENTO DE VEHíCULOS UTILIZANDO AGENTES INTELIGENTES, BAJO EL PROYECTO ROBóTICA Y REALIDAD VIRTUAL EN CIMAT, ZACATECAS.

Alejandro de la Rosa Luis David, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Hector Cardona Reyes, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial ha tenido un auge en los últimos años en varios campos. En esta ocasión se desarrollara una serie de ejercicios para obtener información sobre lo que es capaz de hacer la inteligencia artificial en el motor de videojuegos  Unity  y asi saber como poder implemantarlo en proyectos como la robotica. El objetivo es desarrollar, implementar y probar la inteligencia artificial de Unity en varios escenarios y saber si se puede implementar en proyectos más complejos.



METODOLOGÍA

Primeramente se comenzó a estudiar el comportamiento de los agentes de la inteligencia artificial en Unity, para posteriormente probar algunos ejemplos sencillos para saber cómo funcionan y como aprendía la inteligencia artificial. Se utilizo entornos basados en Python para el aprendizaje de los agentes de la inteligencia artificial. Posteriormente se realizaron y se investigo ejercicios para ver como era el comportamiento de una agente al momento de tratar de identificar objetos, uno de ellos era el de una gallina tratando de cruzar la calle, donde con una especie de sensor puede ver si hay un objeto cerca o no. Se experimento con algún ejercicios poniéndolo en diferentes escenarios donde, pese a no a ver cambios en el código, los agentes actuaban acorde a los cambios que se presentaban aunque con algunas dificultades.


CONCLUSIONES

Pese a ser una estadía en línea, aprendí mucho sobre inteligencia artificial, al menos en Unity, adquiriendo mas habilidades y conocimientos. Pude programar, aunque sea a nivel básico, el comportamiento de una inteligencia artificial y que esta aprenda que es lo que debe hacer y que no. A lo largo de mi estadía virtual pude conocer al Dr. Diego y a otro estudiante que también está en el proyecto Delfín y debo decir que tienen conocimientos muy avanzados sobre programación, dándome asi retroalimentación y mostrándome cosas que no sabia. En conclusión, pese a la pandemia que estamos viviendo en este momento, fue una experiencia llena de retos y una gran oportunidad para conocer tanto mis limitaciones como mis fortalezas, sin mencionar que me motivo a explorar a mas profundidad áreas que no había profundizado antes, además de motivarme querer especializarme al desarrollo de videojuegos.
Almaguer Islas Aida Giselle, Universidad de Guadalajara
Asesor: Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla

LAS GRASAS Y ACEITES EN TIEMPOS DE PANDEMIA A TRAVéS DE UNA TRAMPA


LAS GRASAS Y ACEITES EN TIEMPOS DE PANDEMIA A TRAVéS DE UNA TRAMPA

Almaguer Islas Aida Giselle, Universidad de Guadalajara. Morales Elizarraras Jennifer, Universidad Autónoma de Tamaulipas. Asesor: Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Alrededor del mundo, se han implementado muchas políticas para poder detener la contaminación ambiental y vivir de manera sustentable, de esta manera, también se aseguraría el recurso para las futuras generaciones, un gran aporte es dirigido por la ONU. Son los 17 Objetivos de Desarrollo Sostenible (ODS) es el  Garantizar la disponibilidad y la gestión sostenible del agua y el saneamiento para todos. Debido a la importancia que tiene el recurso hídrico en la vida y desarrollo del ser humano, queremos dar visualización a la problemática del vertido de aceites y grasas vegetales y/o  de animal que se hace a nivel doméstico.  En los hogares mexicanos, es común el uso de aceites y grasas vegetales y de animales para la preparación de los alimentos. Al desecharlos, no se tiene mucha consciencia de cuál es la manera más idónea, por lo que se recurre a verterlo directamente en el fregadero provocando un gran impacto ambiental. El aceite, al ser químicamente un compuesto hidrofóbico y menos denso que el agua, va a flotar y formar una especie de película en la superficie del agua, con lo que se va a afectar el intercambio de oxígeno y con ello se perjudica  a los seres vivos del ecosistema, además el aceite una vez frío se endurece y puede obstruir las tuberías, lo que podría provocar derrames e inundaciones.   



METODOLOGÍA

La contingencia de salud cambió la manera de trabajar en el verano de investigación, con lo que se ha propuesto la investigación científica a distancia siendo más didáctica y teórica para resguardar la integridad de los participantes.    Primero se estudiaron los diferentes componentes fisicoquímicos del agua, incluyendo la normatividad legal y técnica del agua. En la NMX-003 se explica de forma detallada el primer paso para el tratamiento del agua, siendo este el muestreo, con el fin de determinar las características fisicoquímicas del agua.    La metodología para un levantamiento técnico en muestreo de agua a partir de la NMX-003 contempla que las muestras serán extraídas de tal forma que sean representativas al efluente total, envasadas en recipientes de material inerte además de estar bien identificadas para que coincidan con la hoja de registro con la mayor cantidad de datos significativos y su análisis en el menor tiempo posible, con la finalidad de poder repetir el muestreo en caso necesario.    Después pasamos a la integración de conocimientos sobre métodos para determinar la alteración del cauce hídrico. La NMX-005 hace referencia a este tema en el análisis de agua para la medición de grasas y aceites recuperables, residuales y residuales tratadas. Además en esta parte se llevó a cabo un caso práctico de determinación de grasas y aceites para hacer una simulación con los datos de los resultados reales obtenidos de la práctica. La determinación se realizó con el método gravimétrico con extracción Soxhlet en una muestra de agua residual. Los datos obtenidos fueron sometidos a cálculos para poder llegar a resultados que pudieran ser sometidos a la simulación en la cual se determinaba si estaba dentro de los diferentes parámetros de los límites máximos permisibles para contaminantes básicos según los lineamientos de la NOM-001-SEMARNAT-1996.    En la parte final se pusieron en práctica todos los conocimientos aprendidos anteriormente para la creación del diseño de una trampa de grasas y aceites, adecuada con las necesidades para el tratamiento de efluentes con alto contenido de contaminantes grasos. El método de separación de grasas y aceites seleccionado fue el de flotación por aireación al sistema a presión atmosférica, por lo que el sistema de separación de grasas debe de contemplar en su diseño la instalación de un sistema de aireación.   Posteriormente, se procedió a la construcción del diseño de la trampa de grasas y aceites en la cual se propone utilizar lámina de polimetacrilato de metilo con una dimensión de 1800mm por 1200 mm de 10 mm de espesor de color transparente. Los accesorios que debe de llevar son: 3 Conectores Hembra de 2 in, 3 Conectores Macho de 2 in, 8 Codos 90° de 2 in, 0.50 m de tubería de 2 in y 6 Sellos.    Para suministrar aire a presión atmosférica a la trampa de grasa es necesario contar con un equipo que permita un suministro constante a presiones bajas de bombeo, por lo tanto se propusieron los accesorios; 1 Bomba de aire Capacidad de bombeo 2,500 cm3/min Consumo de energía 2.5 W/h Presión de operación 20.68 kPa manométricos, cuatro tee de polietileno Diámetro interior 5mm Diámetro exterior 6mm, ocho difusores de madera y un Divisor de flujo con válvula reguladora.


CONCLUSIONES

Durante el tiempo de la investigación pudimos adquirir conocimientos teóricos sobre los lineamientos que se incluyen en las diferentes normas relacionadas con el tratamiento de aguas, sus contaminantes y el muestreo adecuado para su análisis. Debido a las nuevas condiciones del verano virtual, no fue posible realizar análisis reales ya que no se contaba con el equipo ni con el laboratorio para realizar dichas pruebas a las muestras pero pudimos realizar el diseño del prototipo de la trampa de grasas y aceites.   La aplicación de la trampa de grasas y aceites es de una forma sencilla, práctica y económica para poder separar del agua las grasas y aceites usados cotidianamente en hogares mexicanos antes de su vertido directo en el drenaje. Además permite su futuro reciclaje para la elaboración de diferentes materiales y productos cómo: lubricantes, velas, productos cosméticos, pinturas y barnices, biodiesel, abono orgánico y cómo un aditivo para alimento animal. Al reciclar, reducir y reutilizar el aceite comestible mejoramos la calidad de vida acuática y de nuestro medio ambiente, al mismo tiempo esto puede generar ingresos económicos a partir de los productos elaborados. 
Almaraz Becerra Isai, Universidad Politécnica de Tecámac
Asesor: Mtra. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac

DISEñO E IMPLEMENTACIóN DE APLICACIóN CLIENTE SERVIDOR CON PHP PARA EVENTOS ACADéMICOS. CASO UPTECáMAC


DISEñO E IMPLEMENTACIóN DE APLICACIóN CLIENTE SERVIDOR CON PHP PARA EVENTOS ACADéMICOS. CASO UPTECáMAC

Almaraz Becerra Isai, Universidad Politécnica de Tecámac. Flores Torres Karime Vianey Morelia, Universidad Politécnica de Tecámac. Mondragon Hernandez David, Universidad Politécnica de Tecámac. Romero Caratachea Mariana, Universidad Politécnica de Tecámac. Asesor: Mtra. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Las grandes instituciones cuentan con una infraestructura tecnológica que soporta todas las actividades operacionales y administrativas por ende la Universidad Politécnica de Tecámac al ser una institución en constante crecimiento pretende mediante una plataforma tecnológica optimizar sus procesos administrativos relacionados con la feria académica.  El proceso de registro a este evento dentro de la institución actualmente en su mayor parte se realiza a mano con el auxilio del software de hoja de cálculo como lo es Excel para el seguimiento de los equipos, el tipo de proyecto, su lugar asignado, entre otras cosas; y la herramienta de formularios de Google. La asignación de los profesores para la evaluación de proyectos resulta ser tediosa para los PTC (Profesores de Tiempo Completo) dentro de la institución siendo los únicos capaces de cumplir esta tarea muchas veces no se les notifica sobre su papel de evaluadores dentro de la feria académica lo que causa conflicto puesto que proyecto queda sin evaluación, aquí es donde el factor humano complica las cosas estando siempre propenso a equivocaciones poniendo en riesgo toda la organización el evento.   



METODOLOGÍA

La metodología propuesta es Scrum, la cual destaca que es un desarrollo incremental en lugar de la clásica planificación del desarrollo completo de un producto o servicio. Los equipos Scrum se caracterizan por ser auto-organizados. Y se centra en el producto final, en la calidad del mismo, siendo así que cada integrante del equipo o responsables de sus roles, pueda adaptarse con independencia y trabajar simultáneamente. Fases en las que se divide el proceso: Se desea lograr el óptimo desarrollo de una aplicación web que ayudará a simplificar y agilizar el proceso de registro de estudiantes para la feria académica, la cual se y tiene ubicación en la Universidad Politécnica de Tecámac a través del siguiente contenido: El proyecto tiene lugar de desarrollo dentro de la Universidad Politécnica de Tecámac, siendo así, el equipo de trabajo tiene un asesor empresario asignado, quien dictamina los requerimientos para la aplicación. Es necesario precisar que el plazo de término del desarrollo de software será el 29 de Julio, gracias al cronograma establecido, es más sencillo llevar cabo cada proceso y terminarlo en las fechas estipuladas. El contenido del desarrollo se presenta de la siguiente manera: Primero se planea una reunión con el asesor académico, quien es el profesor que da un panorama general del funcionamiento de los procesos que se llevan a cabo de forma manual desde el registro de los estudiantes hasta la asignación de docentes que serán los evaluadores y estimación de resultados. Luego, para es necesario tomar en cuenta los roles estipulados anteriormente para comenzar con el diseño de las vistas y su respectivo funcionamiento. Posteriormente, según el entorno de trabajo con el que se trabaje, se desarrolla todo lo relacionado con el código, elección de paradigma a usar e implementación a las vistas. Como se dijo con anterioridad, el framework propuesto para este proyecto es Laravel y con el enfoque a modelo vista controlador, empleando el lenguaje de programación php y el sistema de plantillas del mismo framework para generar HTML. Una vez terminada la fase de codificación, será necesario realizar las pruebas de todas las vistas para dar un panorama general de cómo es que funciona todo el sistema y asegurar que tanto cada una de ellas y sus funciones trabajen respectivamente a los requerimientos de los usuarios. La planificación de dicho proyecto tuvo inicio en mayo de 2020, según a lo correspondido en el cronograma, se debe iniciar con el mockup de la aplicación, un bosquejo de cómo se muestran las vistas y lo que deberá contener cada una de ellas. Para posteriormente, comenzar con el proceso de codificación con ayuda del lenguaje de programación PHP y Laravel Framework, con un estimado de entregar vistas generales y funcionamiento en el mes de junio. Fases La reunión principal con el asesor empresarial (primer sprint) en la que se tiene asistencia previamente para la explicación y levantamiento de requerimientos, expresar todas las dudas existentes acerca del funcionamiento de cada proceso, esto ayuda a que se pueda realizar el bosquejo de las vistas que se obtendrán.  En cuanto a la base de datos, con anterioridad ya se había trabajado en su creación y análisis, ya que el desarrollo de este sistema se había quedado pendiente y no se había reanudado.  Para las revisiones en cuanto al código, estás se realizan cada veinticuatro horas. Esto hará que el proceso de prueba sea más eficiente y evitar en la medida de los posible tener errores (sintaxis, enlazado, ejecución y lógicos) Los sprints correspondientes que se establecieron son cada mes, estas reuniones con el usuario final tendrán como objetivo que se revise el avance del desarrollo y que el mismo pueda visualizar el funcionamiento de cada proceso y dictaminar su conformidad a los aspectos previamente expuestos. Finalmente, una vez terminado el desarrollo de la aplicación web, será necesario mantener el sistema e incluso implementar mejoras, ya que según lo mencionado estará sujeto a cambios por autoridades superiores, en el sentido de que se añadirán más categorías de evaluación.


CONCLUSIONES

El proyecto de investigación realizado pudo solucionar la problemática que se tenía respecto a los eventos académicos, en específico de la Feria Académica que se lleva a cabo en la Universidad Politécnica de Tecámac, ya que se logró agilizar y automatizar los procesos que se llevan a cabo, partiendo desde el registro de los proyectos del alumnado participante hasta la evaluación de estos, en una plataforma por medio de una aplicación web. Guiándonos con nuestro método, y respectiva metodología realizamos los estudios pertinentes para visualizar la problemática desde diferentes perspectivas y de ese modo abarcar totalmente una solución integral. Con los buenos resultados que obtuvo el proyecto, nos percatamos de que tiene la posibilidad de a futuro convertirlo en una plataforma para otras actividades escolares, ya sean culturales, ambientales o de otra índole.
Almeida Hernandez Jared Adolfo, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Dr. Juan José Cabello Eras, Universidad de la Costa

TRANSICIóN ENERGéTICA DE LATINOAMéRICA EN SU LUCHA CONTRA EL CAMBIO CLIMáTICO


TRANSICIóN ENERGéTICA DE LATINOAMéRICA EN SU LUCHA CONTRA EL CAMBIO CLIMáTICO

Almeida Hernandez Jared Adolfo, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Dr. Juan José Cabello Eras, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Alemán-Nava et al (2014) definen las energías renovables (ER) como energía a partir de recursos sostenibles disponibles a largo plazo, que tienen un costo razonable y que pueden ser utilizados sin efectos negativos.  Dichas energías son objetivo de desarrollo para algunos países en el mundo desde hace ya unos años, y han tomado planes de acción como los son el acuerdo de Paris o la Agenda 2030.             Según datos de la International Renewable Energy Agency (IRENA), en el año 2019 la capacidad de producción de energías renovables a nivel mundial alcanzó los aproximadamente 180 Gigowatts (GW). Al mismo tiempo, la capacidad de producción de energías convencionales (no-renovables) solo aumento aproximadamente un 60 GW. Mundialmente, las energías renovables están siendo implementadas de manera más eficaz, de manera en que dependamos menos de las energías convencionales.             Latinoamérica no se queda atrás, puesto que también es una región que ha apostado al desarrollo de las ER. En el 2019, En el año 2019, Latinoamérica generó 628 GW de energía renovable (IRENA), lo que representó un 25% de la generación total de energía renovable en el mundo.             El cambio climático es una de las mayores problemáticas que aqueja al mundo, y uno de los principales objetivos que se buscan abatir con la implementación de las ER. En busca de soluciones, se han planteado objetivos como el ODS 7, que busca garantizar el acceso a una energía asequible, segura, sostenible y moderna para todos.



METODOLOGÍA

Esta investigación, más que plantear solución, busca dar una forma inmersiva de observar y entender la situación energética y climática por la que esta pasando nuestra región. Para esto, se elegio un diseño de investigación descriptiva de tipo transversal, que nos ayudara a analizar la transición energética en los últimos años.              Para llevar a cabo esta investigación se buscaron técnicas y herramientas que ayudaran a profundizar en el tema a desarrollar, y que permitieran cumplir los objetivos propuestos, por lo que se tomaron en cuenta las siguientes etapas para la recolección de información: Análisis de la información En esta etapa se busca recuperar información relevante al tema a investigar.  Esta información fue obtenida mediante fuentes secundarias, es decir, bases de datos, organizaciones como lo son la International Renewable Energy Agency (IRENA), y revistas relevantes. Síntesis de la información A partir de la información recabada en la primera etapa, se separaron los datos relevantes obtenidos de cada una de las fuentes mencionadas. Después, se procedió a conectar dichos datos de una manera concordante, de modo que la investigación procediera coherentemente. Clasificación de la información En esta etapa se busco ordenar la información obtenida en las etapas anteriores de acuerdo a su importancia y aporte al tema de investigación. En este caso, se redactó primero la información que diera un punto de vista global del tema, después se complementó con información que diera un punto de vista regional. Al último, se acomodó la información que muestre efectos de los primeros dos temas. Conclusión Por último, analizando la información obtenida, una vez clasificada, se hace un análisis de la información y, tomando en cuenta el problema de la investigación, se lleva a cabo una conclusión que nos indica si se cumplieron o no los objetivos de la investigación.


CONCLUSIONES

A nivel mundial, la producción de energías renovables ha ido incrementando de manera exponencial en los últimos años, dejando atrás incluso la producción de energías convencionales (no renovables) como los combustibles fósiles, energía nuclear, etc. En contraste, tenemos también que Latinoamérica ha sido una región que esta implementando fuertemente las ER, y que, ha pesar de ser una región con el mayor número de países en desarrollo en cuanto a ER, algunos de estos países como Brasil, México y Colombia han logrado producir una cantidad importante de ER.             Por otro lado, podemos justificar el papel de las energías renovables no solo por ser sustentables por si solas, si no porque pueden ser utilizadas sin causar un daño a la naturaleza. Es aquí donde se han planteado planes de acción como el acuerdo de Paris, la Agenda 2030 o el ODS 7, que buscan combatir el cambio climático a través de la implementación de energías renovables, entre otros métodos.             A pesar de lo difícil que es abolir completamente el uso de energías contaminantes, es importante que los países sigan con los planes de acción propuestas, para que esta transición sea aún más éxitos de lo que ya ha sido hasta ahora, y poder hacerle así frente al cambio climático.
Alonso Villegas Yiosef, Universidad Nacional Abierta y a Distancia
Asesor: Post-doc Miguel Fernando Montoya Vallejo, Escuela Colombiana de Ingeniería Julio Garavito

TURBINAS EóLICAS DE EJE VERTICAL PARA APLICACIONES EN COLOMBIA


TURBINAS EóLICAS DE EJE VERTICAL PARA APLICACIONES EN COLOMBIA

Alonso Villegas Yiosef, Universidad Nacional Abierta y a Distancia. Asesor: Post-doc Miguel Fernando Montoya Vallejo, Escuela Colombiana de Ingeniería Julio Garavito



PLANTEAMIENTO DEL PROBLEMA

Para el 2018, en Colombia, la capacidad instalada para la generación de energía eléctrica en el Sistema Interconectado Nacional (SIN) se distribuyó principalmente en generación hidráulica (69%), Combustibles fósiles (30%) y energía renovables no convencionales (Solar, Eólica, Bagazo y Biogás - 1%). Colombia tiene un alto potencial para la generación a partir de energías renovables no convencionales/fuentes no convencionales de energía (ERNC/FNCE), entre las cuales se incluye la energía eólica y la solar. Aunque es poco probable que la generación hidroeléctrica se desplace como fuente primaria, si se debe buscar remplazar los combustibles fósiles como fuente para generación eléctrica. Así, las ERNC juegan un papel fundamental para poder remplazar dichos métodos contaminantes. Otra cuestión muy importante es la referente a las Zonas No Interconectadas al SIN (ZNI). Estas zonas, que representan el 51% del territorio geográfico nacional, son zonas donde la capacidad instalada de generación del SIN no puede abastecer a las poblaciones en estas principalmente debido a las condiciones geográficas que dificultan el establecimiento de infraestructura para la transmisión de la energía eléctrica. El mayor problema que surge en las ZNI son las zonas rurales apartadas donde inclusive la capacidad instalada de dichas zonas no ha logrado asegurar el suministro de energía eléctrica para los habitantes estas. Dentro de esto se enmarca el proyecto titulado Diseño y optimización de los componentes mecánicos de geometría variable en turbinas eólicas que busca promover el uso de la energía eólica asi como también aprovechar la viabilidad que existe en el país para la autogeneración eléctrica, en especial en zonas rurales apartadas. Por lo tanto, el desarrollo de sistemas basados en turbinas eólicas de eje vertical aporta a la accesibilidad de la energía eléctrica por parte de los habitantes de estas zonas, haciendo uso de métodos y tecnologías no contaminantes.



METODOLOGÍA

Dentro de la pasantía se realizaron tres actividades principales. En primer lugar, se realizó una revisión bibliografía de temáticas fundamentales para el proyecto: Comportamiento de la atmosfera, Aerodinamica y estandarización Automatización y control, redes de comunicaciones e Internet de las Cosas (IoT) Red eléctrica, generadores eléctricos y electromecánica Posteriormente se procedió a realizar una transferencia de conocimientos, a través de presentaciones y trabajos con simuladores con la herramienta Zoom, a un público interesado donde se expusieron las diferentes temáticas y sus conceptos.  Exposición Introducción a la Aerodinámica Exposición con simuladores Automatización y Control en el Internet de las Cosas Exposición con simuladores Electromecánica en la generación eléctrica Finalmente, ya enfocado hacia el proyecto, se realizaron tres estudios por cada temática, siendo estos el producto final de la pasantía. Estos estudios se plasmaron en diferentes documentos que fueron expuestos y compartidos, a través de una reunión virtual, a los integrantes del grupo de investigación del proyecto del cual el investigador hace parte. Revisión bibliográfica de turbinas eólicas verticales En este primer estudió se realizó una compilación bibliográfica de noventa documentos, la mayoría artículos de investigación, donde se obtuvo información referente a la caracterización y funcionamiento de las VAWT. Igualmente se realizó una investigación que se realizó sobre diferentes modelos de turbinas eólicas que se encuentran en el mercado. Esta estuvo enfocada a turbinas de baja potencia y VAWT donde se analizaron los productos ofertados por nueve fabricantes/comerciantes de turbinas eólicas. Esto permitió aumentar el conocimiento sobre la caracterización de las turbinas eólicas, la aerodinamica y la fundamentación de estas, los tipos de generadores usados en sistemas eólicos y los modelos y sus especificaciones que se encuentran en el mercado Sector Eléctrico Colombiano En el segundo estudio, y muy acorde a uno de los objetivos del proyecto, se realizó una consolidación de la información legal requerida para la implementación de soluciones energéticas en las Zonas No Interconectadas (ZNI) de Colombia. Asi, se conocieron las entidades gubernamentales y reguladoras de la energía eléctrica, la caracterización energética del país, la normatividad y regulación vigente, estadísticas del sector eléctrico y algunos requerimientos necesarios para implementar proyectos energéticos y de energías renovables en Colombia. Red de Control e IoT Por último, el tercer estudio estuvo enfocado a la caracterización de una solución basada en el Internet de las Cosas (IoT) para implementar la red de control y comunicación para el proyecto. Se generó una documentación donde se plasmaron las fase de diseño requeridas para la solución, los requerimientos que fungen como marco de referencia, algunos diagramas y la parametrización de un diseño para un prototipo de la red IoT que se pueda implementar para realizar ensayos y experimentaciones, asi como para caracterizar la red de control y comunicaciones priori implementar el modelo real.


CONCLUSIONES

Actualmente el grupo de investigación cuenta con modelos de turbinas eólicas, generador eléctrico y perfiles aerodinámicos con los que han realizado diferentes pruebas, ensayos y simulación. Asi, como resultado de la pasantía, se aportó información de fundamentación física, técnica, de requerimientos y del marco legal que permiten complementar el diseño final del sistema a implementar asi como generar una posibilidad de diseñar y desarrollar un prototipo de este que permita realizar pruebas, ensayos y experimentaciones priori la implementación final, especialmente en la parte de control y comunicaciones.
Altamirano Monroy Arantza, Universidad Tecnológica de Nayarit
Asesor: Dr. Rodolfo Enrique Silvera Escudero, Corporación Politécnico de la Costa Atlántica

OPTIMIZACIÓN DE LOS PROCESOS DEL TRANSPORTE TERRESTRE DE LAS CARGAS EN LA LOGÍSTICA URBANA


OPTIMIZACIÓN DE LOS PROCESOS DEL TRANSPORTE TERRESTRE DE LAS CARGAS EN LA LOGÍSTICA URBANA

Altamirano Monroy Arantza, Universidad Tecnológica de Nayarit. Asesor: Dr. Rodolfo Enrique Silvera Escudero, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El proyecto se originó a partir de la necesidad de optimizar los costos en el transporte terrestre de las cargas, que día a día se va desarrollando más, para esto se deben identificar en primera instancia las generalidades de los costos dentro de este sector, así será más fácil identificar cuáles son los costos que se pueden modificar para hacer más preciso el costo total. 



METODOLOGÍA

Se utilizaron distintas fuentes para la recolección de información, específicamente de libros y archivos encontrados en internet, avalados con información verídica, se utilizaron un conjunto de las dos metodologías, la cualitativa al utilizar datos que ya se habían registrado antes por autoridades mexicanas y por investigadores científicos y la cuantitativa por la recaudación de datos estadísticos de los costos del transporte terrestre de las cargas en México, donde se recaudaron los datos de primera instancia hablando directamente con empresas logísticas.


CONCLUSIONES

Actualmente, es primordial el uso de autotransporte de carga terrestre para las mercancías donde la urbanización abarca cada vez más sitios y junto con ella todo lo demás debe ir desarrollándose de manera en que los procesos funcionen mejor. La logística urbana es una realidad hoy en día y con ella vienen cambios que hacen una mejora en el país para que siga siendo un país en desarrollo y sea un buen objetivo para el comercio internacional. También se deben tomar en cuenta las distintas perspectivas que hay en el sector, por ejemplo lo que tecnología y la economía prevé para el futuro, al igual que las medidas legales en torno al tema y la manera en la que el medio ambiente no se ve afectado por las prácticas de este sector en general. Para lograr que todo funcione de manera efectiva en la logística macro, primeramente se debe analizar lo micro, ahí es donde se utilizan los recursos necesarios para la optimización en los procesos logísticos, donde el tiempo, las distancias y los costos tienen sentido. Teniendo claro el punto de partida, se identificó que para que el servicio sea de calidad, es necesario que los tiempos se cumplan de acuerdo a lo que se pacta con el cliente, la seguridad de la mercancía es otro punto importante que se puede solucionar fácilmente, pero el mayor enfoque son las generalidades en los costos. Al existir los costos variables y fijos, se tiene una oportunidad de poderlos clasificar sin dificultad alguna y de esta manera optimizar el costo total en el autotransporte terrestre. En la optimización de costos es muy importante tener en cuenta que costos se pueden cambiar y cuales se quedan fijos, de esta manera se pueden aprovechar más o de alguna manera también es posible economizar. Dicho esto, la optimización de costos no solo contribuye al desarrollo de la logística en general, sino que también al mejorar rutas y hacerlas lo más eficaces posibles se puede reducir de gran medida la contaminación ambiental que tanto afecta al mundo hoy en día y que lastimosamente es provocada por los gases que generan los combustibles. De igual manera, los tiempos de entrega de la mercancía cambiarían y esta misma llegaría en perfectas condiciones, así mismo se tendría un gran avance en el país. También se cree que es necesario cambiar algunos artículos en la ley de caminos, puentes y autotransporte federal, ya que no han sido actualizadas desde años atrás y esto no ayuda como debería a la infraestructura del país, ni tampoco a los transportes de carga que todos los días circulan para hacer que la mercancía siempre llegue a su destino en tiempo y forma. La información recabada para los análisis de costos del transporte terrestre se obtuvo gracias a distintas empresas logísticas que aceptaron a colaborar para así hacer más fácil la comparación de unas con otras.
Alvarado Cravioto Gustavo, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango

INTERVENCIóN DE LOGíSTICA Y CADENA DE SUMINISTRO EN EL DESARROLLO DE UNA GRANJA ACUíCOLA


INTERVENCIóN DE LOGíSTICA Y CADENA DE SUMINISTRO EN EL DESARROLLO DE UNA GRANJA ACUíCOLA

Alvarado Cravioto Gustavo, Instituto Tecnológico Superior de Huauchinango. Bautista Uribe Juanita, Universidad Antonio Nariño. Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El proceso de acuicultura en distintas regiones de México, ha desarrollado diversas técnicas operativas que permiten producir alimentos nutritivos aprovechando al máximo los recursos acuáticos, cada una de las actividades operacionales se desarrollan dentro de un contexto cerrado o abierto , utilizando conocimientos que se derivan de distintas ciencias, siendo la Ingeniería Industrial un campo de oportunidades que permite desarrollar distintas herramientas en pro de la mejora continua de la piscicultura (herramientas lean manufacturing (VSM, sistema andon, 5´s), método húngaro) . La piscicultura es uno de los ambientes con mayor aprovechamiento natural, el cultivo acuático de distintos cardúmenes de peces permite la alimentación de poblaciones enteras, que basan su dieta en la ingesta diaria de este alimento, siendo la especie conocida como trucha arcoíris la que se posiciona como una de las de mayor consumo. Los altos requerimientos alimenticios solicitan niveles logísticos que aseguren la entrega de pedidos en tiempo y forma, mediante el diseño de una cadena de suministro optima que involucre a todas las partes que conforman de manera directa o indirecta las actividades de flujo de información para el abastecimiento de la cadena de valor, planeando y controlando el flujo del almacenamiento del producto, así como la valoración de los procedimientos productivos que van desde el punto de origen hasta el punto de consumo. La presente investigación diseñó la cadena de suministro de una granja acuícola, caracterizando todos sus procesos logísticos e identificando los nodos y actores que componen la red, a partir de una metodología descriptiva aplicada, propendiendo ser una alternativa innovadora en la agroindustria desarrollando infraestructuras con la capacidad de adaptarse a los resultados positivos y fomentando la innovación (industria, innovación e infraestructura)



METODOLOGÍA

FASE 1) A través de un instrumento de recolección de información primario, se identificaron los posibles proveedores y actores de la cadena de suministro de la granja acuícola: se aplicó un proceso de investigación descriptiva que permitio la recolección de datos estadísticos para seleccionar a los proveedores que manejaban un nivel logístico superior al 0.70, buscando el aseguramiento de calidad y tiempos de entrega en un intervalo de tiempo que no excediera los 8 días establecidos como política interna, de igual manera se aplicó la observación directa a metodologías de piscicultura ya existentes, detectando los principales cuellos de botella para la implementación de herramientas Lean Manufacturing. FASE 2) Se diseñó el modelo estableciendo la relación de interacción de los actores inmersos en la red, diseñando y aplicado 3 herramientas Lean Manufacturing: Herramienta 1) VSM: mapeo del proceso para la detección de actividades productivas y actividades que representaba restricciones dentro de la cadena de suministro. Herramienta 2) Sistema Andon: Sistema de alerta y código de colores que permitio un sistema de comunicación fluido entre el área de sanitización y el área de producción de la granja acuícola. Herramienta 3) Metodología 5 ´s: se implementó como una herramienta de contención en el área que presentaba la principal restricción del proceso, buscando generar un proceso fluido y disminuyendo notablemente el tiempo de la operación mencionada.


CONCLUSIONES

Conocimiento del proceso de acuicultura de la región y las zonas de influencia de la infraestructura para el desarrollo de la granja, mediante el diseño de un modelo de cadena de suministro optima, seleccionando a los proveedores conforme al nivel logístico , usando la herramienta VSM para la documentación de la cadena de valor, aunado a la implementación de herramientas Lean Manufacturing para la eliminar las principales restricciones del proceso, asignando las de rutas de distribución del producto mediante el uso del método húngaro.
Alvarez Castañeda Emma Alejandra, Universidad de Guadalajara
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

ANáLISIS DE LA VARIACIóN DE LA CLASIFICACIóN DE TARGET Y NON-TARGET EN DIFERENTES PARTICIPANTES EN BCI: P300


ANáLISIS DE LA VARIACIóN DE LA CLASIFICACIóN DE TARGET Y NON-TARGET EN DIFERENTES PARTICIPANTES EN BCI: P300

Alvarez Castañeda Emma Alejandra, Universidad de Guadalajara. Ugalde Saucedo Brenda, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En el presente trabajo se abarcan dos diferentes estudios: el primero es el de  determinar cuál combinación de algoritmos de método de extracción de características y clasificador tendrá más precisión catalogando entre target o non-target en un experimento en sujetos sanos; en el segundo, se busca determinar si existe o no variación en el reconocimiento de target y non-target entre las primeras tres sesiones de 4 diferentes participantes. Estos estudios se realizaron con el propósito de aplicar los resultados en el aprendizaje máquina utilizado en una interfaz cerebro-computador (BCI) aplicada en una órtesis para pacientes con esclerosis lateral amiotrófica.



METODOLOGÍA

El experimento realizado consistió en lo siguiente: en una pantalla negra se proyecta un cuadro con 4, 5, 6, 7, 8 o 9 flechas o caritas felices (dependiendo del tipo de estímulo), uno de estos indicadores encendía o cambiaba de color de manera aleatoria, y el sujeto debía contar las veces que este suceso ocurría (únicamente cuando se encendía ese indicador). 8 electrodos (Fz, Cz, P3, Pz, P4, PO7, PO8 y Oz) fueron colocados en los sujetos para la obtención de su EEG. Cada trial de cada participante tenía una duración de -0.2 segundos a 1 segundo, indicando el segundo 0 el momento en el que el estímulo es reflejado en la pantalla. La frecuencia de muestreo del estudio fue de 256 Hz. Refiriendo al preprocesamiento de los datos, todos fueron intervenidos por un filtro pasa-bandas de 14 hz; se recortó el tiempo de los trials, haciendo el intervalo de 0 a 0.8 segundos, pues es en este tiempo donde se espera la respuesta P300. Para efectos del primer estudio, se balancearon los trials target y los non-target; esto quiere decir que, de ser menor el número de trials target, se eligió (en este caso, de manera aleatoria) el mismo número de trials non-target.  Para el primer estudio, se consideró la sesión 1 del participante 8 con 5 estímulos de carita feliz. A partir de esta sesión, se codificaron los siguientes métodos de extracción de características: decimación con factor 3, decimación con factor 10, promedio o average y análisis de correlación canónica. En cuanto a los algoritmos de clasificación entre target y non-target, se optó por trabajar con los siguientes: LDA (de dos diferentes maneras: con el método de MATLAB classify y con fitcdiscr), SWLDA, SVML, SVMG y KNN. Se evaluaron todas las posibles combinaciones, obteniendo gráficas de métricas que indicaran su precisión, tasa de verdaderos positivos, tasa de verdaderos negativos y tasa de falsos positivos.  En cambio, en el estudio 2, se utilizaron las primeras tres sesiones de los participantes 8, 9, 10 y 11 con 5 estímulos de carita feliz. Se seleccionó un método de extracción de características (decimación factor 10) y un método de clasificación: (el primer LDA). Los datos de cada participante fueron evaluados por sesión, obteniendo entonces gráficos de la precisión, tasa de verdaderos positivos, tasa de verdaderos negativos y tasa de falsos positivos de cada uno de ellos (4 en total) por cada sesión (3 sesiones). Estos trials (targets y non-target) no fueron balanceados.


CONCLUSIONES

En el estudio 1, los métodos de clasificación que mostraron mejor desempeño fueron LDA y SVML. Se escogió el método LDA para trabajar en el segundo estudio por ser el más apto para este tipo de datos. La decimación con factor 10 mostró hasta un 84% de accuracy utilizando el primer método de LDA. Direccionándonos al estudio 2, en la sesión 1 el participante 11 reflejó mejores resultados en la identificación de target y non-target con una precisión de 75%-95%, tasa de verdaderos positivos de 75%-90% y una tasa de verdaderos negativos de 85%-95%. En la segunda sesión, se obtuvo la tasa de verdaderos positivos más baja en los 4 participantes, llegando hasta 50%. Finalmente, en la sesión 3, el  participante 9 reflejó mejores resultados con un accuracy de 85%-90%, una tasa de verdaderos positivos de 70%-100% y una tasa de verdaderos negativos de 85%-90%. Para crear un modelo de Machine Learning se cuenta con distintos métodos de extracción de características y de clasificación, que si bien cada uno tiene sus ventajas y desventajas, dependerá del objetivo del modelo y del tipo de datos con los que se está trabajando. La combinación del algoritmo de clasificación LDA 1 (realizado con la función de Matlab classify) y el método de extracción Decimación factor 10 arrojaron resultados considerablemente aceptables, posicionándose en una precisión promedio aproximada de 75%. Consideramos que una comparación entre amplitudes de onda P300 sería de utilidad para determinar si es esta la causa de que una de las sesiones tenga un peor desempeño que las demás. 
Álvarez González Ariadna Lucía, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

IMITACIóN DE LA NATURALEZA: ¿QUé ES LA RESTAURACIóN DE RíOS Y CóMO SE LLEVA A CABO?


IMITACIóN DE LA NATURALEZA: ¿QUé ES LA RESTAURACIóN DE RíOS Y CóMO SE LLEVA A CABO?

Álvarez González Ariadna Lucía, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La restauración de ríos es un área nueva, por lo que es necesario conocer las bases en las que se apoya la realización de los proyectos, Realizar un marco de información sobre esta actividad [restauración de ecosistemas ribereños] permite dar a conocer de manera práctica a estudiantes que no saben nada al respecto y posibilitan fomentar el interés en estas actividades. Por ello, se realizó una investigación bibliográfica sobre lo que es y  cómo lo han llevado a cabo en algunos proyectos que sirven de ejemplo. Conocer la teoría en la que se basan los proyectos de restauración es muy importante, debido a que representa una parte exitosa que se ha recabado a lo largo del tiempo. Saber de ello permite comparar con la propia experiencia y podría generar un tipo de innovación en la que se aprovechen mejor las técnicas y el conocimiento. Además de que es necesario tomar más como objetivo este tipo de actividad que permite rescatar un ecosistema y ayuda a soportar mejor los retos ambientales a los que nos enfrentamos.



METODOLOGÍA

Para la investigación bibliográfica se utilizaron documentos en español y que se hayan realizado en Latinoamérica. La información fue adquirida de tesis, libros y artículos en español que hablaran sobre el tema. Sin embargo, al ser un tema tan extenso se realizó con el fin de responder ¿qué es? Y ¿cómo se realiza? La investigación se realizó a lo largo de siete semanas, comenzando el 15 de junio y concluyendo el 31 de julio. Se dividieron los temas en preguntas pequeñas que se investigaron en cada semana, siendo en total seis subtemas a contestar, como se muestra 1) Propósitos de la restauración de ríos, 2) Presentación de proyectos. 3) Tipos de vegetación riparia. 4) Atributos que caracterizan el buen estado de ríos. 5) Acciones de conservación de ríos. 6) Acciones de rehabilitación de ríos. Se realizó una pequeña presentación y un texto en el que se plasma la teoría que consigue completar este tipo de proyectos.


CONCLUSIONES

La restauración de ríos es un proceso dinámico y complejo en el que se tiene como objetivo principal el regresar a las condiciones en las que alguna vez se encontró el río, es decir, que sea capaz de auto-regenerarse (una característica muy importante en los ecosistemas). Pocas veces se logra y requiere de una inversión de tiempo inmensa con recompensas muy tardadas, pero que valen por completo la pena. Aunque no se pueden utilizar las mismas metodologías en todos los ríos (porque cada uno es un ecosistema diferente) sí se ha recomendado una serie de pasos que ha ayudado a decidir correctamente las actividades a realizar y que se encuentran en diferentes proyectos de recuperación ya aplicados.  Tales se enlistan a continuación: 1. Definir el ecosistema de referencia (es la meta ideal, a lo que se quiere llegar). .   2. Conocer los factores que afectan la zona. ¿Qué está deteriorando el sitio? ¿Se puede evitar? ¿Cómo? Y con esta información obtener un diagnóstico, 3. Diseñar un proyecto con el diagnóstico, los objetivos y las necesidades a satisfacer. Durante el diseño de los proyectos se debe tomar en consideración las barreras que puede presentar su ejecución, ya sea natural o artificial. En toda el área en la que se está trabajando, lo ideal sería hallar diferentes fragmentos: conservación, recuperación, restauración y de usos sostenible. En esta consideración también se debe incluir a la comunidad que conviva con el río y complementar el cuidado de la zona con ellos. La vegetación aledaña al río se conoce como vegetación riparia. Esta es una zona de transición en la que conviven especies acuáticas y terrestres y en la que se encentran características biofísicas y biológicas especiales por la actividad del incremento y disminución del lecho del río, lo más difícil es la elección de las especies correctas porque la inversión es grande y se deben plantar estratégicamente para que no se desperdicien los recursos. La evaluación del estado ecológico de los ríos, requiere de metodologías en las que se mide la calidad del agua, del suelo, de la biodiversidad y del nivel de condiciones fisicoquímicas y de contaminantes. La manera en la que se llevan a cabo la conservación y rehabilitación es por medio de planes específicos que se llevan a cabo en los ecosistemas a nivel de paisaje.Una restauración del ecosistema utiliza los elementos para regresar al estado original, la conservación no interviene en los procesos que ocurren alrededor del sistema vivo; el ecosistema rehabilitado no llega a todas las condiciones iniciales del ecosistema, solo vuelve a ser auto-sostenible (puede contener no nativas). Es más rápido iniciar un plan de conservación que uno de rehabilitación, pero el más tardado es el de restauración porque el ecosistema en sí tarda en volver a ser auto-sostenible y se tiene que dar seguimiento a su aplicación para verificar que no se pierda la inversión. En México, la mayoría de proyectos del país se han concentrado en la protección de los recursos por medio de la creación de áreas naturales protegidas, parques nacionales y reservas naturales en general. No obstante, se ha decidido actuar por medio del rescate tanto forestal como de sistemas hídricos de cuencas tanto para ríos de zonas rurales como el de zonas urbanas. Esto ya inició y se puede complementar con soluciones basadas en la naturaleza. El hecho de mezclar las actividades actuales de cuidado al ambiente con soluciones basadas en la naturaleza significa un incremento en la eficiencia de la recuperación de medio ambiente, sobre todo el acuático, que facilite su aceptación. La información de lo que se utiliza en la restauración de ecosistemas sigue en aumento, pero entender las bases permite difundirlo y generar interés en la mayor cantidad de personas para que se promueva y permita generar un futuro con una mejor calidad de agua, ecosistemas y vida. 
Álvarez Gutiérrez Aldo Aarón, Universidad de Guadalajara
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE ACTIVIDAD SíSMICA EN LA REPúBLICA MEXICANA


APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE ACTIVIDAD SíSMICA EN LA REPúBLICA MEXICANA

Alcaraz Rivera Francisco, Universidad Autónoma de Baja California. Álvarez Gutiérrez Aldo Aarón, Universidad de Guadalajara. Cruz Calvillo Brandon Alain, Instituto Tecnológico de Reynosa. Núñez López Lilian Carolina, Universidad de Guadalajara. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Los sismos son un fenómeno natural causado por movimientos bruscos producidos en la corteza terrestre los cuales pueden llegar a generar grandes desastres en la superficie de las zonas geográficas afectadas, llegando incluso a provocar muertes y daños irreversibles a la infraestructura de las ciudades. Por ello, es de suma importancia para la humanidad hacer un esfuerzo por comprender mejor estos procesos naturales e intentar idear diferentes técnicas para reducir y lidiar con las consecuencias que conllevan. Una manera eficaz de mantenerse preparados contra los terremotos es la capacidad de anticipar el evento para poder ejecutar con tiempo los protocolos de emergencia. En este proyecto de investigación, se propone implementar algoritmos de machine learning (aprendizaje automático) con el fin de analizar los registros de actividad sísmica en la República Mexicana y así intentar encontrar relaciones dentro del conjunto de datos que permitan predecir de forma certera la magnitud de un nuevo sismo. 



METODOLOGÍA

Con el fin de encontrar fuentes confiables para la obtención de registros sismológicos de la República Mexicana, se contemplaron diferentes fuentes para la obtención de los datos, de entre las cuales se buscaba aquellas que tuvieran el formato y cantidad de eventos suficientes para realizar su análisis. Dichos datos fueron recolectados del Servicio Sismológico Nacional de México, dependencia del Instituto de Geofísica de la Universidad Nacional Autónoma de México, el cual se encarga de monitorear y almacenar los registros sismológicos de la nación. De este sitio se descargó un archivo en formato csv, con los eventos registrados desde el 1 de Enero del 2010 hasta el 1 de Julio del 2020. Una vez que se contaba con los datos, se procedió a preprocesarlos. El procesamiento de datos hace uso de métodos y herramientas que nos permiten arreglar errores puntuales que se dan en el conjunto de datos que estamos tratando y que afectan negativamente pudiendo interferir en el aprendizaje automático. Muchos de los errores provienen de faltantes o huecos en nuestro dataset y de información que tiene poca relación con la variable que queremos predecir. Para evitar lo anterior mencionado, se descartaron las columnas del dataset que no contenían información útil y se emplearon técnicas matemáticas para sustituir la información faltante. Finalmente, se utilizó el nuevo dataset preprocesado para entrenar y probar los algoritmos de predicción. Se experimentó con varios algoritmos de machine learning: Knn, SVM, Árbol de decisión y Árbol de decisión en regresión. Para todos los algoritmos se asignó el 80% del dataset para entrenamiento y el 20% restante para pruebas.


CONCLUSIONES

Por medio de los algoritmos empleados durante el desarrollo de este proyecto se pudo obtener un porcentaje de certeza cercano al 90%, lo cual indica que los algoritmos lograron obtener una relación dentro del dataset que les permitió predecir satisfactoriamente la magnitud de los sismos con base a la ubicación de su origen geográfico. No obstante, la predicción y la ocurrencia de los sismos se considera un fenómeno no lineal altamente aleatorio, y hasta la fecha no se conoce un modelo matemático capaz de predecir con exactitud el instante ni la ubicación en que sucederán. Lo anterior lleva a considerar la posibilidad de que las predicciones de los algoritmos podrían estar sesgadas por las particularidades del dataset empleado. Esto abre nuevas oportunidades para poner a prueba los resultados obtenidos y seguir analizando la efectividad de los algoritmos sometiendolos a distintas condiciones experimentales en investigaciones futuras.
Álvarez Vega Alondra, Instituto Tecnológico de Zitácuaro
Asesor: Mg. Darwin Jose Mendoza Galvis, Universidad de Santander

ANÁLISIS DE LA FILOSOFÍA LEAN-KAIZEN EN PANIFICADORAS DE MÉXICO Y COLOMBIA: ESTUDIO DE CASO


ANÁLISIS DE LA FILOSOFÍA LEAN-KAIZEN EN PANIFICADORAS DE MÉXICO Y COLOMBIA: ESTUDIO DE CASO

Álvarez Vega Alondra, Instituto Tecnológico de Zitácuaro. Asesor: Mg. Darwin Jose Mendoza Galvis, Universidad de Santander



PLANTEAMIENTO DEL PROBLEMA

En México, según la Secretaría de Economía, en una publicación realizada en 2017, menciona que la panificación tradicional es una de las industrias más importantes dentro de la industria alimentaria de acuerdo con el número de establecimientos y el personal ocupado, sólo después de la industria de la tortilla de maíz y molienda de nixtamal; donde siete entidades de la República concentran poco más de la mitad de las unidades económicas dedicadas a la industria panificadora: Estado de México, Veracruz, Puebla, Oaxaca, Ciudad de México, Sonora y Michoacán. Además, en Colombia, Según la Federación Nacional de Comerciantes (Fenalco), existen en el país alrededor de 35.000 establecimientos especializados en panadería, más las tiendas de barrio, 90% de las cuales venden pan fresco o empacado. Con el inicio de la pandemia del coronavirus, el 10% de los establecimientos especializados tuvo que cerrar porque no estaba en capacidad de asumir los costos fijos, un 20% adicional presentó cierre temporal, y paulatinamente han estado reabriendo, al punto que hoy casi todos están funcionando, pero con niveles de ventas muy inferiores a los meses previos a la crisis. Sin embargo, al ser esta industria alimentaria panificadora de gran importancia en ambos países, debido a su alto consumo, y a pesar de la pandemia del coronavirus, ¿Se aprovechará al máximo los recursos de cada panificadora? ¿Realmente manufacturan con vista de crecimiento? ¿Emplearán técnicas como Lean-Kaizen para asegurar una mejora continua?



METODOLOGÍA

Una vez seleccionadas las panificadoras en Zitácuaro, Michoacán, México y Valledupar, Cesar, Colombia; se diseñó un instrumento de medición de escala Likert con base en las 3 MU’s que son  Muda, Mura y Muri, de las cuales la primera se desglosa en Sobreproducción, Exceso de Stocks, Transporte, Defectos, Sobreproceso, Movimientos Innecesarios, Tiempos de Espera y Recurso Humano; según la filosofía de Lean Manufacturing, ya que para dicha filosofía, estas representan el principal objetivo de reducción y eliminación. La finalidad del instrumento de medición, consta de enlistar supuestas condiciones con respecto a cada una de las 3MU’s, las cuales suman un total de 45 aseveraciones, con las cuales se pretende realizar un primer diagnóstico de las condiciones reales del sistema de producción de cada panificadora con respecto a dicha filosofía. El instrumento de medición, fue un únicamente dirigido al personal involucrado o con mayor conocimiento sobre el sistema de producción de cada panificadora. Una vez conocidas las condiciones reales de las panificadoras involucradas en el estudio, se realizó un análisis de los datos arrojados por el instrumento. Para un correcto análisis de datos, se estableció como valores críticos aquellas que se encuentran en el rango de [4,5], donde el análisis se basará en: Valor promedio general Valor promedio mayor por cada sección de las 3MU’s: Muda, Mura y Muri, con un peso de 0.78, 0.11 y 0.11 respectivamente (estos valores fueron asignados de esta forma por los autores, debido a la cantidad de aseveraciones por cada una de las  3MU’s, además de la importancia que estas reflejan, ya que la MUDA lleva a la creación de MURA y MURI, por lo que cualquier mejora en esta, impactará directamente a las otras dos). Valor promedio por cada MUDA: Sobreproducción, Exceso de Stocks, Transporte, Defectos, Sobreproceso, Movimientos Innecesarios, Tiempos de Espera y Recurso Humano Los resultados del diagnóstico fueron los siguientes: Un resultado favorable para la panificadora de estudio de la ciudad de Zitácuaro; sin embargo, existe un área de oportunidad en MUDA de DEFECTOS. Un resultado medianamente aceptable para la panificadora de la ciudad de Valledupar, con un área de oportunidad principal en la MUDA de MOVIMIENTOS INNECESARIOS. Finalmente, al establecer una comparativa, ambas presentan un desempeño medianamente aceptable para la MUDA de TRANSPORTE. Una vez conocidos los resultados anteriores, se logró definir un proceso de mejora con base en herramientas de la filosofía de Lean Manufacturing; es decir, se establecieron procedimientos y recomendaciones para: Recomendaciones de indicadores a manejar según sea el caso. Definir la causa-raíz del problema Posibles herramientas para la reducción o eliminación del área de oportunidad. Así como, la propuesta de llevar a cabo eventos Kaizen que complementen y aseguren mejora continua; los cuales pueden ser de 3 tipos: orientado a la administración, al grupo o al individuo; los cuales deberán seguir los siguientes pasos: Objetivos del evento Recursos para llevar acabo el evento Establecer el equipo de trabajo Establecer restricciones monetarias y de tiempo. Definir actividades y encargados de las actividades del evento. Monitorear el progreso Entrega de resultados


CONCLUSIONES

Un análisis previo a cualquier tipo de mejora, nos llevará siempre al área de oportunidad con mayor significancia para el sistema de producción de estudio, ya que nos permitirá conocer las condiciones actuales del sistema de producción, el cual también nos servirá como base para cualquier mejora futura se vea reflejada en este mismo. Una vez analizado el comportamiento del sistema de producción, con el uso de herramientas Lean y eventos Kaizen, se espera la mejora del sistema de producción de forma gradual y visible, con pequeñas inversiones e involucrando a las personas correctas se logrará el verdadero cambio. Además de que garantizar que todas las medidas implementadas, perduren a largo plazo, llevará a la empresa al crecimiento tanto económico como competitivo. Finalmente, cabe mencionar que de esta forma; es decir, debido a la mejora continua, el personal se mantendrá motivado por su propio crecimiento y el de la empresa.
Ángel Mora Rubí, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Mtro. Osvaldo Rene Rojo Roa, Instituto Tecnológico José Mario Molina Pasquel y Henriquez

LOS SIMULADORES DESDE UNA PERSPECTIVA DE REALIDAD VIRTUAL: FACTORES QUE DETERMINAN LA IMPLEMENTACIóN DE UN ENTORNO VIRTUAL DE APRENDIZAJE POR MEDIO DE SIMULADORES EN LA TRANSFERENCIA DEL CONOCIMIENTO Y MEJORA DE LA CALIDAD DEL SERVICIO EN LAS ORGANIZACIONES.


LOS SIMULADORES DESDE UNA PERSPECTIVA DE REALIDAD VIRTUAL: FACTORES QUE DETERMINAN LA IMPLEMENTACIóN DE UN ENTORNO VIRTUAL DE APRENDIZAJE POR MEDIO DE SIMULADORES EN LA TRANSFERENCIA DEL CONOCIMIENTO Y MEJORA DE LA CALIDAD DEL SERVICIO EN LAS ORGANIZACIONES.

Ángel Mora Rubí, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Mtro. Osvaldo Rene Rojo Roa, Instituto Tecnológico José Mario Molina Pasquel y Henriquez



PLANTEAMIENTO DEL PROBLEMA

Los simuladores nos sirven para imitar circunstancias reales, sin ningún tipo de riesgo físico ni para los humanos y para las máquinas. Como problemática la falta de capacitación puede causar accidentes o que las actividades no se desarrollen de manera eficiente además que nos ayudan a no poner en peligro al personal del trabajo, como un ejemplo en el simulador de vuelo, el piloto aprende a pilotar un avión sin tener riesgos físicos de ningún tipo, él puede ir experimentando y ganando experiencia sin poner en peligro su vida ni la de los pasajeros y reduciendo gastos de accidentes ya que de forma virtual si le ocurre un accidente no le pasara nada y podre reiniciar su entrenamiento además le ayuda a poder hacer tomas de decisiones.



METODOLOGÍA

Universo y muestra Se van a considerar en la investigación los simuladores para medicina, empresariales y para la educación, que son ejes importantes en la para la activación económica de un país. Por lo tanto, se realizarán búsquedas de fuentes confiables y destacadas de los simuladores que en la actualidad existen y que ayudan a mejorar las funciones que ellos desarrollan.   Además de lo planteado es importante mencionar que los simuladores a investigar deben de cumplir con los aspectos de la utilización de nuevas tecnologías o de tecnologías emergentes, que aportan al campo de estudio de la informática.   Diseño general de la investigación Para este tipo de investigación se realizará una exploración en diferentes sitios web, que contengan la validación de su información, es decir información de revistas, tesis o paper que se encuentren en la red mundial de la información. Además, se considera el estándar IEEE para el desarrollo de las citas en el documento.   Descripción y operacionalización de todas las variables: Los simuladores que se van a investigar son virtuales y deben de contener aspectos importantes en su funcionamiento, aportación a su campo de aplicación y tecnología utilizada, que aumenten el valor agregado en la capacitación o mejoramiento de las actividades realizadas por las personas, esto para poder mejorar la calidad de los servicios o evitar accidentes en el desarrollo de las mismas.  


CONCLUSIONES

Los simuladores son dispositivos que sirven para semejar a una actividad imitando circunstancias sin ningún riesgo físico para los humanos ni para las maquinas, lo que nos ayuda a reducir gastos, esta investigación habla de varios simuladores y para qué sirven, nos ayuda a saber la importancia que tienen en la vida cotidiana ya sea para diferentes aspectos como a la toma de decisiones, así mismo se deja abierta esta investigación para continuar y ver más a fondo la funcionalidad y en que se puede utilizar.   El principal desafío consiste en seguir analizando más a detalle el uso de simuladores, así como refinar la forma más efectiva y eficiente de usar la simulación, principalmente en los sectores de salud, empresarial y educativo, con el fin de estructurar programas de prácticas exitosos con resultados efectivos y duraderos.
Angeles Ibañez Naomi Anaid, Universidad Politécnica de Tecámac
Asesor: Mtro. Iván Ricardo Barajas Rosales, Universidad Politécnica de Tecámac

NANOPARTíCULAS DEL COMPOSITE PVA óXIDO DE GRAFITO PARA POTENCIAL ADSORCIóN DE DIóXIDO DE CARBONO.


NANOPARTíCULAS DEL COMPOSITE PVA óXIDO DE GRAFITO PARA POTENCIAL ADSORCIóN DE DIóXIDO DE CARBONO.

Angeles Ibañez Naomi Anaid, Universidad Politécnica de Tecámac. Vazquez Morales Angel Alejandro, Universidad Politécnica de Tecámac. Asesor: Mtro. Iván Ricardo Barajas Rosales, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

El CO2 o dióxido de carbono es un gas incoloro e inodoro cuyo origen puede estar tanto en fuentes naturales como en la actividad humana. Sus consecuencias son muy impactantes tanto en la calidad del aire que respiramos como en la contaminación atmosférica. México ocupa el lugar 12 en la clasificación mundial, que está encabezada por China con 10.065 toneladas métricas de CO2, seguida de Estados Unidos con 5.416 toneladas métricas de CO2 del principal gas responsable del efecto invernadero causante del calentamiento global. Nuestro país es líder en emisiones de dióxido de carbono (CO2) en América Latina, una posición poco envidiable que ha ido consolidando en los últimos 20 años, según especialistas, no se ha hecho lo necesario para bajar posiciones. La contaminación ambiental es una problemática actual donde se busca una solución. El escape de los automóviles es uno de los generadores de dióxido de carbono, se buscó una solución para ello, como respuesta se encontró el filtro de dióxido de carbono. Un composite generado por la mecano síntesis del PVA-Grafito se coloca dentro del filtro, entonces el filtro se acopla al final del escape filtrando el dióxido de carbono gracias al composite.



METODOLOGÍA

Se obtuvo el composite mediante una molienda llevándose a cabo  en  un  molino  Spex  8000D.  Todas las muestras se colocaron en forma de polvos  junto  con  16  bolas de  óxido de zirconio endurecido de 12.7 mm de diámetro en viales cilíndricos de acero inoxidable (50 cm3). En el trabajo, se desarrolló un prototipo, el cual es un dispositivo que contendrá el composite PVA-Grafito, este se obtiene mediante la técnica de mecanosíntesis, el filtro se desarrolla mediante las técnicas de manufacturación manual, usando equipos tales como el torno y fresadora manual, con un diseño adaptable para el escape estándar de un automóvil. Se pretende que el impacto positivo sobre los ecosistemas sea significativo; Pese a los esfuerzos de los fabricantes al realizar modificaciones en el motor para reducir los niveles de contaminación, los gases de escape generados en el proceso de combustión siguen siendo contaminantes, por lo que es necesario que estos gases nocivos se sometan a tratamientos mediante dispositivos adecuados que permitan reducir los niveles de contaminación. En la actualidad, en la industria automotriz no existe en el mercado un filtro de partículas de carbono para motores de gasolina (GPF). Por la importancia urgente de preservar el ambiente, se detecta la necesidad como Ingeniero Automotriz en proceso, de aportar el conocimiento para reducir o remediar la contaminación mediante la implementación de un filtro que ayude a reducir las emisiones contaminantes provocadas por la combustión de los vehículos; contribuyendo de esta manera a preservar un ambiente sano para las futuras generaciones. Estuvimos trabajando por semanas, donde cada semana se trabajaba una actividad en específico y se implementó el uso de un software. Semana 1: La revisión de la bibliografía sobre la mecanosíntesis para obtener información del proyecto a realizar. Semana 2: Instruirse en el manejo del software chemsketch para dibujar posibles estructuras de PVA-óxido de grafito. Semana 3: Mediante la búsqueda bibliográfica junto con el manejo de chemsketch se modelará la unión del PVA y el óxido de grafito. Semana 4: Realizar el análisis del tamaño de partícula de los materiales obtenidos por el software. Semana 5: Mediante la búsqueda bibliográfica junto con el manejo de chemsketch se modelará la unión del PVA-óxido de grafito-ion metálico. Semana 6: Comparar los resultados de la difracción de rayos x del PVA y del PVA-óxido de grafito y PVA-oxido de grafito-gas. Semana 7: Realizar una comparación en una tabla de las señales de DRX y medición de tamaño de partículas de los análisis propuestos y concluir el trabajo de investigación.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos, en el trabajo de investigación se demostró que es posible sintetizar y caracterizar el óxido de grafito con el PVA dando como resultado un material con un tamaño de grano de 60% de nanopartículas con un promedio de 46.70 nanómetros de diámetro. En el cual este tamaño es una ventaja ya que potencialmente ayudará a captar mayor número de partículas suspendidas y dióxido de carbono, sin embargo, al ser un extenso trabajo aún se encuentra en la fase teórica.
Angeles Jose Norma Lilia, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Samir Isaac Meramo Hurtado, Fundación Universitaria Colombo Internacional

OPTIMIZACIóN DE CADENAS DE SUMINISTRO DE BIOCOMBUSTIBLES EN MéXICO


OPTIMIZACIóN DE CADENAS DE SUMINISTRO DE BIOCOMBUSTIBLES EN MéXICO

Angeles Jose Norma Lilia, Tecnológico de Estudios Superiores de Jocotitlán. Rufino Nicolás Estefania, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Samir Isaac Meramo Hurtado, Fundación Universitaria Colombo Internacional



PLANTEAMIENTO DEL PROBLEMA

En México la mitad del consumo de energía lo hace el sector autotransporte, a diferencia de otros países, eso significa que una tercera parte de las emisiones de gases efecto invernadero en el país, provienen del sector autotransporte. Este sector abarca vehículos que usan gasolina y diésel. Actualmente en México se encuentran algunas plantas dedicadas a biocombustibles esto debido a que la producción del biodiesel no es una tarea fácil pues se han llegado a cerrar 3 plantas que estuvieron en proceso de instalaciones, una de las principales causas de estas clausuras ha sido la escasez del producto. Aunado la importancia que tiene el cambio climático ya que ha jugado un rol importante en la actualidad, una vez más se demuestra que podemos tomar el lado positivo para aprovechar los recursos que tenemos a nuestro alcance y convertirlos sin afectar el medio ambiente. Por esta razón se busca optimizar en gran medida los costos que intervienen en la cadena de suministro de los biocombustibles, reducir el nivel de gases efecto invernadero derivado de este proceso y considerar otras vías de distribución de los biocombustibles.



METODOLOGÍA

En este trabajo se plantea una optimización de la cadena de suministro de los biocombustibles considerando aspectos de sostenibilidad, mediante la identificación de la situación actual del tema en México, con el objetivo de crear un modelo matemático que permita la optimización de las cadenas de suministro de biocombustibles en el país. Para ello, se realiza un diagnostico de la situación actual de los biocombustibles en México, para identificar las plantas que se encuentran en funcionamiento, la producción anual y como se maneja la cadena de suministro. Con base a esto se realiza una delimitación del estado (caso de estudio) para futura aplicación, considerando el nivel de producción. Se estudiaron los diferentes tipos de costos que son aplicables y el análisis del ciclo de vida para identificar los efectos ambientales en las diferentes etapas de la cadena de suministro. Finalmente se realiza una aproximación matemática del modelo de optimización con datos variables y fijos (nivel de impacto en el medio ambiente, emisiones de efectos invernadero y los costos).


CONCLUSIONES

Con la metodología aplicada en las plantas seleccionadas se espera: Minimizar los costos de materia prima, producción y transporte Reducir los niveles de impacto en el medio ambiente y el porcentaje de gases de efecto invernadero. Reactivar e incrementar la producción de biocombustibles en México considerando aspectos de sostenibilidad.
Anguiano Ponce Edgar Javier, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica

REINGENIERíA DE ALGORITMO DE DETECCIóN DE SENTENCIAS DE INYECCIóN SQL


REINGENIERíA DE ALGORITMO DE DETECCIóN DE SENTENCIAS DE INYECCIóN SQL

Anguiano Ponce Edgar Javier, Instituto Tecnológico Superior de Ciudad Hidalgo. Jimenez Pizaña Luis Arturo, Instituto Tecnológico de Toluca. Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la mayoría de los sistemas de software almacenan su información y autenticación en bases de datos que regularmente funcionan con el lenguaje SQL por lo que son un foco de ataques para buscar vulnerabilidades que permitan realizar actividades de manera maliciosa. Uno de  los principales ataques es la inyección SQL, la cual los desarrolladores en su mayoría desconocen o pasan por alto hasta que es detectada después de haber sido usada para generar daños.



METODOLOGÍA

Durante el periodo indicado para la estadía del XXV Verano de la Investigación Científica y Tecnológica del Pacífico en la  modalidad virtual, se llevó a cabo el proyecto titulado Reingeniería de algoritmo de detección de sentencias de inyección SQL , en el cual formamos parte los estudiantes Luis Arturo Jimenez Pizaña y Edgar Javier Anguiano Ponce, liderados por el Dr. Dougglas Hurtado Carmona, quien semana a semana realizaba monitores de los desarrollos para poder planificar las mejores estrategias de trabajo que mejores resultados nos brindaran a lo largo de la estadía.   Durante la primera semana de trabajo de la estadía se realizó una actividad de socialización y conocimiento de las habilidades y fortalezas de los integrantes del equipo para poder determinar el rumbo que tomaría el proyecto y posicionarnos en las áreas en donde la aportación y aprendizaje de los integrantes fuera la mejor.   Durante las siguientes semanas nos dimos a la tarea de realizar prácticas en el desarrollo de ingeniería de requisitos  por medio de un software sugerido por el Dr. Dougglas que lleva por nombre REM, el cual permite desarrollar documentación que es necesaria para poder registrar proyectos de software de manera formal ante instituciones de derechos de autor, lo cual será un requisito para el objetivo del proyecto motivo de la estadía. Entre las prácticas de ingeniería de requisitos se realizó la documentación de softwares propuestos por el investigador en donde se encuentra el juego punto y fama, un software para realizar evaluaciones de examen para certificación de conocimientos del lenguaje de programación Java y otro para obtener la representación de forma fraccionaria más cercana a un número.   En paralelo al desarrollo  de la ingeniería de requisitos se desarrolló la reingeniería del juego punto y fama con lo cual se pretende mejorar nuestras habilidades para mejorar los algoritmos de programación. La mejora de habilidades de reingeniería nos permitirá desenvolvernos de mejor manera en la mejora del algoritmo de detección de sentencias de inyección SQL con el cual pretendemos ayudar a identificar y resolver la problemática de las vulnerabilidades SQL.   De la misma manera se llevaron a cabo pruebas básicas de inyección SQL en páginas web que tenían este fin, de tal manera que pudiéramos magnificar los efectos que puede generar las vulnerabilidades de inyección SQL y de esta forma generar mayor interés por parte del Dr. Dougglas hacia nosotros sobre este tema. Además de mostrarnos algunos otros desarrollos dedicados a la seguridad informática en donde hay un campo de oportunidades de mejora donde podemos seguir aportando y colaborando.


CONCLUSIONES

Durante el tiempo de la estadía logramos comprender los requisitos, habilidades y alcances que se requieren para la reingeniería del algoritmo de detección de inyección SQL, sin embargo debido al tiempo relativamente corto de la estadía no fue posible iniciar y enfocarnos totalmente desde al principio. El proyecto requiere de más tiempo e investigación para realmente aportar mejoras significativas en el producto final.
Ante Martinez Brenda Itzelh, Universidad Politécnica de Sinaloa
Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

RESUMEN DELFíN LOGíSTICA HUMANITARIA 2020


RESUMEN DELFíN LOGíSTICA HUMANITARIA 2020

Ante Martinez Brenda Itzelh, Universidad Politécnica de Sinaloa. Freer Armenta Claudia, Universidad Politécnica de Sinaloa. Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las cadenas de ayuda humanitaria se centran en problemas relacionados con el almacenamiento y distribución de insumos que se necesitan enviar de forma oportuna y completa a la zona afectada. Es aquí donde se debe planificar la operación de este tipo de cadenas, ya que un indicador central es el tiempo de actuación. Esto porque, cuando ocurre un desastre, la distribución local se vuelve muy compleja, en especial cuando el tamaño del área impactada es muy grande y han ocurrido muchos daños en la infraestructura. En la mayoría de las ocasiones, los insumos se llevan desde distintos puntos del exterior del área afectada por carreteras o caminos, y si la infraestructura presenta daños, el acceso se vuelve un problema, impidiendo su entrega de manera oportuna. Por lo que, la presente investigación se centró en desarrollar un manual de operaciones de las actividades logísticas relacionadas en la administración y gestión e insumos en los centros de ayuda humanitaria, que pueda servir de apoyo para la gestión y administración de los insumos.



METODOLOGÍA

La metodología es de tipo cualitativa, ya que la intención fue conocer la difusión de las prácticas en la gestión de los centros de ayuda humanitaria en situación de huracán.  Contiene una revisión de 50 marcos teóricos de artículos científicos sobre las buenas prácticas de la logística humanitaria en situación de huracán. Posteriormente se diseñó una propuesta de un manual de capacitación para operar de manera funcional este tipo de centros de ayuda humanitaria.


CONCLUSIONES

Como resultado se obtuvo una propuesta de diseño de manual de capacitación, que pueda favorecer la operación de los centros de ayudad humanitaria, en situación de huracán. La regionalización es un factor importante para la adopción de este tipo de instrumentos, ya que la cultura del cuidado de los recursos influye mucho. Como trabajo futuro queda implementar el manual en un centro de ayuda humanitaria en situación de huracán para validar su efectividad.  
Antonio Lorenzana Fabio Enrique, Instituto Tecnológico de Tláhuac
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA.


PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA.

Antonio Lorenzana Fabio Enrique, Instituto Tecnológico de Tláhuac. Domínguez Moran Joaquín, Instituto Politécnico Nacional. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente la robótica es una de las principales tendencias que entran con fuerza en las relaciones sociales y laborales ya que tiene cada vez más interacción en la cotidianidad del ser humano, puesto que ayuda a dinamizar y actualizar un sin fin de actividades, es por ello, que la enseñanza de esta rama interdisciplinaria de la ingeniería ya no puede contextualizarse exclusivamente a los niveles más altos de estudio. Por este motivo, se han pensado nuevas estrategias pedagógicas, para llevar este conocimiento de manera incremental a los niveles de educación secundaria, media superior y superior. A través del proyecto Plataforma para la Enseñanza de la Robótica que se desarrolla en el Centro de Investigación en Computo del Instituto Politécnico Nacional, a cargo del Dr. Juan Humberto Sossa Azuela y el M. en C. José Ángel Martínez Navarro, se pretende satisfacer necesidades sociales cuya característica principal es interactuar con las personas  mediante una plataforma robotizada la cual se compone de los elementos electrónicos y material lectivo que permite el aprendizaje de conceptos esenciales de electrónica, programación, y realización de prácticas con las que el alumno obtendrá aptitudes y competencias para  construir objetos automatizados; este sistema  promueve también la interdisciplinariedad, inclusión, interacción y resolución de problemas. Una de las problemáticas más importantes en el desarrollo de este proyecto, radica en la poca difusión interna y externa que se le da a este tipo de proyectos, por lo que es necesario impulsar su divulgación con el objetivo de alcanzar su mayor potencial de la plataforma. Por lo que, en este verano de investigación, se desarrolló una plataforma web que permite mostrar material lectivo de fácil acceso para toda la comunidad estudiantil que se interese en el conocimiento de la robótica.   



METODOLOGÍA

Para el desarrollo y la implementación del proyecto plataforma para la enseñanza de la robótica se implementó un servidor web en el sistema operativo Debian 10, con las herramientas de software libre que ofrece la distribución de apache Xampp, como lo son: el sistema gestor de base de datos MariaDB; el lenguaje del lado del servidor PHP; el lenguaje para aplicaciones CGI Perl; además de phpmyadmin que permite la administración del gestor de base de datos por medio de una interfaz gráfica. También, se habilito el acceso remoto al servidor para la operabilidad de los miembros del equipo de desarrollo mediante una conexión HTTPS para la transferencia de información cifrada y segura. Una vez implementado el entorno web se instaló la herramienta Joomla, la cual es un framework, desarrollado por PHP y que sirve como gestor de contenidos web para la implementación de funciones avanzadas de diseño y animación en la interfaz que esta dirigida al usuario final. En dicha plataforma, se implementó una plantilla de diseño desarrollada por Helix3 para posteriormente ser adaptada a las especificaciones del proyecto en una arquitectura Modelo-Vista-Controlador. La plataforma web, muestra contenido estático referente al material lectivo los cuales se desglosan en las siguientes especificaciones: Información del proyecto: Muestra información relevante acerca del proyecto y el laboratorio de mecatrónica. Manual de ensamblado de la plataforma robotizada: Muestra los pasos secuenciales para armar la plataforma robotizada y los componentes que la conforman. Practicario: Proporciona información guiada que permita a los estudiantes implementar diferentes ejercicios en la plataforma para el aprendizaje de electrónica, programación en C, Arduino, entre otras. Contacto:  Se muestra información de contacto para atender preguntas respecto al funcionamiento o información de la plataforma robotizada.  El modelado de las paginas que conforman la plataforma web se clasifican en dos tipos: Página Principal: Se encontrará la información relevante del laboratorio de robótica y mecatrónica de la institución, un video de presentación del proyecto; el menú donde se presenta los módulos del practicario y permite la selección de las prácticas que este englobe; un botón denominado acerca de el cual te dirige a la página de información del proyecto y un botón de contacto en donde se podrá contactar a los encargados del proyecto o recibir información más detalla. Página de Prácticas: Al seleccionar alguna práctica, se presenta una página con la información detallada de los pasos a realizar, así como el video explicativo de dicha práctica y un foro de discusión para la resolución de posibles dudas. También, se contará con botones de redireccionamiento hacia las practicas posteriores o anteriores del módulo en cuestión. Los actores que interactúan con la plataforma web son los siguientes: Usuario: Persona que tiene libre acceso a las funciones de la plataforma en línea. Administrador: Persona que gestiona el contenido presentado en la plataforma.


CONCLUSIONES

Durante la estancia de investigación, se logró obtener conocimientos relevantes en el desarrollo de aplicaciones web amigables a los usuarios finales en este caso, para transmitir el conocimiento de la robótica en función de atacar una nueva necesidad social que pretende poner a la vanguardia a los diferentes niveles académicos con un nuevo entorno tecnológico que ayuda a hacer más fácil las actividades humanas.  
Antúnez López César Odilver, Universidad Autónoma de Occidente
Asesor: Mtro. Luis Alberto Diaz Palomares, Universidad Autónoma de Occidente

RED SOCIAL GASTRONóMICA


RED SOCIAL GASTRONóMICA

Antúnez López César Odilver, Universidad Autónoma de Occidente. Asesor: Mtro. Luis Alberto Diaz Palomares, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Las redes sociales se han convertido en el principal tema de referente social para las nuevas generaciones, pues en ellas existen un número considerable de usuarios que día a día comparten información. Existen redes sociales para entablar comunicación directa, ver videos, imágenes, etc. Hoy se observa una necesidad de proponer una red social que permita compartir entre sus usuarios recetas de cocinas típicas de una región del país y del mundo en general.  Cuando mi madre nos daba el pan, repartía amor. (Joël Robuchon) Partiendo de esto, sabemos que cocinar es más que simplemente hacer algo por necesidad, es poner pasión, es poner la esencia de nosotros en algo, y más en la etapa de globalización en que nos encontramos, donde tenemos acceso a nuevos métodos de cocina a nuevas tradiciones, es aquí donde surge la necesidad de que todas estas recetas se centralicen,  sabemos de antemano que ya hay muchos blogs y redes que lo hacen, pero ninguna lo lleva de  una manera dinámica y fácil de entender y la gran mayoría son solo para leer recetas que no deja espacio para que los demás usuarios puedan contribuir, es la meta ser referentes al momento que se piense en una red social dedicada a la gastronomía.



METODOLOGÍA

Para llevar a cabo el desarrollo de este software fue necesario priorizar los propósitos del sistema dentro de los cuales destaca: Dar de alta a usuarios, iniciar sesión, cerrar sesión, publicar recetar, guardar recetas, ver perfiles y las recetas de otros internautas. También fue indispensable determinar el ámbito de desarrollo del proyecto, para tener un mejor entendimiento del mismo, fue necesario recurrir a la descomposición de subsistemas. Se definieron los requisitos funcionales y no funcionales del software. Se elaboró la arquitectura del proyecto y el diseño de la base de datos. Finalmente, se integró el diseño a la aplicación y se realizaron pruebas de usabilidad con posibles usuarios.


CONCLUSIONES

Para concluir, durante la estancia de verano científico se puede indicar que se alcanzaron los objetivos planteados, adquiriendo los conocimientos necesarios para la elaboración de un protocolo de investigación científica, se espera darle continuidad para obtener mayor amplitud en los resultados y poder ejecutarla en diferentes plataformas digitales.
Arciga Cornejo Magaly Nataly, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

ESTUDIO DE FACTIBILIDAD FINANCIERA PARA LA IMPLEMENTACIóN DE UN ASFALTO A BASE DE MUCíLAGO DE NOPAL Y RESIDUOS SóLIDOS URBANOS EN CAMINOS RURALES.


ESTUDIO DE FACTIBILIDAD FINANCIERA PARA LA IMPLEMENTACIóN DE UN ASFALTO A BASE DE MUCíLAGO DE NOPAL Y RESIDUOS SóLIDOS URBANOS EN CAMINOS RURALES.

Arciga Cornejo Magaly Nataly, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

El estado de los caminos rurales es desde hace décadas, un problema casi sin solución. En todo el país, el reclamo es similar. En condiciones normales de clima, los caminos ya no son los ideales. Pero la cosa puede ser peor, porque la lluvia decidirá si es posible sacar la producción del campo, ir a la escuela o llegar a la guardia de un hospital. En México los caminos rurales representan el 56 % de la Red Nacional de Caminos (RNC) y se relacionan con 210 mil localidades rurales por todo el territorio nacional. Es decir, los caminos rurales, son más de la mitad de las vías terrestres del país. Sin duda, la presencia y condiciones de un camino rural impacta en la vida económica y productiva de las localidades. Por ejemplo, estudios señalan que camionetas y camiones ligeros pueden circular como máximo a 20 km/hr en un camino rural en malas condiciones. El Instituto Mexicano del Transporte (IMT) señala que de no realizarse trabajos de conservación en los caminos rurales, de manera periódica y oportuna, se generan externalidades negativas. En esta misma línea, la American Association of State Highway and Transportation Officials, estimó que cada dólar invertido en mantener una carretera en buen estado evita que se gasten entre 6 y 14 dólares más adelante para rehabilitar o reconstruir esa misma vía una vez que se ha deteriorado significativamente.  



METODOLOGÍA

Para el análisis financiero del asfalto será preciso considerar la totalidad de los flujos esperados de ingresos por todos los conceptos originados por el mismo, estimados a precios de mercado, para el periodo de análisis. La previsión de la corriente de gastos incluirá los gastos de inversión, comprendiendo dentro de estoslos correspondientes a gastos generales. También se considerarán los gastos financieros, en el caso de quese recurra a fuentes de financiación con ajenas al agente ejecutor. Los principales índices de rentabilidad que se utilizarán son el Valor Actual Neto, la Tasa Interna de Rendimiento y el periodo de recuperación del capital.


CONCLUSIONES

En conclusión se pretende estimar que el valor actual neto del asfalto a base de mucílago de nopal esta entre el 50 y 70% en comparación con una mezcla convencional así como un 10% en la TIR invirtiendo en el mercado de activos financieros que puede conseguirse una rentabilidad del 6%. Por otro lado, al contar con un camino rural con un revestimiento en buen estado, la velocidad de camionetas y camiones que circulan por estos se incrementa a 35 km/h de 20km/hr y se puede reducir hasta en un 37 % los costos generalizados de viaje, principalmente refacciones, combustible y tiempo de traslado. Dicha reducción aumenta la movilidad de la población y la disponibilidad e intercambio de productos.
Areliz Gomez Armando Nathanael, Universidad Tecnológica de Nayarit
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

APLICACIóN DE ALGORITMOS PROFUNDOS EN IMáGENES Y REDES NEURONALES


APLICACIóN DE ALGORITMOS PROFUNDOS EN IMáGENES Y REDES NEURONALES

Areliz Gomez Armando Nathanael, Universidad Tecnológica de Nayarit. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Las redes y algoritmos profundos, con algoritmos y una base de datos MNIST que es una gran base de datos de dígitos escritos a mano de acceso público y usada ampliamente para entretenimiento y pruebas en el campo de aprendizaje automático. Se realiza una red neuronal con AI (Artificial Intelligence, por sus siglas en inglés) que muestre la manera en que se comportan y se inmutan las líneas de código, para llevar un programa el cual reconozca e identifique el contenido indicado, aprendizaje (la adquisición de información y reglas para el uso de la información), el razonamiento (usando las reglas para llegar a conclusiones aproximadas o definitivas) y la autocorrección.



METODOLOGÍA

Realizar un análisis efectivo de predicción en una red neuronal, con una base de datos MNIST y AI que realiza la función de mantener aprendiendo a la red. Utilizar técnica de proceso de variables que faciliten el análisis predictivo y optimicen el tiempo de clasificación. Construir un modelo predictivo eficaz para clasificar imágenes. Analizar los resultados obtenidos y verificar que sean los esperados. Analizar la efectividad de predicción (accuracy) del modelo obtenido.


CONCLUSIONES

Luego de realizar la experimentación con los diferentes dataset obtenidos en la fase de análisis y proceso, de utilizar algunos modelos predictivos de comprobada efectividad, se llega a las siguientes conclusiones: El análisis previo que se realizó se ocupó dos dataset, Data_Entrenamiento y Data_Validacion. El primer Data_Entrenamiento mostro resultado de precisión de 89% con un  margen de error del 21%, ocurrido por las diferencias en las imágenes y resolución. El segundo Data_Validacion obtuvo una mejora del 92%  de efectividad en el modelo h5. Con relación a los resultados de los dataset de mismas características no mejora la efectividad predictiva en ninguno de los casos. La selección de variables basada en Placeholders y One-hot mostro resultado distintos en el entrenamiento y la validación de la red neuronal, con porcentajes varios, sin alejarse de los valores esperados. Se realiza la construcción de un modelo de red neuronal de 2 capas, si bien es cierto en la experimentación los valores obtenidos por este modelo no superan a los frameworks de modelos predictivos, el objetivo de esta investigación es obtener un mejor rendimiento del funcionamiento de las redes neuronales. Se realizó el análisis de dos modelos predictivos provistos por librerías de código abierto para la implementación de Deep Learning. El modelo Tensorflow y Keras se utilizó en la presente investigación de manera didáctica, obteniendo la suficiente experiencia entre prueba y error para hacer funcionar estas librerías y obtener cada vez los mejores resultados. Se realizó la red neuronal con un IDE llamado VisualCode, mediante un Script se desarrolló el entorno virtual para que el entorno de desarrollo integrado fuese el host y contenga las librerías y extensiones a ocupar. Con base de datos MNIST para el almacenamiento, comprensión y formulación de pixeles. Con una capacidad de predicción de 50,000 imágenes que se pueden ampliar la capacidad de aprender y colocar más clases y contiene funciones de optimización.
Arévalo D Elia Uziel Mizraim, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo

HOTEL ECO-TURÍSTICO


HOTEL ECO-TURÍSTICO

Aguirre Chavez Andrea Guadalupe, Universidad de Sonora. Arévalo D Elia Uziel Mizraim, Consejo Quintanarroense de Ciencia y Tecnología. Bueno Gutiérrez Mayra Saraí, Universidad Autónoma de Guerrero. Cruz Garcia Isabel Alejandra, Universidad Autónoma de Guerrero. Miranda Cayetano Yazmin Alejandra, Universidad Autónoma de Guerrero. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como objetivo el implementar la madera como material principal en la edificación arquitectónica. Dando una solución tanto estructural como de diseño. Un hotel ecoturístico busca un ambiente armonioso que integre áreas de relajación, deportivas, de descanso, de sanación espiritual y talleres de recreación que fomenten el desarrollo sustentable, haciendo uso eficiente y racional de los recursos naturales. Su enfoque principal es hacia el desarrollo turístico el cual busca la relación del usuario con el medio ambiente.



METODOLOGÍA

a través  -Estudio de la zona -Entorno natural (Clima, topografía, flora, fauna) -Contexto construido (Tipologías, estilos) -Contexto social (Habitantes, alfuencia turística, cultura) -Normatividad Análisis  -Diagramas -Zonificación -Programa arquitectónico Síntesis -Planos -Perspectivas


CONCLUSIONES

Debido a las condiciones medioambientales que se viven en la actualidad, se han buscado nuevas formas para poder reducir nuestro impacto ecológico, es por ello que en el sector turístico ha surgido el término hotel ecoturístico el cual deberá propiciar un ambiente armonioso de relajación y recreación, este se enfoca al desarrollo y realce del turístico porque busca relacionar al usuario con el medio ambiente. Es por ello que este proyecto se desarrollará en una zona que tiene un potencial para diseñar este tipo de espacios, asi como se propone el uso de madera y sus sistemas constructivos para el plantemiento del proyecto. 
Arias Marcos Ángela, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales

FACTORES QUE INCIDEN EN LA PRODUCTIVIDAD Y COMPETITIVIDAD DE LA CADENA AGROINDUSTRIAL DEL AGUACATE EN COLOMBIA Y MéXICO.


FACTORES QUE INCIDEN EN LA PRODUCTIVIDAD Y COMPETITIVIDAD DE LA CADENA AGROINDUSTRIAL DEL AGUACATE EN COLOMBIA Y MéXICO.

Arias Marcos Ángela, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

En la actualidad México, quien se ha consolidado como el principal productor de aguacate del mundo (Williams, Capps & Hanselka, 2017), ha tenido restricciones en la producción, debido a fenómenos climáticos y problemas productivos que han jalonado el precio al alza en el mercado interno (Belda, 2017), llegando a valores de 90 pesos mexicanos por kilo (4.85 USD/Kg) en 2017, como consecuencia de la escasez del producto y la sobredemanda que llegó a niveles del 40% (Forbes, 2017). América Latina se ha situado como una región promisoria para la producción y exportación de aguacates en fresco; sin embargo, es importante anotar que Colombia y Perú son los que principalmente pueden tener un mayor margen de crecimiento, debido a la disponibilidad de tierras, mientras que México ya presenta dificultades por el encarecimiento de la tierra y problemas asociados a cambios climáticos, los cuales dificultan la expansión de su producción (Schwartz, Maldonado, Luchsinger, Lizana & Kern, 2018). México y Colombia son dos países uno con el número uno en productor del mundo y el otro con mejor disponibilidad de tierras, por lo que se sitúan como dos países capaces de optimizar su producción, pero los dos presentan diversos factores que influyen de manera directa con la producción, lo que impide que hasta ahora se mantengan en el mismo rango de producción en los últimos años.



METODOLOGÍA

El presente trabajo recopila información de distintos artículos de investigación de la producción de aguacate en México y Colombia, partiendo de esta información se aplicaron metodologías de mejora continua, en el orden, poka-yoke, para identificar problemas dentro de la línea de producción de aguacate, Ishikawa para analizar los problemas de raíz encontrados en la metodología anterior y así poder identificar qué factores desencadenan dichos problemas en la producción, y por ultimo kaizen, para dar apertura a posibles alternativas de solución, siempre buscando la mejora continua de los procesos productivos del aguacate en México y Colombia. Se delimitó la zona geográfica de estudio, así que se seleccionaron dos países de acuerdo a sus características competitivas los cuales fueron México y Colombia, México por ser el país número uno en producción y exportación, y Colombia debido a que es uno de los países con mejor disponibilidad de tierras. Se identificaron los estados y departamentos que más producen aguacate a nivel nacional, quedando así Tolima, Caldas, Antioquia, Santander, Bolívar, Quindío, Cesar, Valle de Cuaca y Risaralda como los principales departamentos que inciden en mayor medida con la producción total de aguacate en Colombia, los cuales representan el 86% de área sembrada en todo el país; en México los estados que más producen aguacate son Michoacán, Jalisco, Estado de México, Nayarit y Morelos, de los cuales todos presentan restricciones en su producción. Se analizaron las producción de ambos países en los últimos cuatro años, de acuerdo a la FAO, México exporta alrededor de 1,091,937 toneladas de aguacate al año y Colombia aproximadamente 30,009 toneladas, por lo que analizar los factores dentro de su cadena productiva es de suma importancia para aumentar la producción, comenzando con un análisis de factores, desde la fase inicial de la cadena, hasta llegar a la fase de comercialización, es decir, desde la producción, transformación, comercialización y distribución de este producto agropecuario. A partir de esta información se detectaron los problemas dentro de la cadena productiva del aguacate con el modelo Poka-yoke, filosofía japonesa aprueba de errores, con el modelo poka-yoke es posible identificar aquellos problemas dentro de la cadena productiva del aguacate y corregirlos, y de esta manera poder analizarlos con el modelo Ishikawa; incluso poka-yoke propone mejoras en los procesos con tecnología avanzada. Posterior a este paso se realizó un análisis de los problemas dentro de la cadena productiva del aguacate, con el modelo Ishikawa, así cada problema puede visualizarse de tal manera que se muestren las raíces de dichos problemas, y de esta manera, proponer alternativas de solución resulta una tarea aún más sencilla. Después se aplicó el siguiente modelo para proponer mejoras partiendo de los errores encontrados en la cadena productiva, con el modelo Kaizen es posible mantener la producción de aguacate en México y Colombia es mejora continua tomado en cuenta que eslabones de la cadena requieren ciertas mejoras para así optimizar la producción.


CONCLUSIONES

México y Colombia son países que pueden optimizar su producción, en el caso de México que se ha situado como el país número uno en producción y exportación, mantenerse en esa posición es un deber para los productores, pero aumentar aún más su producción al igual que Colombia, al tener mejor disponibilidad de tierras, el ofrecer una mejor calidad en sus productos es una opción que traería consigo aumento en la economía de ambos países, con los modelos Poka-yoke, Ishikawa y Kaizen es posible descubrir aquellos problemas a los que se enfrenta la cadena productiva del aguacate en cada país. Con el análisis de los factores que inciden de manera directa con la cadena productiva del aguacate de los países México y Colombia se descartaron algunos de estos aspectos debido a que non todos se hacían presentes en ambos países, y con esta exclusión se logró un análisis significativo, incluso para proponer mejoras distintas en ambos países. Si existieran capacitaciones para los productores de aguacate en los países México y Colombia, la optimización de producción se llevaría a cabo trabajando de la mano con las metodologías de mejora continua.
Arias Robles Jose Alberto, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

CONTROL DE UN ARDUINO POR VOZ VíA WI-FI MEDIANTE ALEXA/ARDUINO VOICE CONTROL


CONTROL DE UN ARDUINO POR VOZ VíA WI-FI MEDIANTE ALEXA/ARDUINO VOICE CONTROL

Arias Robles Jose Alberto, Tecnológico de Estudios Superiores de Valle de Bravo. Garcia Enriquez Victor Manuel, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La domótica representa actualmente una necesidad y tendencia adaptada principalmente por países de primer mundo que buscan generar la evolución de los dispositivos de primera necesidad con los que los habitantes de los hogares tienen contacto constante. Es así como surge el termino Casa Inteligente que hace referencia a la creación y automatización de dispositivos eléctricos como puede ser el refrigerador u horno hasta las luces o el mismo baño de un hogar, facilitando las labores domesticas y mejorando la calidad de vida de los usuarios. El proyecto puede enfrentar como mayor problemática la escasa o nula infraestructura que presenta el país para adaptar este tipo de tecnología a los hogares de la mayor parte de la población ya que los dispositivos suelen estar asociados a algún asistente inteligente que tiene un costo considerable y los que no necesitan el asistente y trabajan de manera autónoma a través de Bluetooth y un Smartphone aun son de alto costo además de que solo una ínfima parte de los proyectos arquitectónicos en México son los que comienzan a plantear la construcción de un hogar o edificación basados en esta tecnología .



METODOLOGÍA

Se utilizo el módulo wifi ESP82666, el Amazon Echo Dot (3era generación), un relay de 5v y la compuerta ULN2803A. El desarrollo del código necesario para configurar los componentes se realizo en el IDE de Arduino. En un inicio se hizo una investigación sobre el funcionamiento de los componentes teniendo en cuenta el datasheet de cada uno de ellos y se instalaron las herramientas para trabajar con el modulo wifi dentro del IDE. Posteriormente se incluyeron las librerías que fueron utilizadas en la elaboración del código, además de definir los pines del módulo wifi que servirían para conectar los dispositivos o conectores que se automatizaran. Al finalizar la conexión del módulo se crearon las funciones que permitirán encender y apagar los dispositivos, para posteriormente crear las variables donde se indicará el nombre de la red y la contraseña a la que se conectará el módulo wifi, en este apartado se debe tener en cuenta que debe ser a la misma red que se encuentra asociado el Amazon Echo Dot de Alexa. Dentro del método setup de las funciones del IDE de arduino, se declaran las configuraciones iniciales que tendrán los dispositivos que se desean conectar, dentro se especificaran los nombres de estos. En el método loop se verificará la comunicación wifi y se verifica el tipo de orden que recibe. Después se crearon las funciones que representaran el encendido y apagado de las luces, así como una función que permite conectar al módulo con la red wifi del domicilio donde se instale. Para el cableado de las conexiones se realizó un diagrama, con base en los datasheet obtenidos al principio, teniendo como referencia un led que representa una luz de una habitación en un domicilio, conectando el relay directamente a la instalación eléctrica, además de una protoboard donde se conectó la compuerta ULN2803 junto con el led. Finalmente se cargó el código realizado en el módulo wifi, y se procedió a la búsqueda de los dispositivos con el Amazon Echo Dot de Alexa, donde se detectó el dispositivo creado en el código. Al concluir la configuración de Alexa desde la aplicación se procedió a dictarle el comando de voz necesario para realizar la prueba correcta de su funcionamiento que para esta práctica es: Alexa prende la luz. Y se deberá prender el led de prueba conectado a la protoboard. Al comprobar que las conexiones sean correctas y Alexa responda al dispositivo se continuara con la comunicación entre el módulo Wifi y el relevador que será el que controlara el foco que será conectado al toma corriente de la casa. Para verificar que la conexiones sean correctas se conectara el módulo Wifi a corriente y se volverá dictar el comando al Amazon Echo Dot Alexa, si todo está correctamente configurado y conectado se encenderá el led de prueba y los testigos del relevador, comprobando el adecuado funcionamiento. Al termino de las pruebas se realizará la conexión final del relevador al circuito eléctrico de la casa o al portalámparas de prueba que será conectado a corriente directa comprobando que el relevador funciona correctamente y controla de manera correcta el foco. Como elemento extra se confecciono una caja pensada para contener todos los elementos de manera individual para su colocación o instalación en algún punto del hogar.


CONCLUSIONES

Al termino de este verano de investigación se concluye que la construcción de un dispositivo controlado mediante comandos de voz a través del asistente inteligente es de fácil construcción para un especialista en informática o aficionado ya que los componentes son de bajo costo y pueden ser utilizados para manipular todos los elementos de la instalación eléctrica de un hogar, además de que estos representan la línea que se seguirá sobre el la automatización de todos los hogares y puede servir para implementarla en otros sectores como el de la salud donde se podrían generar mejoras estructurales en las viviendas para personas discapacitadas o con alguna afección que estén indispuestas para desplazarse dentro de su mismo hogar.
Arraniaga Ornelas Jairo Fernando, Universidad de Guadalajara
Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo

TéCNICAS PARA EL ANáLISIS Y EVALUACIóN DE LA CALIDAD DE LA ENERGíA.


TéCNICAS PARA EL ANáLISIS Y EVALUACIóN DE LA CALIDAD DE LA ENERGíA.

Arraniaga Ornelas Jairo Fernando, Universidad de Guadalajara. Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad con la creciente tendencia hacia la generación distribuida, debido al interés de los diferentes gobiernos y sociedades por las energías renovables, ha traído consigo nuevos retos para la industria eléctrica y los distintos agentes que la conforman, pues es elemental mantener la estabilidad del sistema eléctrico en todo momento, consiguiéndose esto a través de mantener el balance entre la energía generada y la demandada por la red. Actualmente se trata de mantener ese balance con predicciones basadas en los datos históricos de consumo durante las distintas horas del día en algún punto determinado de la red al que se le quiera suministrar energía eléctrica, más sin embargo al tener una mayor participación las energías renovables en la red y al depender estas de factores naturales variables como la radiación solar o el viento, nos encontramos con que hay momentos en los que la generación no se empalma con el consumo desperdiciándose: grandes cantidades de energía y poniendo en riesgo la estabilidad del sistema eléctrico. Como una de las posibles soluciones para resolver esta problemática es que nacen los distintos tipos de almacenamiento de energía, que pueden aportar al incremento de la eficiencia y estabilidad en la red eléctrica y una de las aplicaciones el almacenar energía en los picos de generación de las renovables para descargar energía en la red durante los picos de consumo.



METODOLOGÍA

Durante las 7 semanas de duración del Verano de Investigación Cientifica y Tecnologica del Pacifico 2020, estuve trabajando junto con la doctora Espinosa en la linea de investigación técnicas para análisis y evaluación de la calidad de la energía principalmente sobre la energía renovable, el almacenamiento de energía y su impacto en la calidad de la energía. Se empezó por hacer una revisión bibliográfica de los topicos que conforman la calidad de la energía, definiendo cuando y porque se considera que la red tiene mala o buena calidad de energía y las afectaciones económicas que trae esta mala calidad de energía, resultando en pérdidas de millones de dolares a nivel mundial. De igual manera se abordaron técnicas para medir la calidad de la energía en la red y las soluciones dependiendo de el tipo de problemática presente en la red eléctrica, sean sobre tensiones, flicker, etc,                                                                                            De igual manera se hizo una revisión bibliografica de el estado de las energías renovables en México, haciendo uso herramientas como el Inventario Nacional de Energía Limpia que proporciona SENER para llevar a cabo una teledetección satelital de los puntos donde existe ya aprovechamiento de las renovables y de igual manera aquellas zonas donde existe potencial pero no aprovechamiento aún. También se abordaron los distintos componentes que conforman un sistema fotovoltaico interconectado a la red así como sus diversas configuraciones, posteriormente se hizo una revisión de la librería de matlab sobre programación lineal y se resolvieron diversos problemas matemáticos con funciones y restricciones lineales. Se revisaron las diferentes tecnologías de almacenamiento de energía, siendo aquellas tecnologías en las que la energía se transforma de un tipo a otra, pudiendo ser a: energía mecánica, electromecánica, química y térmica. Se analizo el costo, ventaja y desventaja de estas tecnologías de almacenamiento y su importancia en la industria eléctrica. Se investigó sobre la importancia del correcto emplazamiento de los sistemas de almacenamiento para mejorar la eficiencia de dicho sistema utilizando como guía el articulo Energy Managment and Optimization Methods for Grid Energy Storage Systems en el que se plantea un sistema eléctrico compuesto por carga, fuente de generación fotovoltaica y sistema de almacenamiento, buscandose minimizar las pérdidas de energía en la red con el correcto emplazamiento del sistema de almacenamiento, esto se logra utilizando matlab y algoritmos genéticos para conseguir dicha optimización. Por último se estuvo trabajando en la resolución de problemas de optimización con matlab, se utilizó programación líneal y no líneal, así como también programación con algoritmos genéticos. Estas técnicas de optimización se utilizaron para resolver el problema del despacho de energía al menor costo posible.


CONCLUSIONES

Con base a lo investigado en bibliografía y los problemas resueltos con ayuda de matlab, se puede concluir que resulta de suma importancia el desarrollo de distintos sistemas de almacenamiento de energía para dar solución a las problemáticas de intermitencia que presentan las energías renovables. Siendo elemental para el uso de estos sistemas de almacenamiento utilizar software matemático que nos ayude a determinar su adecuado emplazamiento, minimizando los costos o las pérdidas de energía, así como también hacer uso de las técnicas de optimización para mantener una buena calidad en la red de energía eléctrica, evitando millonarias pérdidas económicas. De igual manera se pueden utilizar estos software y técnicas de programación para la resolución de problemas matemáticos que resultarían casi imposibles a primera instancia.
Arredondo López Ana Gabriela, Instituto Tecnológico de Reynosa
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

APP PARA CONVERTIR TEXTO O IMAGEN A VOZ ENFOCADO A LA COMUNICACIóN CON LAS PERSONAS CON DISCAPACIDAD AUDITIVA.


APP PARA CONVERTIR TEXTO O IMAGEN A VOZ ENFOCADO A LA COMUNICACIóN CON LAS PERSONAS CON DISCAPACIDAD AUDITIVA.

Arredondo López Ana Gabriela, Instituto Tecnológico de Reynosa. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Todos los individuos que forman parte de un grupo de personas con las cuales comparten ciertas similitudes deben de estar siempre comunicados verbalmente y auditivamente, sin embargo, existen personas que nacen con la discapacidad de no poder escuchar o hablar, estas personas se comunican por medio de un lenguaje de señas o LSM el cual es necesario en día a día para poder establecer una conversación con otras personas y así poder expresar lo que desean comunicar. Aun así, no todas las personas que no padecen esta discapacidad no cuenta con el aprendizaje del Lenguaje LSM ya que no se es impartido como una buena enseñanza para ellos, por ello, las personas que cuentan con esta discapacidad les puede resultar difícil comunicarse abiertamente con estas personas que desconocen el Leguaje LSM en su totalidad ya que de esta manera ellos no podrían entenderlos y sería incomprensible poder saber lo que tratan de expresar las personas que padecen esta discapacidad.



METODOLOGÍA

Se realizó una aplicación para convertir texto o imagen a voz, esto con el propósito de que la utilicen aquellas personas que tienen una discapacidad auditiva y puedan comunicarse de una manera más fácil con aquellas personas que no entiendan el lenguaje LSM, ya que las personas que tienen una discapacidad auditiva normalmente utilizan este lenguaje para poder tener comunicación con otras personas, pero no todos posen el conocimiento de este Lenguaje por ello se creara esta aplicación bastante interactiva y así saber comunicarse de una manera un poco más expresiva sobre lo que deseen manifestar al momento de conversar.  Desarrollo de la aplicación Se creó un proyecto dentro de Android Studio a este proyecto se le asignó el nombre como App convertir texto o imagen a voz a partir de ahí el primer procedimiento que se realizó dentro del proyecto fue crear la pantalla principal, se insertaron imágenes y botones, así como un cuadro de visualización de texto en el código del diseño, luego se procedió a crear dos diferentes pantallas las cuales serían la Pantalla para hablar con texto y la Pantalla para hablar con voz una vez creados se procedió a trabajar en el código java de nuestra pantalla principal donde se establecería el código para poder hacer funcionales los botones de esta pantalla y que cada uno de ellos se dirija a las siguientes pantallas que les corresponde. Por ejemplo, el botón que se encuentra en la pantalla principal Habar con texto al momento en que el usuario le dé clic esta se dirigirá a la pantalla creada Pantalla para hablar con texto. Después se trabajó en crear el diseño de la pantalla donde se hablará con texto, se ingresó una visualización de texto, un cuadro de texto y un botón una vez hecho nuestro diseño de la pantalla se trabajó con el código de java creando una clase adicional teniendo al final dos códigos de java los cuales nos sirvieron para que al momento de que el usuario le diera clic en el botón de hablar este emitiera el sonido de lo que se escribió en el cuadro de texto. En la pantalla de hablar con imágenes en su diseño se ingresaron las imágenes y botones que dirigirían a otras pantallas por medio del código java, las pantallas creadas para cada una de las opciones de esta pantalla son: Pantalla de saludos Pantalla de despedidas Pantalla de colores Pantalla de números Pantalla de preguntas Pantalla de estados de animo Pantalla de comida Pantalla de transporte Pantalla de bebidas En todas estas pantallas también se hizo uso de más imágenes que corresponderían a cada una de ellas y algunas de estas pantallas se les ingreso algunos botones adicionales como para completar alguna frase que desea decir el usuario todo esto dentro del diseño, en la parte del código java se desarrolló el método para que cada imagen y botón emitiera el sonido correspondiente a la imagen. Una vez terminado nuestro proyecto se verifico el estado del mismo y se dio una observación en cada una de las ventanas de código para verificar que no hubiese alguna nomenclatura mal escrita y que todo se ejecutara correctamente sin errores.


CONCLUSIONES

Durante la creación del proyecto se aprendió en la construcción de pantallas a partir de cero, la utilización de cada estructura que se formaba dentro de los códigos y las herramientas para poder realizar Aplicaciones Móviles.  La ejecución del software se hizo mediante un dispositivo móvil donde se empezó a utilizar la aplicación, al momento de ingresar a la pantalla principal funcionaban correctamente los botones para poder ingresar a la pantalla de hablar con texto o imagen. En la pantalla para hablar con texto se ingresaba el texto en cuadro y este mismo hablaba todo lo que se habia escrito, en la seccion de hablar con imagenes cada boton hacia su funcionalidad y cada imagen que se encontraban en cada una de las pantallas emitia el sonido correspondiente a ello. Todos los procesos fueron ejecutados correctamente.
Arroyo Trejo Erandi Alejandra, Instituto Tecnológico de Cuautla
Asesor: Dr. Fernando Ornelas Tellez, Universidad Michoacana de San Nicolás de Hidalgo

IDENTIFICACIóN DE PARáMETROS DE LAS LíNEAS DE TRANSMISIóN ELéCTRICAS.


IDENTIFICACIóN DE PARáMETROS DE LAS LíNEAS DE TRANSMISIóN ELéCTRICAS.

Arroyo Trejo Erandi Alejandra, Instituto Tecnológico de Cuautla. Asesor: Dr. Fernando Ornelas Tellez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En México, las instituciones encargadas de la generación y manejo de la energía, han tenido interés en el estudio y análisis de pérdidas de suministro de energía en áreas del país, que en parte pueden ser atribuidas y determinadas por medio del modelado de sus líneas de transmisión, mismas que pueden tener incertidumbre en lo referente a los valores de los parámetros que las describen. Es importante la identificación de los valores de los parámetros de dichas líneas, los cuales no son fáciles de medir. Además, un modelo adecuado de línea de transmisión con sus respectivos parámetros, es necesario para el control adecuado de la distribución de energía. El planteamiento consiste en, a partir de un modelo de línea de transmisión, proponer un algoritmo de identificación de parámetros a partir de mediciones disponibles de la línea (voltajes/corriente), una vez que el algoritmo converge, es posible determinar los valores numéricos de cada parámetro que interviene en el modelo matemático.



METODOLOGÍA

En la literatura referente al tema, se observaron y analizaron dos modelos de líneas de transmisión eléctricas, tipo "T nominal" y tipo "pi". De los circuitos equivalentes, se obtuvo el modelo en representación de espacio de estados, que permitió el uso del algoritmo de mínimos cuadrados recursivos, también llamado Filtro de Kalman-Bucy, con el objetivo de determinar los parámetros involucrados en el modelo, como lo son los valores de resistencias, inductancias y capacitancias. El algoritmo se simuló con el Software Wolfram Mathematica, donde a partir de mediciones conocidas (voltajes y corrientes de entrada-salida) del circuito, y la sintonización del algoritmo (que se realizó a prueba y error), se obtuvo la convergencia del mismo para, posteriormente, obtener los valores de los parámetros que se suponen desconocidos, esto es, determinar los valores aproximados de las resistencias, inductancias y capacitancias en líneas de transmisión. Los resultados de la simulación muestran que es posible obtener valores de parámetros muy cercanos a los valores reales de una línea. El algoritmo desarrollado permitiría a empresas en el sector eléctrico, determinar con mayor precisión el modelo representativo de una línea eléctrica física, y entonces poder usar dicho modelo en tomar mejores decisiones para el despacho de la energía eléctrica, no sobrecargando los circuitos, y lograr una operación segura y disminución de perdidas por saturación de flujos energéticos.


CONCLUSIONES

Durante la estancia del verano virtual se adquirieron conocimientos en cuanto a identificar los parámetros de una línea de transmisión eléctrica, por medio de la simulación del algoritmo de mínimos cuadrados recursivos (Filtro de Kalman-Bucy), cuyos resultados fueron satisfactorios. Sin embargo, por cuestiones de tiempo, no se llegó a validar el modelo obtenido en el laboratorio, por lo que se espera posteriormente que pueda ser validado, tal que disponiendo de modelos matemáticos más precisos de líneas de transmisión, se coadyuve para lograr una mejor distribución y manejo de la energía eléctrica en el país, disminuyendo las pérdidas y se logre una operación más segura y eficiente de un sistema eléctrico. Las simulaciones fueron realizadas en el Software Wolfram Mathematica, el cual se aprendió a utilizar durante la estancia.  Además de que se adquirieron conocimientos en cuanto al manejo del editor de textos LaTex, que fue utilizado para reportar el avance del proyecto.
Avalos Rangel Alberto Josafat, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

TRANSVERSALIDAD AMBIENTAL E INSTRUMENTOS DE POLíTICA AMBIENTAL EN PROYECTOS DE SANEAMIENTO DE TIRADEROS A CIELO ABIERTO: CIUDAD MADERO, TAMAULIPAS


TRANSVERSALIDAD AMBIENTAL E INSTRUMENTOS DE POLíTICA AMBIENTAL EN PROYECTOS DE SANEAMIENTO DE TIRADEROS A CIELO ABIERTO: CIUDAD MADERO, TAMAULIPAS

Avalos Rangel Alberto Josafat, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Introducción, La política ambiental emerge como la posibilidad de prevenir, encauzar o corregir los impactos que provocan las actividades humanas sobre el medio ambiente. Disminuir y evitar los impactos es importante para asegurar el derecho humano de todas las personas a un ambiente sano. Acorde a Solano (2014), La transversalidad consiste en introducir un tema en la vida diaria para abordarlo posteriormente de forma permanente. Así podemos decir que la Educación Ambiental tiene que estar presente en todos los contenidos curriculares, es decir debe ser tratada desde el punto de vista de la transversalidad. Objetivo General, Determinar los Instrumentos de Política Ambiental en el proceso de Saneamiento del Tiradero a Cielo Abierto (TCA) en Ciudad Madero, Tamaulipas, correlacionados con la Transversalidad Ambiental a fin de valorar su Viabilidad como Proyecto Sustentable. 



METODOLOGÍA

Mediante una Interpretación de datos provenientes de Graficas, Tablas y Cuadros fue posible obtener y conocer datos cuantitativos en lo que respecta a la producción de RSU, así como de su recolección y transporte hacia los sitios de disposición final como lo son los Tiraderos a Cielo Abierto y Rellenos sanitarios.  A través de Entrevistas con Especialistas en el tema del Medio ambiente, como lo fue con el Dr. Rodolfo garza flores, el cual nos hizo el favor de asesorarme durante toda la extensión del Verano de Investigación.


CONCLUSIONES

Conclusiones, Es necesaria una Voluntad Política con Transversalidad Ambiental para Integrar y Gestionar un Proyecto de Saneamiento, sustentado en la tenencia de la tierra y extensión territorial, a fin de Restaurar la Calidad Ambiental, sustentadas en la incorporación del uso y vocación del suelo para proyectos futuros.
Avendaño Romero Jhonatan, Instituto Politécnico Nacional
Asesor: Dr. Manuel Romero Salcedo, Instituto Mexicano del Petróleo

DESARROLLO DE UNA METODOLOGíA Y ALGORITMOS PARA LA PREDICCIóN Y MAPEO DE PERMEABILIDAD ABSOLUTA A ESCALA DE CAMPO USANDO CóMPUTO INTELIGENTE


DESARROLLO DE UNA METODOLOGíA Y ALGORITMOS PARA LA PREDICCIóN Y MAPEO DE PERMEABILIDAD ABSOLUTA A ESCALA DE CAMPO USANDO CóMPUTO INTELIGENTE

Avendaño Romero Jhonatan, Instituto Politécnico Nacional. Asesor: Dr. Manuel Romero Salcedo, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

La petrofísica es una disciplina importante para la caracterización de yacimientos de hidrocarburos, la cual depende ampliamente de la información que se pueda obtener en campo mediante métodos geofísicos. Por un lado, un modelo petrofísico que describa la variación de las propiedades en un pozo puede verse limitado cuando no hay una continuidad en el registro o cuando una variable no se pueda calcular mediante métodos indirectos. Por otro lado, la alternativa de muestreo con núcleos litológicos deriva en un aumento de los costos y tiempos de perforación lo cual, adicionalmente, no es práctico cuando se está en una etapa de exploración en un campo petrolero. Ahora bien, la inteligencia artificial y, específicamente, el área de Machine Learning, ha permitido el análisis y reconocimiento de patrones de grandes y complejas cantidades de información de fenómenos con cierta incertidumbre permitiendo la predicción de propiedades y características. Así pues, es aplicable en la predicción de propiedades petrofísicas y resulta en una alternativa eficiente para lidiar con los datos faltantes necesarios tanto para la caracterización de un pozo o el mapeo de algún parámetro. El problema principal que se estudió en este verano de investigación es el considerar la ausencia de algunas propiedades petrofísicas a escala de pozo, que son necesarias para avanzar en el entendimiento de la caracterización de los yacimientos. Este hecho resultó en la aplicación de la tecnología de Machine Learning con el fin de construir modelos de predicción que permitieran completar los datos faltantes logrando la continuidad en los registros.



METODOLOGÍA

El conjunto de datos con los que se trabajó integra la información de cuatro propiedades petrofísicas importantes: permeabilidad absoluta, índice de saturación de agua, porosidad y volumen de arcilla, las cuales fueron calculadas a partir de los registros geofísicos de pozo y núcleos obtenidos en la perforación de cinco pozos. Todos los procesos del prototipo obtenido, descritos en esta sección, fueron programados en lenguaje Python. La predicción de la permeabilidad en el campo petrolero comenzó con la determinación de las zonas con datos completos y faltantes. Las primeras se consideraron para el diseño del modelo de Machine Learning, mientras que las otras conforman el subconjunto para la predicción de las propiedades no calculadas. En este punto, el prototipo obtenido hace uso de un método de Machine Learning conocido como árbol de decisión, el cual permite discriminar los puntos a profundidad de los pozos donde sí se cuentan con todos los parámetros calculados. Enseguida, se realizó un análisis estadístico del subconjunto de datos completos para conocer la variación y relevancia de las propiedades y, mediante gráficas, se visualizó la correlación entre las distintas variables. Con lo anterior se ha determinado que, tanto la porosidad como el volumen de arcilla, tienen un mayor efecto en la permeabilidad. Se realizó una investigación teórica de diferentes algoritmos de Machine Learning y se propuso la aplicación de Vectores de Soporte de Regresión (SVR). El conjunto de datos completo se usó para el proceso de entrenamiento del SVR mediante una regresión no lineal, donde cada punto tiene un valor de permeabilidad asociado. Para realizar esto, se recurrió al uso de los algoritmos de SVR del API (Application Programming Interface) de Scikit-learn en Python. Una vez entrenado el modelo, se cargaron los datos de las zonas de los pozos en los que la permeabilidad no se encontraba calculada con el fin de predecir sus valores. Finalmente, se cumplió con el objetivo planteado de completar la información de los pozos con la predicción de nuevos datos.


CONCLUSIONES

En esta estancia de verano de investigación virtual se estudiaron los principales algoritmos de Machine Learning, se eligieron los más apropiados y se aplicaron para la predicción de los valores de permeabilidad de varios pozos. Esto tuvo como resultado el diseño e implementación de un prototipo de software que marca el inicio del desarrollo de una herramienta que permitirá mapear la variación de la permeabilidad y otras propiedades petrofísicas dentro de un campo petrolero.
Avendaño Sosa Maximiliano de Jesus, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

REALIDAD AUMENTADA MULTIPLATAFORMA


REALIDAD AUMENTADA MULTIPLATAFORMA

Avendaño Sosa Maximiliano de Jesus, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La investigación propuesta ha nacido de la creciente competitividad por el crecimiento de la tecnología y con ello, arrastrando la posibilidad de explotar la realidad aumentada y mejorar así los modelos de negocios de muchas empresas de prestigio. En los próximos cinco años la realidad extendida se normalizará como lo hicieron los celulares en su tiempo o las televisiones. Es por eso que la carrera por quien obtenga la tecnología para venderla al público en general ha empezado. En lo particular, encuentro mucho potencial en la mercadotecnia combinada a la realidad aumentada, expandiendo el mundo comercial en el que vivimos a límites que hace un par de años creíamos era sólo un sueño.



METODOLOGÍA

Para realizar este proyecto se debe tener claro el objetivo: desarrollar una pagina web multiplataforma que será accesible desde cualquier dispositivo que cuente con conexión a internet y cámara atraves de un enlace, para llevar acabo esto debemos ser conscientes que debemos seguir un orden para lograr el objetivo propuesto. Selección del tema del proyecto El tema se seleccionó por que actualmente es una tendencia tecnológica, ya que permite poner elementos u objetos virtuales sobre la visión de las personas, y extender la realidad en la que se vive. Si actualmente está dando mucho de que hablar en un futuro será implementado de mejor manera, exprimiendo los beneficios que aporta. Avances en la actualidad de la realidad aumentada La realidad aumentada lleva tiempo constituyendo una de las principales tendencias tecnológicas. Hasta ahora habíamos podido comprobar su potencial en juegos como Pokemon Go o en catálogos online como el de IKEA. No obstante, cada vez son más las marcas y empresas que deciden apostar por esta ciencia con aplicaciones de lo más creativas. La realidad aumentada se utiliza generalmente en los campos del juego y el marketing. La tecnología ha sido considerada, hasta ahora, poco más que una novedad. La mayoría de los dispositivos móviles equipados con navegadores de RA se utilizan para buscar las direcciones de ciertas ubicaciones o para encontrar ofertas en tiendas minoristas locales. Microsoft afirma que sus lentes de RA serán mucho más prácticas, dado que proporcionarán a los que las lleven puestas las herramientas que no se encuentran en los dispositivos móviles. Publico dirigido A el publico que se dirige el proyecto es al publico general, ya que cualquiera puede interactuar con la página si desea entrar si el usuario desea entrar. Sin embargo, por la flexibilidad que se da por el hecho de ser multiplataforma, es especialmente potencial para empresas desarrolladoras o, mejor dicho, para el sector privado. Establecer métodos Para esto tenemos que estar bien instruidos para elegir una técnica que nos facilite el trabajo, en este caso, para desarrollar una pagina web, sobre todo se debe tratar de economizar lo más que se pueda y de la misma manera tenga un desarrollo e implementación eficiente.   Evaluar Para este proceso debemos evaluar diferentes opciones para llegar a un nuevo método en sí, tendremos que pensar bien qué técnicas y qué opciones nos conviene más para el desarrollo del proyecto para que la implementación del código sea lo más eficiente. Definir Se hará una elección de las personas que trabajaran en nuestro proyecto, como programadores, diseñadores entre otros, para que tengan conocimientos de las técnicas que se van a implementar para el desarrollo de la pagina Proceso de desarrollo Para este proceso tenemos que elegir un lenguaje de programación que sea eficaz para el desarrollo de la página y de realidad aumentada, la cual deberá implementar una interfaz amigable con el público. Eliminar las características que no sean esenciales Tenemos que hacer un repaso de la página web y con ello revisar qué características son importantes e indispensables y las que no, se deberán retirar del proyecto para obtener los mejores resultados esperados. Pruebas de la pagina Ya realizado todo lo esencial se deberá empezar a hacer pruebas para verificar que nuestro proyecto no tenga fallas. De llegar al punto de solucionar errores y pasar las pruebas, se procederá a pasar al último paso. Lanzamiento del proyecto Verificando que todo en la página funcione correctamente, se procederá a fijar una fecha de lanzamiento al público.


CONCLUSIONES

La evolución de la tecnología ha permitido poco a poco alcanzar la realidad extendida, y, a medida que vamos alcanzando este sueño, las demandas de programadores especializados en graficación aumenta en grados pocos creíbles. Las empresas encuentran buen futuro en esto, y con ello, pretenden extender los límites que se tiene pensado tendría esta tecnología. Para ello se busca que los nuevos desarrollos sean elaborados de manera multiplataforma para que cualquier dispositivo pueda usarla y acceder a ella sin ningún tipo de restricción tecnológica. Puesto que se desea que el desarrollo sea multiplataforma, se ha alentado que principalmente se implemente una página web en la cual se almacenarán marcadores y localizadores GPS (visto en los antecedentes se puede elaborar, tal como lo hace Pokémon GO® por ejemplo) y entonces así, se podrá acceder desde cualquier dispositivo (móvil, portátil, coches, lentes, etc.), con conexión a internet para acceder al script, el cual contendrá la información y marcadores que almacenen los datos y así poder usarse conjuntamente y extender la realidad a la cual vivimos actualmente. Para ello, se empleará el lenguaje de programación HTML, en conjunto a las librerías y scripts de AR.js y A-Frame (la cual esta última es usada por compañías multimillonarias como Disney para extender la tecnología con la que trabajan actualmente, y así se puede ver el grado de seriedad con la que se realiza este proyecto). De esta forma, se realizará una página web funcional y multiplataforma.
Avila Lopez Brian, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan

DISEÑO Y SIMULACIÓN DE UN INTERCAMBIADOR DE CALOR TUBULAR POR MEDIO DE ANSYS FLUENT.


DISEÑO Y SIMULACIÓN DE UN INTERCAMBIADOR DE CALOR TUBULAR POR MEDIO DE ANSYS FLUENT.

Avila Lopez Brian, Instituto Tecnológico Superior de Ciudad Serdán. Gómez Coronel Leonardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martínez Soto Mauro Osvaldo, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Se presenta una propuesta de  diseño para un intercambiador de calor de tipo tubular, y su simulación empleando el módulo de FLUENT del software ANSYSTM Academic, con la finalidad de corroborar los valores obtenidos para los valores de la temperatura de los fluidos en sus respectivas entradas y salidas al intercambiador de calor. Partiendo de una serie de datos de entrada para un problema de diseño dado, se determina la longitud adecuada para el intercambiador de calor que deberá de ser empleado en este tipo de aplicación, y posteriormente se realiza el diseño en CAD del modelo simplificado del intercambiador de calor con las trayectorias y dominios de los fluidos involucrados. Posteriormente se realiza un mallado adecuado para simulación CFD  y se ejecuta la simulación insertando las condiciones de borde adecuadas para el fenómeno físico, tales como los materiales, modelo de turbulencia seleccionado, tasa de flujo másico para los fluidos, temperaturas de entrada, condiciones y materiales para el muro, etc. La simulación es llevada a cabo por medio del Método del Elemento Finito. A manera de discusión de resultados se realiza la comparación de los resultados obtenidos que fueron obtenidos de la simulación con los cálculos teóricos obtenidos de las ecuaciones que son proporcionadas por la bibliografía. De obtener cálculos lo suficientemente cercanos en ambos casos, podríamos concluir que nuestra  simulación fue llevada a cabo de forma satisfactoria  y de esta forma validar el modelo.  



METODOLOGÍA

El objetivo principal de la investigación consiste en realizar una simulación referente al diseño de un intercambiador de calor de tipo tubular, al cual son aplicables todas las ecuaciones especificadas anteriormente. El primer paso consistió en resolver el problema de diseño por  medios analíticos, empleando las ecuaciones correspondientes al tipo de intercambiador y arreglo de flujo. Se planteó un problema de diseño con datos que pueden ser manejados en el entorno de simulación y, de igual modo, los resultados de esta misma deben de coincidir, o cuando menos, aproximarse en la medida de lo posible a los resultados que fueron obtenidos analíticamente. El problema de diseño a tratar es el siguiente: Un intercambiador de calor a contraflujo de una sola tubería se emplea para reducir la temperatura del agua que se extrae del condensador de un equipo de refrigeración a 80°C hasta 35°C. El agua caliente se extrae a un flujo másico de 0.01 kg/s. Se emplea agua de enfriamiento que está disponible a 20°C y que se bombea al intercambiador de calor a un flujo másico de 0.3 kg/s en una tubería de 50 mm de diámetro, concéntrica y externa a la tubería interna por donde fluye el agua caliente. La tubería interna del intercambiador es de cobre (K = 387.6 ) con un diámetro externo de 1 in (25.4 mm) y un espesor de pared de 2 mm. Asumiendo que el coeficiente de transferencia de calor en la superficie externa de la tubería es de 500 , determinar el valor de la longitud requerida para el intercambiador de calor. Asumir  constante a lo largo de toda la extensión del intercambiador de calor. Con lo cual se concluye que la longitud adecuada para el intercambiador de calor es de aproximadamente 1.47 m, lo cual por simplicidad se redondea a un valor cerrado de 1.5 m. Obteniendo un valor adecuado para la longitud del intercambiador de calor, se procedió al modelado del mismo empleando SolidWorksTM. El modelo obtenido es el que se aprecia en las figuras 9 a 11. Este modelo, conformado por dos sólidos diferentes (uno para el dominio del agua fría y otro para el dominio del agua caliente) fue guardado en un formato de modelo universal de CAD (en este caso, en un modelo tipo PARASOLID), y posteriormente importado a un proyecto nuevo en ANSYSTM Academic, en el módulo de “Geometry”, de donde se importa al resto de módulos que serán empleados para la simulación. El mallado resultante consiste de 50,964 nodos y 212,946 elementos, según el apartado de estadísticas. Un mallado inferior a los 70,000 nodos sería deseable en términos de la potencia computacional disponible.  Una vez que se cuenta con un mallado adecuado, y con las condiciones de frontera con su nombre correspondiente, es posible acceder al módulo de “Fluent” para introducir las condiciones de frontera en la simulación.


CONCLUSIONES

Haciendo referencia a valores anteriormente mencionados, recordemos que los valores de temperaturas a la entrada y la salida para el agua caliente eran de 80  (353.15 ) y de 35  (308.15 ), respectivamente, obtenido el valor a la salida después de la transferencia de calor resultante de la interacción con el agua de enfriamiento a 20 (293.15 ). Según la escala que acompaña al contorno de temperaturas, la temperatura del agua a la salida del intercambiador de calor se encuentra en el rango de entre los 305 a 309  los cuales son lo suficientemente cercanos a los 308.15 que se esperaba obtener por medio de cálculos. De este contorno de temperaturas es posible visualizar y concluir que los resultados calculados son lo suficientemente cercanos a los valores que fueron arrojados por los resultados de la simulación, validando de esta forma el modelo del intercambiador de calor propuesto. De cualquier modo también sería posible hacer que los resultados sean incluso más cercanos a los que son obtenidos de forma analítica realizando un mallado más fino con una mayor cantidad de nodos y elementos a cambio de un mayor recurso computacional invertido en su resolución. De igual forma sería necesario realizar un refinamiento del mallado en ciertas zonas con cambios de sección o curvaturas en las cuales los elementos se encuentran deformados o no cuentan con la perpendicularidad adecuada. Así también, en el apartado de simulación asignar un valor de error más pequeño en los residuales, y una cantidad más elevada de iteraciones podría traducirse en resultados más cercanos a los resultados analíticos.
Ballesteros Burruel Rubén Ángel, Universidad de Sonora
Asesor: Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla

EFECTO DE LAS NANOPARTíCULAS DE TIO2/AG EN LA TERAPIA FOTODINáMICA CONTRA EL CáNCER


EFECTO DE LAS NANOPARTíCULAS DE TIO2/AG EN LA TERAPIA FOTODINáMICA CONTRA EL CáNCER

Ballesteros Burruel Rubén Ángel, Universidad de Sonora. Asesor: Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Según la Organización Mundial de la Salud (OMS) se define al cáncer como la transformación de células normales en células tumorales en un proceso en varias etapas que suele consistir en la progresión de una lesión precancerosa a un tumor maligno. Continuando con información de la OMS, el cáncer es la principal causa de muerte en todo el mundo siendo el pulmonar, hepático, colorrectal, gástrico y mamario los principales. Debido al gran impacto que esta enfermad tiene en el mundo, la búsqueda de tratamientos efectivos y con la menor cantidad de efectos secundarios es de vital importancia. La terapia fotodinámica podría ser una sólida alternativa al tratamiento con radiación debido a que es una terapia mínimamente invasiva y segura. Sin embargo, uno de los componentes principales de la terapia fotodinámica es el compuesto fotosensibilizador. Este debe poseer una elevada pureza, estabilidad, no ser toxico y debe poder ser activado con luz cuya longitud de onda se encuentre en la región infrarroja del espectro electromagnético. El Óxido de Titanio es un semiconductor que presenta propiedades estructurales y ópticas que lo perfilan para ser una buena elección de compuesto fotosensibilizador. El Óxido de titanio es un compuesto inorgánico y biocompatible que presenta una alta actividad fotocatalítica y es un agente fuertemente oxidante. Este compuesto ha sido utilizado en la producción de pigmentos, protectores solares, pintura y pastas dentales, sin embargo, en el área de la salud se puede utilizar como un agente antimicrobiano y recientemente se está estudiando su aplicación en esta terapia.



METODOLOGÍA

Antes de empezar el trabajo con el Oxido de Titanio se atendió a clases de conceptos básicos de cristalografía y ciencia de los materiales. En estas clases se trabajó sobre los conceptos de red cristalina, estructura cristalina, celda unitaria, redes bidimensionales entre otros que resultaron fundamentales durante la estancia ya que estos formaron parte de la vida diaria en la estancia. Después de esta clase, se impartió una clase de conceptos básicos de difracción de Rayos X, así como sus aplicaciones en la ciencia de materiales. Durante esta clase se estudiaron los difractogramas, como se obtienen, la diferencia entre un difractómetro convencional y un sincrotrón, así como la información que se puede obtener con los difractogramas. Después de estas dos sesiones se empezó a trabajar con datos experimentales obtenidos en un sincrotrón (Elettra Sincrotrone beamline DRX1). La primera actividad por realizar fue graficar los datos experimentales y realizar los análisis de los patrones de difracción utilizando Origin Lab. Posteriormente, se realizaron los cálculos del tamaño del cristal utilizando la ecuación de Scherrer y con una modificación de esta. Después de estas dos actividades se realizó una pequeña investigación acerca de las características, propiedades y usos de el Óxido de Titanio y se presentaron los resultados de esta investigación junto con los patrones de difracción obtenidos y los cálculos del tamaño del cristal. Para la visualización de estructuras se utilizó el programa VESTA que permitió observar con mayor exactitud la estructura cristalina, para ello se utilizaron archivos CIF mismos fueron obtenidos de la Crystallography Open Database. Por último, se atendió a un curso para el refinamiento utilizando la herramienta de FullProf. El objetivo de esta sesión fue mostrar a los alumnos el proceso de refinamiento para así poder presentar el refinamiento de una estructura, presentando con resultados el archivo .out y el CIF (Crystallography Information File) de la estructura para así poder continuar con el estudio del material.


CONCLUSIONES

Durante la estancia de verano se aprendieron conceptos básicos de cristalografía, tales como simetría, cristal, celda unitaria, estructura cristalina, parámetro de red entre otros. Durante la duración de este también se aprendió a utilizar software especializado tal como Vesta, utilizado para la visualización de estructuras atómicas, Origin Lab, software especializado en graficación y análisis de datos y por último FullProf, el cual se utilizó para refinamiento de estructuras. Gracias a los resultados arrojados por el difractograma, el Óxido de Titanio dopado con plata presenta las características principales de un buen compuesto fotosensibilizador y se espera que con más estudios relacionados a la caracterización y correlación de datos experimentales y teóricos se confirme como un compuesto viable en la terapia fotodinámica contra el cáncer.
Ballesteros Zamora Nancy, Instituto Politécnico Nacional
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

TEJA HIDROPóNICA A BASE DE PET


TEJA HIDROPóNICA A BASE DE PET

Ballesteros Zamora Nancy, Instituto Politécnico Nacional. Nuñez Rodriguez Valeria Marbell, Universidad de Sonora. Pérez Bistraín Karen Lizeth, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la sociedad se enfrenta a uno de los mayores retos urbanos, el cual consiste en conseguir ciudades más saludables, que favorezcan la inclusión social y la sostenibilidad del medio ambiente. En la actualidad la industria y el medio ambiente están obligados a entenderse; con la búsqueda de materiales alternativos de construcción se pretende reducir el efecto del deterioro hacia el entorno. De acuerdo a la ODS (Objetivos y metas del desarrollo sostenible- Agenda 2030) el objetivo 9 indica que debemos desarrollar infraestructuras resilientes, donde se promueva la industrialización inclusiva y sostenible, que a su vez sea innovadora. Las edificaciones actuales demandan el empleo de prácticas y materiales de bajo impacto ambiental, por lo que, se propone un prototipo de teja hidropónica diseñada para vegetación o huerto a partir del uso de PET y la inserción de agujeros para el cultivo de semillas.



METODOLOGÍA

El proyecto de investigación se desarrolló de forma teórica y a su vez se propuso un modelo de teja ecológica para futuras investigaciones experimentales. La información recabada se basó a partir de artículos científicos, tesis y documentos expuestos en previas investigaciones alrededor del mundo.   De acuerdo a un estudio de factibilidad del uso de PET reciclado en elementos de cubiertas y envolventes en Costa Rica 2016, muestra que el PET a través del proceso de transformación con calor de forma no industrializada con valores de resistencia mecánicas y térmicas del reglamento de construcción, puede ser considerado un nuevo material de construcción para cubierta o revestimientos. La implementación de plásticos reciclados como materia prima da la posibilidad de reducir acumulaciones masivas de estos, dando una mayor resistencia a la degradación de la teja y un costo accesible. Al suponer estos huertos una nueva plantación de especies vegetales se contribuye favorablemente a la absorción de CO2 atmosférico, mitigando la contaminación, absorbiendo partículas de polvo en suspensión y por ende mejorando la calidad del aire. Además, también se ven reducidas las emisiones, puesto que al generar nuevos espacios verdes de ocio, se reduce la necesidad de desplazarse en su búsqueda. (Escobar, 2017) La función de los materiales complementados con desechos PET consiste: que reduzca la acumulación masiva de residuos plásticos, con una mayor resistencia a la degradación, vida útil a largo plazo, que al término de esta sean 100% reciclables para la arquitectura sustentable, y genere un impacto social. Como propuesta al proyecto de investigación, se plantea lo que es un eco-techo, la cual consiste en generar un huerto en tejados de edificaciones urbanas de construcción factible, que consiste en: -Teja ondulada de fibrocemento, colocadas a una inclinación del 30% permitiendo un mayor flujo de caída de agua pluvial como fuente de riego. -Botella de materiales PET de 3 litros, con orificios de separación mínima de la boquilla de 5 cm, permitiendo espacio para su drenaje. -Conjunto de canales de PVC, que conducen el agua de lluvia al área de captación, con el fin de no utilizar sistemas de riesgo adicionales, junto a llaves de paso para regular la presión y garantizar un suministro homogéneo. -Como segunda propuesta se plantea una teja a base de fibras de PET (para que reduzcan los volúmenes de cemento y agregados), cáscara de arroz, cemento, arena y agua. La idea de cultivar hortalizas, vegetales o plantas en la teja proporciona mejores condiciones de confort térmico dentro de los alojamientos, disminuye la humedad y calor radiante. Estos promueven una imagen ambiental al fomentar soluciones locales con beneficios ambientales, sociales y económicos, potenciales para el desarrollo de la sociedad.


CONCLUSIONES

Basado en el contenido tanto teórico como analógico de la información recabada, se observa un punto en común, en el cual se plantea la posibilidad de reutilizar diversos residuos PET, beneficiándose de sus propiedades de composición y deformarlas al diseño de una teja ecológica para huerto urbano lo que permite determinar que el proyecto tiene altas posibilidades de cumplir con las expectativas de alta calidad y hace que el planteamiento de la propuesta sea realizable y que a su vez promueva la industria ambientalmente sostenible. Considerando lo ya mencionado, se ha generado un nicho de oportunidad para que se adopten nuevos sistemas constructivos y se replanteen los beneficios que un área verde propia puede brindar, como: -Reducción térmica interna de edificaciones. -Atenuación de impacto ambiental. -Adaptabilidad en diversos ecosistemas pensando así en los posibles escenarios de la investigación experimental. - Eficiente utilidad de espacio.    
Baltiérrez Cortés Ana Lilia, Universidad de Guadalajara
Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato

ESTRéS TECNOLóGICO EN ESTUDIANTES A DISTANCIA


ESTRéS TECNOLóGICO EN ESTUDIANTES A DISTANCIA

Baltiérrez Cortés Ana Lilia, Universidad de Guadalajara. Quintana González Yansy Corina, Instituto Tecnológico de Toluca. Rocha Alfaro Nancy, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El estrés relacionado con lo académico se conoce como estrés académico. El estrés académico se refiere a las situaciones psicológicas desagradables que ocurren debido a las expectativas académicas de los padres, maestros, compañeros y miembros de la familia. El estrés académico es una angustia mental con respecto a alguna frustración anticipada asociada con el fracaso académico o incluso una conciencia de la posibilidad de tal fracaso. El estrés académico entre los estudiantes ha sido investigado durante mucho tiempo, y los investigadores han identificado los factores estresantes como demasiadas tareas, competencias con otros estudiantes, fracasos y malas relaciones con otros estudiantes o profesores  (Maykel, Deleyer, & Bray, 2018). El concepto de tecnoestrés surge como una respuesta a los efectos perjudiciales de la exposición a las TIC. Su estudio cobra cada vez mayor relevancia debido al aumento de la importancia de las TIC y es considerado como uno de los estresores más importantes en la sociedad actual. De hecho, se ha calculado que una persona que utiliza el ordenador como herramienta de trabajo ejecuta entre 12.000 y 33.000 movimientos de cabeza y ojos, las pupilas reaccionan de 4.000 a 17.000 veces y además se suelen ejecutar unas 30.000 pulsaciones de teclado.  (Chinchilla, 2010).



METODOLOGÍA

Se llevó a cabo la aplicación de un instrumento de recolección de información virtual a 103 estudiantes de nivel superior mayores de 18 años y seleccionados por conveniencia debido a su facilidad de acceso, así como su disponibilidad en participar dentro del estudio. El instrumento se conforma por cuatro bloques relacionados con el estrés, TIC´s, distracciones y utilización de redes sociales. Se utilizó una escala Likert para clasificar las respuestas obtenidas.


CONCLUSIONES

De acuerdo con los resultados obtenidos, el estrés que se presenta en estudiantes se puede ver manifestado en la concentración y atención, es por lo que el 36.9% de los encuestados está totalmente de acuerdo que los niveles de estrés aumentan debido a la sobrecarga de tareas y trabajos ya que el 52.4% concuerda con esta teoría. La falta de motivación en los estudiantes trabajando desde casa también influye mucho en el ámbito académico, ya que el 24.3% está totalmente en desacuerdo porcentaje alto en relación con los que están totalmente en acuerdo que es del 3.9% cifra bastante significativa ya que la motivación es el interés de querer aprender. Por otra parte, Las Tics influyeron de manera una muy positiva pues el 37.9% de los estudiantes notaron que sus niveles de estrés aumentaban ya que el abuso de la tecnología genera sobrecarga mental y dificultades para recordar pensar y descansar.
Bañuelos Ruelas Lizeth Consuelo, Universidad Autónoma de Sinaloa
Asesor: Mg. Sergio Andrés Ardila Gómez, Universidad Autónoma de Bucaramanga

SIMULACIóN COMPUTACIONAL MULTIFáSICA DE LA CáMARA DEL REACTOR DE SíNTESIS DE PéPTIDOS.


SIMULACIóN COMPUTACIONAL MULTIFáSICA DE LA CáMARA DEL REACTOR DE SíNTESIS DE PéPTIDOS.

Bañuelos Ruelas Lizeth Consuelo, Universidad Autónoma de Sinaloa. Flores Rubalcava Mauricio, Instituto Tecnológico de Colima. Asesor: Mg. Sergio Andrés Ardila Gómez, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

Actualmente la síntesis de péptidos forma una parte importante dentro de la investigación farmacológica en el desarrollo de nuevos medicamentos. Dentro de esto se logran encontrar diversas variables que influyen al desarrollar nuevos péptidos como lo son la cantidad de dimetilformamida (DMF), el tiempo de burbujeo con nitrógeno gaseoso (N2), la geometría empleada para la mezcla, entre otras, sin embargo, realizar estas modificaciones representa el desarrollo de diversos experimentos, los cuales son difíciles de implementar no solo debido al tiempo necesario para llevar a cabo dicho experimento sino por los altos costos de los reactivos a utilizar en cada uno de ellos.  Para evitar este tipo de pérdidas, una de las herramientas con la que podemos disponer es la Dinámica de Fluidos Computacional (CFD por sus siglas en inglés), la cual se destaca por la simulación de flujos multifásicos para realizar los cambios de cada una de las variables que juegan un papel importante en la mezcla, de manera que no represente un alto costo tanto económico como de tiempo del personal capacitado. La mayor problemática que se presenta para el buen desarrollo de una simulación es el tiempo y el equipo computacional, ya que para poder conocer el comportamiento más exacto se debe disponer de un buen equipo, además de desconocer variables importantes, por lo que durante el verano de investigación se estudiarán los diferentes modelos multifásicos y se dispondrá de cual es el mejor a implementar con base a las herramientas que se disponen y los resultados esperados.



METODOLOGÍA

Para el desarrollo de la investigación se llevaron a cabo las siguientes actividades paso a paso. Revisión bibliográfica. Inicialmente se realizó una revisión bibliográfica acerca del tema a desarrollar, así como la elaboración del estado del arte del problema a abordar (simulaciones multifásicas de la mezcla de material particulado - líquido y burbujeo con nitrógeno). Obtención de los requerimientos de la simulación del reactor. Por medio de la investigación anterior y al tipo de modelo que debemos emplear, podemos disponer de una búsqueda más específica para conocer el tipo de variables y lo que se busca obtener en el reactor.  Modelamiento CAD del reactor en el software SolidWorks. Implementado el software SolidWorks podemos modelar el reactor en 3D, para posteriormente obtener ese modelo en un archivo con la extensión .igs y poder trabajar en el software ANSYS en donde se realizará sus respectivas simulaciones multifásicas. Obtención del dominio computacional en la suite de SpaceClaim de ANSYS. Una vez obtenido el modelo CAD del reactor, se procedió a realizar el dominio computacional en 2D debido a que éste requiere de menor costo computacional, posteriormente en la suite de DesignModeler se señalaron las condiciones de fronteras que dispone el reactor. Generación del mallado del dominio computacional en la suite Meshing de ANSYS. En la suite Meshing se realizó el mallado del dominio computacional mediante el método Multizone en la cual se obtuvo una malla con elementos cuadriláteros, esto para reducir aún más el costo computacional, ya que este tipo de elementos tiene como ventaja contar con menos elementos en comparación a los tetraédricos, mejor solución y buena precisión, en general una malla más eficiente. Adecuación del caso computacional en la suite de Fluent aplicando los modelos de turbulencia en estado transitorio y los modelos multifásicos Euler - Granular y VOF (Volumen Of Fluid). Para el caso de la simulación se utilizó el modelo de turbulencia k-épsilon ya que es uno de los modelos de turbulencia más utilizados en la industria. En conjunto con el modelo multifásico Euler - Granular para poder observar el comportamiento de las partículas en el fluido (DMF) de una manera gráfica y el modelo multifásico VOF para poder observar el comportamiento del gas cuando es inyectado por un medio poroso en el fluido (DMF) y así poder conocer la física en el dominio. Realizar la simulación del caso computacional previamente establecido. Para esto se establece que 10e-4 será el criterio de convergencia usado para los residuos de las ecuaciones de transferencia empleadas en las simulaciones CFD, asegurando que el modelo converja adecuadamente. Realizar informe del post-procesamiento de los resultados. Se realizó el post - procesamiento de los resultados en CFD-Post, en la cual se llevó a cabo la visualización de los resultados. Se obtuvieron imágenes y animaciones para visualizar de mejor manera la mezcla del material particulado (resina) con el DMF, así como el comportamiento de las burbujas de nitrógeno, en las cuales se mostraban los campos de velocidad y el seguimiento de partículas. Además, se extraerán los resultados para un próximo procesamiento con diferente mallado.


CONCLUSIONES

Gracias a esta estancia de verano se logró adquirir conocimientos teóricos y prácticos de las simulaciones CFD en ANSYS, como mejorar y realizar buenas prácticas para un mejor procesamiento de los resultados, sin embargo, al ser un tema extenso y al depender de los resultados físicos para poder encontrar el modelo de turbulencia adecuado, el mallado adecuado, el modelo multifásico que más se adapte y el filtro poroso que disponga de la física más acertada a la realidad, ésta investigación queda en una etapa de desarrollo encontrándose en la etapa 1, ya que los resultados mostrados sí muestran el comportamiento en el dominio pero aún se desconoce si las variables de velocidad sean las correctas en cuanto a la realidad del reactor. Se espera que con los resultados de laboratorio y con todas las variables físicas medidas exactas, se pretenda una mejor obtención de resultados y una mayor resolución en cuanto a la simulación.  Podemos concluir que estos resultados son el punto de partida para las siguientes simulaciones e investigaciones, por lo que se espera mejores resultados en menor tiempo.
Barajas Vargas Dulce Odaliz, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Andrés Garzón Valencia, Universidad del Valle

MEDICION DE DIFERENTES CARACTERISTICAS DEL AGUACATE CON SENSORES DE BAJO COSTO


MEDICION DE DIFERENTES CARACTERISTICAS DEL AGUACATE CON SENSORES DE BAJO COSTO

Barajas Vargas Dulce Odaliz, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Andrés Garzón Valencia, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Empezando buscando una opcion viable para la poblacion de la ciudad donde radico, pues todo a mi alrededor esta relacionado con el aguacate. 



METODOLOGÍA

Comenzamos investigando lo relacionado con el aguacate, debido a que existen diversas especies del fruto, por lo tanto en cada uno de ellos debe de haber un uso diferente. Para lo cual se debia de tener toda la informacion necesaria de cada especie por ejemplo : plagas humedad tamaño del arbol tamaño de la fruta ambiente  una vez hecho esto se prosigio a investigar sensores que aplicaran en todos los tipos.


CONCLUSIONES

Los resultados obtenidos fueron meramente teoricos, pues llegamos a la conclusion que debe de llevar cada especie caracteristicas definidas por el usuario dentro del sensor . Asi, se hay mas alto nivel de efectividad y menos margen de error. 
Bartolo Flores Almanelly, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Post-doc Luz Marina Flórez Pardo, Universidad Autónoma de Occidente

INVESTIGACIóN DE BIOMATERIALES A BASE DE "QUITOSANO" Y SUSTANCIAS O ELEMENTOS DE BARRERA AL VAPOR DE AGUA.


INVESTIGACIóN DE BIOMATERIALES A BASE DE "QUITOSANO" Y SUSTANCIAS O ELEMENTOS DE BARRERA AL VAPOR DE AGUA.

Bartolo Flores Almanelly, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Post-doc Luz Marina Flórez Pardo, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

1. Resumen (Biomateriales a base de "Quitosano") El quitosano (CTS) es uno de los biopolímeros biocompatible, biodegradable y no tóxico, más estudiados en el mundo. Es el derivado principal de la quitina; el segundo polisacárido de mayor abundancia en la biosfera después de la celulosa, es soluble en soluciones acuosas de algunos ácidos y tiene un amplio espectro de aplicaciones. Sus propiedades fisicoquímicas lo han vuelto objeto de estudio de una gran cantidad de investigadores, su estructura molecular permite variadas modificaciones tanto mecánicas como químicas, de las que se pueden obtener propiedades que vislumbran un sin número de nuevos desarrollos enfocados en su gran mayoría a los biomateriales. 2. Sustancias o elementos de barrera al vapor de agua.                        Una barrera de vapor es cualquier lamina o material que ofrezca gran resistencia al paso de vapor de agua o condensaciones intersticiales. Resulta un método muy efectivo y barato. Los materiales de empaque proporcionan protección física y crean las condiciones fisicoquímicas apropiadas para proporcionar una vida útil adecuada.



METODOLOGÍA

1. Algunas de las aplicaciones reportadas hasta la fecha son Preparación y caracterización de geles conductores a base de quitosano para posibles aplicaciones biomédicas, Materiales macroporosos biodegradables basados en quitosano para la ingeniería tisular, Materiales macroporosos biodegradables basados en quitosano para la ingeniería tisular, Compuestos de quitosano/nanopartículas de Ag: conductividad y mecanismos de relajación y su relación con sus propiedades macroscópicas, Quitina y quitosano: materiales del pasado para el presente y el futuro, Síntesis y caracterización de un novedoso biomaterial a base de quitosano modificado con aminoácidos; por ejemplo, los geles poliméricos tienen un rango amplio de aplicaciones biomédicas incluyendo su uso para el crecimiento de tejidos, la liberación controlada de fármacos, la inmovilización de enzimas, capacidad para almacenar agua en su interior, producción de gasas y vendajes tratados con quitosano, cremas bactericidas para el tratamiento de quemaduras, captura de metales pesados y pesticidas en soluciones acuosas. Algunos copolímeros de injerto del quitosano muestran alta efectividad para remover metales pesados, especialmente los derivados de ácidos alquenodióicos. El quitosano (CHT) se obtiene a partir de la quitina a través de un proceso de desacetilación, llevado a cabo en soluciones básicas concentradas, que puede ser total o parcial. El quitosano (CHT) se obtiene a partir de la quitina a través de un proceso de desacetilación, llevado a cabo en soluciones básicas concentradas, que puede ser total o parcial. Los compuestos de CTS/AgnP’s fueron obtenidos en forma de películas por el método de evaporación del solvente, las nanopartículas se dispersan inicialmente con agitación mecánica y posteriormente con ultrasonido., esto en nanoparticulas de Ag. De pendiendo de la aplicación se obtendrán diferentes resultados, por ejemplo, en algunos casos aumentaran sus propiedades como es acción antibacteriana, baja toxicidad, solubilidad. 2. El objetivo de esta investigación es dar a conocer algunos posibles elementos que cumplan con las características de permeabilidad al vapor de agua. Recientemente, la industria ha propuesto incorporar nanocompuestos a películas que se degraden en un periodo corto, sin causar problemas medioambientales, algunas de estas películas pueden ser películas de polietileno ya que estas tienen muy buenas propiedades aparte de la permeabilidad al vapor como es buena resistencia química antes las sales, hidrocarburos; otro ejemplo de gran relevancia es en la industria alimentaria utilizando almidón nanoestructurado, que pueda servir de empaque para aumentar la vida útil de los alimentos, sin afectar el medio ambiente. Los efectos del almidón nanoestructurado sobre las propiedades físicas y estructurales de una película comestible fueron estudiados en términos de espesor, solubilidad en agua, difusión, permeabilidad al vapor de agua (PVA), velocidad de transmisión de vapor de agua (VTVA) y comparados a las películas de almidón nativo. Así como los sistemas de membranas han sido una tecnología atractiva aplicada a procesos de separación de gases, estos sistemas son atractivos comparados con otros métodos de separación porque son modulares, simples, de bajo costo, operables a condiciones atmosféricas, de dimensiones moderadas y bajos consumos de energía. También se estudiaron las propiedades ópticas y la permeabilidad de vapor de agua (PVA) de películas biodegradables hechas a partir de dos variedades de almidón termoplástico de yuca nativo e hidrolizado, ácido poliláctico y policaprolactona. Las películas se obtuvieron por medio de un proceso de extrusión y se le evaluaron propiedades durante 1, 8, 60 y 120 días. La PVA durante los 120 días estuvo entre 2,18 x 10-11 y 9,12 x 10-11 g/Pa*s*m. Este tipo de películas son aptas para ser utilizadas como barrera al vapor de agua ya que inicialmente tienen una baja PVA y al transcurrir el tiempo tienden a ser menos permeables.


CONCLUSIONES

1. El quitosano es un copolímero lineal conformado por dos monómeros, el 2-Acetilamina-2-desoxi-B-D-(+)-Glucopiranosa y el 2-amino-2-desoxi-B-D-Glucopiranosa. Sus grupos amino lo convierten en un polielectrolito catiónico y le confieren un comportamiento particular. Queda establecido entonces, que el quitosano es un material el cual es de gran relevancia y con grandes propiedades, y que su densidad de carga a lo largo de su cadena se incrementa con el incrementó del grado de desacetilación. Su estructura química lo convierte en un biopolímero con un amplio rango de aplicaciones, que vislumbran un panorama de nuevos desarrollos científicos y de nuevas oportunidades de negocios, que no deben ser pasadas por alto. 2.En consideración y con ejemplos retomados de diversas investigaciones se considera que el almidón es uno de los materiales más investigados y empleado para las aplicaciones como elemento de barrera al vapor de agua, esto gracias a sus excelentes propiedades como es la baja absorción de agua, menor espesor, bajos valores de la solubilidad en agua y en el coeficiente de difusión.
Bautista Pérez Jesus Miguel, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

OBJETIVOS DEL DESARROLLO SUSTENTABLE 2030 EN LA PLANEACIóN DE DESARROLLO MUNICIPAL: TAMPICO, TAMAULIPAS, MéXICO


OBJETIVOS DEL DESARROLLO SUSTENTABLE 2030 EN LA PLANEACIóN DE DESARROLLO MUNICIPAL: TAMPICO, TAMAULIPAS, MéXICO

Bautista Pérez Jesus Miguel, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

En la Cumbre para el Desarrollo sostenible, que se llevó a cabo en septiembre de 2015 los estados miembros de la ONU aprobaron la Agenda 2030 para el Desarrollo Sostenible, que incluye un conjunto de 17 Objetivos de Desarrollo sostenible (ODS) para poner fin a la pobreza, luchar contra la desigualdad y la injusticia, y hacer frente al cambio climático, el Objetivo número 12.- Consumo Responsable y Producción enuncia que Para lograr crecimiento económico y desarrollo sostenible, es urgente reducir la huella ecológica mediante un cambio en los métodos de producción y consumo de bienes y recursos.Se analizó al  Plan Municipal de Desarrollo 2018-2021: El futuro somos todas y todos del municipio de Tampico, Tamaulipas publicado en el periódico oficial de Gobierno del Estado en ciudad Victoria, Tam., lunes 28 de enero de 2019, para garantizar la coherencia, cuenta con cinco Ejes estratégicos de desarrollo municipal. Es en el II. Desarrollo y Gestión Urbana Sostenible, Eje que se orienta a la proyección y visión programática de la gestión de la ciudad y su vinculación con el desarrollo sostenible, con el fin de lograr una ciudad productiva, inclusiva, equitativa, segura y ambientalmente saludable para hacer posible satisfacer las necesidades y demandas presentes y futuras .Planteando como  Objetivo General: Correlacionar  la Agenda del Desarrollo Sustentable 2030, respecto al objetivo 12.- Consumo Responsable y Producción,  y su alineación estratégica con el eje II de Desarrollo y Gestión Urbana Sostenible del Plan de Desarrollo Municipal de Tampico, administración 2016 - 2022,  a fin de evaluar la Sustentabilidad Ambiental en la Gestión Integral de los Residuos Sólidos Urbanos.  



METODOLOGÍA

A lo largo de las siete semanas de duración de la estancia de investigación virtual por motivos de la Pandemia, en el diseño de la estrategia del diagnóstico a realizar en la línea de investigación Se enuncia a continuación, fundamentado en seis grandes rubros:  Utilización y Apoyo de Tecnologías de Información, por medio de la planeación y organización de reuniones virtuales en Zoom, por parte del Asesor - Investigador en Temáticas de: a).- Concepto  y Tipos de Investigación, b).- Estructura de Protocolos, c).- Medioambiente y Desarrollo Sustentable, d).-Gestión Ambiental, e).- Planeación Ambiental y f).- Objetivos del Desarrollo Sustentable 2030; así como comunicación directa vía llamada telefónica al celular del Asesor - Investigador, mensajes vía WhatsApp, intercambio de información por medio de correos electrónicos institucionales, entre otros. Se facilito por parte del Asesor - Investigador información en documentos PDF, de las Temáticas para lectura, análisis y exposición por parte del estudiante, respecto a la conceptualización de la línea de investigación a desarrollar. Planteamiento de la Estructura y conformación para su análisis de los apartados a desarrollar en el Informe del Diagnóstico Ambiental Acopio, análisis y reflexión en los apartados de introducción, antecedentes y descripción de los rasgos físicos, biológicos y socioeconómicos de la zona en estudio, vinculada a la línea de investigación por realizar. Acopio y análisis de Información estadística especializada en la línea de investigación para redacción e integración del Informe. Estudio comparativo de las Estrategias y Líneas de acción del Plan de Desarrollo Municipal, con respecto al Objetivo número 12.- denominado: Consumo Responsable y Producción, que forma parte de los 17 Objetivos del Desarrollo Sustentable 2030.


CONCLUSIONES

Como resultados del diagnóstico Municipal del territorio, se enuncia que Tampico es uno de los 43 municipios de Tamaulipas, se localiza al sureste del estado y colinda al norte con el estado de Veracruz de Ignacio de la Llave y el municipio de Altamira; al este con el municipio de Ciudad Madero y el estado de Veracruz de Ignacio de la Llave y con este último estado, colinda también al sur y al oeste. Tampico cuenta con una extensión territorial de 113.31 kilómetro s cuadrados que representa 0.14% del territorio estatal. a). - Población, Tampico cuenta con 314, 418 habitantes de los cuales 51.9% son mujeres y 48.1% son hombres. La población del municipio representa 9.1% de la población estatal y ubica a Tampico como el cuarto municipio con mayor población en Tamaulipas.  b).-Servicios Públicos, El Índice de Desarrollo Humano (0.9050),con Servicios de Tampico indica que 99% de la población en las viviendas particulares dispone de tres servicios básicos: electricidad; agua entubada, así como de algún tipo de drenaje conectado a la red pública, fosa séptica, con desagüe a grieta o barranca y con desagüe al río, lago o mar. c). - Eliminación de los residuos en el municipio, la Encuesta Intercensal de 2015 revela que noventa de cada cien viviendas particulares habitadas entregan sus residuos al servicio público de recolección y la cobertura de este servicio es mayor en el municipio que a nivel estatal. Nueve de cada cien tiran sus residuos en el basurero público o lo colocan en depósitos o contenedores mientras que una de cada cien viviendas quema, entierra o tira sus residuos en otro lugar diferente a los mencionados. Sustentados en la información estadística, y el análisis del Plan de Desarrollo Municipal, resultado de la primera fase de acopio y la segunda del análisis e interpretación, concluimos parcialmente lo siguiente: Es una práctica común en el municipio no separar los residuos en orgánicos e inorgánicos, dado que el 73.87% de los ocupantes de las viviendas que entregan los residuos al servicio público de recolección o los colocan en un contenedor no lo hace. El municipio cuenta con 35 camiones recolectores de basura para el servicio de la comunidad, sin embargo, se cuenta con una eficiencia del 75% en el servicio, 5 de los camiones se encuentran en el taller.   Dejando de manifiesto por parte del estudiante y con el Apoyo del Asesor - Investigador, de continuar con el proceso de investigación a corto plazo, el cual contribuya en su proceso de titulación como tesis de Licenciatura.
Bautista Santos Diana Laura, Universidad Autónoma de Guerrero
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

FUNCIONAMIENTO HIDRÁULICO EN LA CUENCA DEL RÍO GRANDE DE MORELIA


FUNCIONAMIENTO HIDRÁULICO EN LA CUENCA DEL RÍO GRANDE DE MORELIA

Bautista Santos Diana Laura, Universidad Autónoma de Guerrero. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las inundaciones son un fenómeno natural que a lo largo de la historia se han presentado en diversas partes del mundo, afectando las condiciones de vida de la población, éstas se convierten en un problema cuando involucran asentamientos humanos o zonas de actividad productiva, porque es entonces cuando quedan expuestos los habitantes y las propiedades. Las secuelas de las inundaciones se ven manifestadas tanto a corto, como a largo plazo, provocando cambios irreversibles en las estructuras económicas, sociales y en el medio ambiente. El desbordamiento de ríos es una de las principales causas de las inundaciones en México, tal es el caso del río Grande que cruza la capital del estado de Michoacán, el cual debido a la gran cantidad de gasto acumulado y aunado a la poca capacidad de desalojo por la disminución en el área hidráulica del cauce del sistema del río, es la causa de las consecutivas inundaciones que padece la ciudad de Morelia. A pesar de los esfuerzos que se han realizado hasta la actualidad, los resultados no han sido suficientes para erradicar el problema, es por ello que a través de esta investigación se pretende aportar con el funcionamiento hidráulico de dicho río, con la finalidad de conocer la capacidad hidráulica del mismo para diferentes periodos de retorno, de tal manera que pueda ser empleado para la elaboración de futuras obras hidráulicas de retención que contribuyan en la solución del problema.  



METODOLOGÍA

  Para conocer el funcionamiento hidráulico del Río Grande se consideraron tres etapas: Esquema de simulación, calibración y validación, las cuales se desarrollaron en el programa Hec-Ras, y un proceso se realiza en ARCGIS. Los gastos empleados para la modelación y la calibración, fueron obtenidos de Mendoza (2018), y los gastos proporcionados por la CONAGUA del vertedor de la presa de Cointzio. Para obtener la geometría del cauce (Planta topográfica, secciones transversales y pendientes), se basó en un levantamiento topográfico realizado en la zona de estudio. La geometría se realizó mediante el Software de Sistema de Información Geográfica ArcMap (ArcGIS) versión de prueba, a través de la extensión HEC-GeoRAS. Tanto el río, como los banks y flowpaths fueron dibujados en base a la topografía de la zona, seleccionando en el menú de HEC-GeoRAS la creación de la capa correspondiente a cada uno en la herramienta de Create Ras Layer, para posteriormente crear la edición sobre el TIN generado. Las secciones se generaron a partir de la herramienta construct xs cutlines de la extensión HEC-GeoRAS, posteriormente se editaron aquellas que debido a que el río no presenta el mismo ancho sobrepasaban o no alcanzaban a tocar los márgenes del río. Con base en la planta topográfica es posible conocer el perfil del cauce y calcular la pendiente mediante el método de Taylor-Schwarz, la cual es de suma importancia para llevar a cabo el proceso de modelación hidráulica ya que se utiliza al ingresar las condiciones de contorno al programa Hec-Ras. Para la determinación del coeficiente de Manning, se utilizó el libro de Ven Te Chow (1994), con el cual tomando en cuenta las características del fondo y margen de río, se asignó el coeficiente correspondiente a la zona. Para la modelación hidráulica del Río Grande de Morelia, se empleó el software Hec-Ras en régimen permanente. Una vez exportada la geometría elaborada en ARCgis al programa HEC-RAS, y conociendo los gastos a modelar, se realiza la simulación de acuerdo al régimen establecido. Se consideran dos condiciones de contorno: Los límites agua arriba y los límites aguas abajo. La condición de contorno con la que se realizó la modelación, calibración y validación del modelo hidráulico en el software Hec-Ras, fue la de Tirante Normal. En cuanto a la calibración, la cual sirve para aproximar la modelación matemática a la realidad, se realizó con los datos obtenidos de gasto actual y tirante del espejo de agua. La calibración consiste en un ajuste del coeficiente de Manning, en el cual el tirante calculado por el programa Hec-Ras se iguala al tirante medido en campo, simplemente proponiendo distintos valores de número de Manning cercanos a la propuesta, para posteriormente poder validar la modelación. Una vez calibrado el modelo hidráulico en el software Hec-Ras, se llevó a cabo el proceso de validación, tomando en cuenta la igualación del gasto modelado y el gasto calculado con el modelo en Hec-Ras.    


CONCLUSIONES

  Con base en el análisis del funcionamiento hidráulico realizado se concluye que: La capacidad hidráulica máxima que presenta el río Grande de Morelia para los periodos de retorno analizados (100, 200 y 1000 años), es menor a los 21 m³/s, ya que de acuerdo a los resultados obtenidos, sobrepasando la capacidad mencionada es cuando se comienzan a generar los problemas de inundación en diferentes áreas de la ciudad de Morelia. Como medidas de solución a la problemática de inundación que padece la ciudad de Morelia, tomando en cuenta los resultados del funcionamiento hidráulico realizado y las características del río, se propone lo siguiente: Desazolve del cauce del río. Construcción de Bordos marginales. Identificación y corrección de constricciones en el Río Grande, CONAGUA (2011). Retención de sedimentos sobre el cauce aguas arriba.
Bautista Uribe Juanita, Universidad Antonio Nariño
Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango

INTERVENCIóN DE LOGíSTICA Y CADENA DE SUMINISTRO EN EL DESARROLLO DE UNA GRANJA ACUíCOLA


INTERVENCIóN DE LOGíSTICA Y CADENA DE SUMINISTRO EN EL DESARROLLO DE UNA GRANJA ACUíCOLA

Alvarado Cravioto Gustavo, Instituto Tecnológico Superior de Huauchinango. Bautista Uribe Juanita, Universidad Antonio Nariño. Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El proceso de acuicultura en distintas regiones de México, ha desarrollado diversas técnicas operativas que permiten producir alimentos nutritivos aprovechando al máximo los recursos acuáticos, cada una de las actividades operacionales se desarrollan dentro de un contexto cerrado o abierto , utilizando conocimientos que se derivan de distintas ciencias, siendo la Ingeniería Industrial un campo de oportunidades que permite desarrollar distintas herramientas en pro de la mejora continua de la piscicultura (herramientas lean manufacturing (VSM, sistema andon, 5´s), método húngaro) . La piscicultura es uno de los ambientes con mayor aprovechamiento natural, el cultivo acuático de distintos cardúmenes de peces permite la alimentación de poblaciones enteras, que basan su dieta en la ingesta diaria de este alimento, siendo la especie conocida como trucha arcoíris la que se posiciona como una de las de mayor consumo. Los altos requerimientos alimenticios solicitan niveles logísticos que aseguren la entrega de pedidos en tiempo y forma, mediante el diseño de una cadena de suministro optima que involucre a todas las partes que conforman de manera directa o indirecta las actividades de flujo de información para el abastecimiento de la cadena de valor, planeando y controlando el flujo del almacenamiento del producto, así como la valoración de los procedimientos productivos que van desde el punto de origen hasta el punto de consumo. La presente investigación diseñó la cadena de suministro de una granja acuícola, caracterizando todos sus procesos logísticos e identificando los nodos y actores que componen la red, a partir de una metodología descriptiva aplicada, propendiendo ser una alternativa innovadora en la agroindustria desarrollando infraestructuras con la capacidad de adaptarse a los resultados positivos y fomentando la innovación (industria, innovación e infraestructura)



METODOLOGÍA

FASE 1) A través de un instrumento de recolección de información primario, se identificaron los posibles proveedores y actores de la cadena de suministro de la granja acuícola: se aplicó un proceso de investigación descriptiva que permitio la recolección de datos estadísticos para seleccionar a los proveedores que manejaban un nivel logístico superior al 0.70, buscando el aseguramiento de calidad y tiempos de entrega en un intervalo de tiempo que no excediera los 8 días establecidos como política interna, de igual manera se aplicó la observación directa a metodologías de piscicultura ya existentes, detectando los principales cuellos de botella para la implementación de herramientas Lean Manufacturing. FASE 2) Se diseñó el modelo estableciendo la relación de interacción de los actores inmersos en la red, diseñando y aplicado 3 herramientas Lean Manufacturing: Herramienta 1) VSM: mapeo del proceso para la detección de actividades productivas y actividades que representaba restricciones dentro de la cadena de suministro. Herramienta 2) Sistema Andon: Sistema de alerta y código de colores que permitio un sistema de comunicación fluido entre el área de sanitización y el área de producción de la granja acuícola. Herramienta 3) Metodología 5 ´s: se implementó como una herramienta de contención en el área que presentaba la principal restricción del proceso, buscando generar un proceso fluido y disminuyendo notablemente el tiempo de la operación mencionada.


CONCLUSIONES

Conocimiento del proceso de acuicultura de la región y las zonas de influencia de la infraestructura para el desarrollo de la granja, mediante el diseño de un modelo de cadena de suministro optima, seleccionando a los proveedores conforme al nivel logístico , usando la herramienta VSM para la documentación de la cadena de valor, aunado a la implementación de herramientas Lean Manufacturing para la eliminar las principales restricciones del proceso, asignando las de rutas de distribución del producto mediante el uso del método húngaro.
Bazán Ramírez Sergio Yael, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS Y CARACTERIZACIóN DE UN CATALIZADOR TRIMETáLICO PARA LA REACCIóN DE HIDRODESULFURACIóN.


SíNTESIS Y CARACTERIZACIóN DE UN CATALIZADOR TRIMETáLICO PARA LA REACCIóN DE HIDRODESULFURACIóN.

Bazán Ramírez Sergio Yael, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El petróleo ha sido considerado durante años el combustible más importante, contribuyendo a las sociedades tanto a su crecimiento interno como externo. Sin embargo en los últimos años, se ha estudiado el impacto ambiental de los productos derivados del petróleo crudo. Los altos contenidos en contaminantes como azufre, nitrógeno, oxígeno y metales, unidos a la alta viscosidad, indican la necesidad de un tratamiento adecuado para su disminución. Actualmente en México la norma correspondiente (NOM-026-SEMARNAT-SENER-SCFI-2005) establece que los contenidos de azufre en combustibles como la gasolina y el diésel deben ser menores a 30 ppm y 15 ppm respectivamente. Uno de los mayores problemas que conlleva un alto contenido de azufre en los combustibles, es una importante formación de óxidos de azufre (SOx), compuestos precursores de la lluvia ácida, con el fin de evitar la formación de dichos compuestos y mantenerse al margen de cualquier posible sanción establecida en las normas, durante el verano de investigación se estudian las síntesis, caracterización y aplicación de catalizadores trimetálicos para la hidrodesulfuración.



METODOLOGÍA

Para la síntesis del catalizador de sulfuro de RuFeMo soportado en sílice, se emplea la sulfuración de óxidos metálicos, utilizando como sales precursoras RuO2, FeO y MoO3, por medio del método de impregnación se añade al soporte (SBA 16). Los soportes impregnados se secan a una temperatura de 100°C, eliminando el contenido de agua proveniente de la impregnación. La muestra se enfría a temperatura ambiente, para continuar con la calcinación. En la activación del catalizador se emplea la sulfuración, con el fin de cambiar los óxidos a sulfuros metálicos. El catalizador se sulfura mediante una mezcla de 15% H2S/ 85% H2 a presión atmosférica y a 500°C, en un horno tubular durante 2 h. La muestra se enfría a temperatura ambiente bajo flujo de N2. Se caracteriza el catalizador obtenido para conocer sus características mediante distintas técnicas como lo son Fisisorción de N2, Reducción a temperatura programada, Desorción de amoniaco a temperatura programada, Espectroscopia de reflectancia difusa UV-Vis, Microscopía electrónica de transmisión y Difracción de rayos X. En la Fisisorción de N2 las muestras necesitan ser preparadas mediante la desgasificación, para realizar este procedimiento se somete la muestra a una combinación de condiciones necesarias. La desgasificación de las muestras requiere un vacío mínimo de 10-4 mmHg y un aumento de la temperatura 150°C (mientras más alta sea la temperatura, mayor será la velocidad de la desgasificación, sin embargo se debe cuidar que la temperatura no afecte las propiedades físicas del catalizador), para determinar el área superficial y la distribución de tamaño de los poros, mediante la obtención de una isoterma de adsorción característica. La reducción de temperatura programada se lleva a cabo mediante un gas reductor y un gas inerte que fluyen a través del sólido (10% de H2 en Ar), con un flujo de 40 ml/min, acompañado por un cambio de temperatura programado desde 10°C hasta una temperatura final de 1000°C. Antes de la reducción las muestras de catalizador se calientan a una temperatura de 1000 °C aproximadamente durante 2 h bajo un flujo de He para eliminar el agua y otros contaminantes, después los catalizadores son enfriados a temperatura ambiente bajo el mismo flujo de He. La desorción de NH3 a temperatura programada, permite estudiar la cantidad de sitios ácidos y distinguir la naturaleza de los sitios ácidos del catalizador. Para llevarse a cabo primero se trata la muestra mediante un secado en flujo de He a 80°C durante 1, se deja enfriar para posteriormente saturar con una corriente de NH3 al 5%/He a un flujo de 40 ml/min durante 0.5 h. El NH3 es desorbido usando una velocidad de calentamiento de 25°C/min hasta 650°C. La difracción de rayos X, permite identificar los planos atómicos en estructura cristalina, dependiendo de la distancia del ángulo de difracción para cierta longitud de onda. Para realizar esta técnica de caracterización se hace un barrido por pasos (tamaño de paso 0.02°; 2 s) con un difractómetro computarizado, utilizando radiación CuKa (λ = 0.15406 nm) filtrada con Ni y un monocromador de grafito. La espectroscopia de reflectancia difusa UV-Vis permite determinar la energía de borde y también indicar el grado de dispersión del metal coordinado, para llevarse a cabo los espectros se registran en el rango de 200-900 nm a temperatura ambiente utilizando un espectrómetro equipado con integración esférica.  Para realizar las pruebas catalíticas, la reacción de hidrodesulfuración de DBT se lleva a cabo en un reactor discontinuo de alta presión. El catalizador sulfurado se tritura en un mortero hasta obtener un polvo fino y se introduce en el reactor que contiene DBT disuelto en hexano. El reactor se presuriza a 800 psi con H2 y se calienta hasta 350°C a una velocidad de 6°C/min. La velocidad de agitación de la mezcla de reacción es de 700 rpm. Una vez alcanzadas las condiciones de trabajo, se realiza el muestreo para un análisis cromatográfico en el que se evalúa la conversión en un tiempo dado. El tiempo total de reacción considerado es aproximadamente 5 h, por lo que las muestras para el análisis se toman en intervalos de 15 min, después de la primera hora se toman cada 30 minutos. El cromatógrafo para realizar los análisis esta provisto con una columna de 12 pies, con un contenido de 3% de OV-17 como fase de separación en WAW 80/100.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la reacción de hidrodesulfuración, catalizadores más utilizados en dicha reacción, así como la síntesis y técnicas de caracterización de los mismos. Dadas las situaciones actuales no fue posible realizar la experimentación de forma presencial, sin embargo en cuento las condiciones lo permitan se espera continuar con el desarrollo de este trabajo en laboratorio.
Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Marianella Bolivar Carbonell, Universidad de la Costa

ESTRUCTURAS EóLICAS OFFSHORE


ESTRUCTURAS EóLICAS OFFSHORE

Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Marianella Bolivar Carbonell, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Como humanidad hemos aprendido de los conocimientos adquiridos mediante la observación, experimentación y los errores la manera de simplificar y solucionar problemas a fin de satisfacer nuestras necesidades respectivas para un desarrollo de vida elevado. Éste proyecto involucra sectores que impulsan el desarrollo sostenible para el crecimiento de la sociedad. Es decir, tiene enfoques específicos con respecto a la economía, política, energía, desarrollo e innovación. Las energías renovables están tomando un papel importante para la disminución de agentes contaminantes, así como la estabilidad de los recursos energéticos. Somos testigos de las consecuencias de la sobreexplotación de recursos no renovables los cuales por su gran demanda y tratamiento en exceso provocan un desequilibrio en los ecosistemas y con ello un cambio climático que pone en riesgo la habitabilidad de distintas especies entre ellas la de nosotros. La energía eólica, obtenida por el viento, es un tipo de energía cinética producida por el efecto de las corrientes de aire.  Eje principal del proyecto en curso dirigido por la M. Marianella Bolívar Carbonell, con la vertiente que se desarrolla en el mar.



METODOLOGÍA

Fue necesario comenzar a empaparme de información al respecto de las energías marítimas, ya que se encuentra dentro de este entorno y ecosistemas. De ahí surge la necesidad de promover y apuntalar a Colombia en el desarrollo de tecnología sostenible por medio de la investigación científica. Es por ello, que lo primero en lo que nos enfocamos por hacer fue una plataforma (página web) sobre la Red de Energía Marina de Colombia, con el fin de informar, compartir y expresar los avances y desarrollos que han tenido las investigaciones sobre las líneas estratégicas de la red, áreas donde distintos investigadores de diversas universidades e instituciones generan un impacto para poder explotar los recursos renovables. Adentrado a la cuestión de las energías marinas, nos enfocamos al área en donde se desenvuelve la investigación en la que trabaja la asesora. La línea estratégica de viento, introduce un mundo de posibilidades para la generación de energía a menor costo, sin tanto impacto ambiental, generando empleos y alternativas para el aprovechamiento de las corrientes de aire por medio de estructuras offshore. Mediante la utilización de turbinas eólicas y un transformador se convierte la energía cinética en energía eléctrica. Podemos hacer una clasificación para la instalación de estas turbinas en dos grupos: con cimentación fija y flotantes. Al referirnos al primer sector, turbinas con cimentaciones fijas, son estructuras montadas sobre el suelo marino en las cuales podemos encontrar; base de gravedad, monopilote, jacket, combinación base de gravedad con pilotes, múltiples pilotes, trípode, entre otros. Comúnmente es utilizada éste tipo de categoría ya que genera un costo menor y es más cercano a la costa, ya que está limitado a un máximo de 50 metros de profundidad para su debida instalación. Las estructuras flotantes, en cabio aprovechan que hay más energía disponible en alta mar que más cerca de la costa. Su clasificación es en función del sistema de anclaje al fondo marino; monopilar flotante o spar, plataforma semisumergible y plataforma de apoyo en tensión (TLP). Es importante mencionar que este tipo de estructuras tiene un alto costo, pero al mismo tiempo genera un menor impacto ambiental al ser menos invasivo en su instalación y al estar alejado de la civilización no existen repercusiones auditivas y visuales. Para poder desarrollar la correcta instalación de estas turbinas que comúnmente se hacen por medio de parques eólicos, se debe realizar una exhaustiva investigación que condicionan su funcionamiento y capacidad. Además de que representa una seguridad y un respaldo ante la inversión y objetividad, es importante la proyección que se le da en cuanto a su vida útil, especialmente su estabilidad para no sufrir imperfecciones por no tener previsto factores. Su ubicación debe ser coherente para el aprovechamiento de las corrientes aéreas, así como de una localización adecuada marítimamente hablando. Es necesario conocer el clima de la zona, sobre todo en el sector donde nos ubicamos, ya que comúnmente estamos en continua convivencia con tormentas, huracanes, ciclones y otros fenómenos naturales que adjudican una situación de peligro tanto para la estructura como para el entorno. También aspectos como la temperatura, la salinidad; la física oceánica como el oleaje, las corrientes marinas, la marea; así como la densidad y velocidad del viento; y, aspectos de mecánica de suelos con respecto a las cimentaciones o sujeciones que existe con el lecho marino. Esto genera las condiciones que afectaran la estructura externamente, ya que también internamente son ejercidas fuerzas a la misma, por lo que las especificaciones de la turbina deben de ser consideradas en su totalidad para no tener elementos faltantes en nuestra base de datos.


CONCLUSIONES

La modelación de estos fenómenos nos ayudará a identificar el momento, así como el lugar que pueda presentar fallas en ciertas instancias, es por eso que las investigaciones previas deben ser certeras, precisas y actualizadas, por medio de la interacción de estructura fluido podemos garantizar una mayor estabilidad y una prolongada vida útil. Los expertos en energía estiman que para el 2030 la energía eólica producirá un porcentaje mucho mayor al que vivimos actualmente, significando un cambio radical para el mundo en cuestión de evitar, simplificar y solucionar problemas políticos y económicos gracias al avance científico y tecnológico. El cambio está en nosotros y comienza desde nuestras perspectivas, nuestros ideales, nuestras visiones e intenciones. Mejorar y salvar los recursos que nos ofrece el planeta es lo que debemos buscar.
Benavides Hernández Veronica Lizeth, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE LA FACTIBILIDAD EN LA INCORPORACIóN DE PET COMO ADICIóN/REFUERZO EN EL CONCRETO HIDRáULICO, PARTIENDO DE LA REVISIóN DEL ESTADO DEL ARTE RESPECTO A LA FORMA Y CANTIDAD DE PET EMPLEADO POR LOS AUTORES”


ANáLISIS DE LA FACTIBILIDAD EN LA INCORPORACIóN DE PET COMO ADICIóN/REFUERZO EN EL CONCRETO HIDRáULICO, PARTIENDO DE LA REVISIóN DEL ESTADO DEL ARTE RESPECTO A LA FORMA Y CANTIDAD DE PET EMPLEADO POR LOS AUTORES”

Benavides Hernández Veronica Lizeth, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Alrededor de los años ochenta, se empezó a implementar el estado del arte como una modalidad de investigación documental, recopilando y sistematizando la información de conocimientos acumulados por un determinado tiempo y dentro de un área en especifica. El presente estudio presenta el estado del arte aplicado en la factibilidad de la incorporación del PET como adición/refuerzo en el concreto hidráulico, realizando un análisis de diversos autores que han llevado a cabo estudios sobre el tema. Algunos de los trabajos consultados referente a la incorporación de PET en mezclas de concreto fueron realizado por Guamán Ordoñez Carlos Javier y Pinela López José Vicente, en el 2019, en donde se integró 0.5% PET en fibra en relación al volumen de la mezcla, llegando a la conclusión que para la utilización de este tipo de fibras se recomienda colocar entre 0.4% y 0.8% del volumen del hormigón. Por su parte, Parra Nauca integro las fibras de PET trituradas en porcentajes de 6, 12 y 18 % en relación de la mezcla, concluyendo que con los porcentajes antes mencionados, la mezcla no mejora en su resistencia a la compresión (Klein). Mientras que, en el 2009 Patiño y Castro Guzmán agregan el PET en forma de fibras con un diámetro de 2-3 mm y una longitud de 30 mm, en cantidades de 1 y 1.5%, concretando que con dicho porcentaje de PET se disminuye la resistencia del concreto (Rodriguez Patiño Luis Eduardo, 2009). Se ha buscado de alguna manera, el poder integrar aditivos o refuerzos para mejorar la características mecánicas del concreto y poder brindar una mejor calidad a las edificaciones, uno de estos aditivos es el PET.El tereftalato de polietileno, es un material caracterizado por su ligereza y resistencia mecánica a la compresión, alto grado de transparencia y brillo, es utilizado en la industria de alimentos por ser un material que conserva el sabor y aroma de los alimentos, es reciclable (BLANDÓN, 2016).  Esta incorporación del PET, nace al percatarse de la problemática ambiental que existe en el mundo. Estudios indican que el país genera alrededor 4 mil millones de residuos de botellas de PET. Ante el surgimiento de pensar en realizar nuevas investigaciones de mezclas de concreto modificadas con PET virgen o reciclado, buscan el mejoramiento de sus propiedades mecánicas y encontrar una solución a la recuperación de uno de los desechos sólidos que más afecta al planeta.



METODOLOGÍA

Para el análisis de la factibilidad del empleo de PET como adición/refuerzo en el concreto hidráulico, partiendo de la revisión del estado del arte, se llevó a cabo una serie de pasos fundamentales, los cuales iniciaron con la participación en 33 ponencias desarrolladas por investigadores del Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil (UMSNH) las cuales ayudaron de manera aleatoria a asentar las bases teóricas respecto al tema de estudio.   Al mismo tiempo, se llevó a cabo una investigación en buscadores académicos; guiada por coordinadores del tema en estudio, acerca de trabajos con PET y el concreto hidráulico, publicados en los últimos 5 años. Se creó una tabla de registro, para el vaciado de información de cada uno de los trabajos obtenidos en los buscadores, para después seleccionar y clasificar los documentos encontrados por título de investigación y así proceder a la lectura, revisión y copiado textual de la información requerida según las categorías presentadas en la tabla de registro, como son:Forma del PET, Diámetro, Longitud, Espesor, PET en el concreto (sustitución/adición), Sustitución del agregado pétreo por PET, Tipo de agregado sustituido (fino/grueso), Cantidades de PET u otros tipos de fibras (%). Teniendo la muestra definida y la tabla de registro completa, se desarrollaron graficas los cuales nos proporcionaron datos numéricos de cada categoría, de tal modo que se pueda determinar si es factible realizar nuevas investigaciones sobre adicionar material PET a las mezclas de concreto, obteniendo los siguientes resultados: La forma del PET más empleado en el diseño de mezclas con concreto hidráulico es en fibra, fue empleado en 35 artículos de los 62 analizados, un 56.45% usado como agredo, en forma de escama en 9 artículos un 4.52%, y en botellas en 8 artículos un  12.90% y en menor uso en polvo, ya que se empleó en 8 artículos correspondiente al 9.68%. Se registro que el PET es utilizado como adición en las mezclas con concreto en 39 de los 62 estudios analizados, un 62.90% en comparación con la sustitución fue empleado en 16 de artículos siendo un 25.81%. En el diseño de mezclas de concreto-PET, el PET ha sido empleado como sustitución de algún agregado de la mezcla, en agregado fino se ha empelado en 19 estudios un 30.65%, en grueso en 1 de los estudios; 1.61% y en ambos en 2 estudios un 9.09%. La tabla de sustitución de agregado pétreo pro PET, la sustitución se empleo en 19 de ellos un 30.65% y se ha empleado en 39 artículos, un 62.90%. La cantidad de PET adicionado o sustituido por concreto hidráulico respecto a la masa del cemento es empleado en 8 artículos un 12.90%, en relación al volumen de cemento en 19 artículos, un 30.64%, en masa del agregado y volumen del agregado 1, un 1.61%, en relación a la masa de la mezcla 22 artículos, un 35.48% y en volumen de la mezcla en 11, un 17.74%.


CONCLUSIONES

De acuerdo a los resultados obtenidos al analizar los artículos, concluyo que:El PET debe seguir siendo un material empleado en el diseño de mezclas con concreto hidráulico, debido a que si cumple con los requisitos de las normas establecidas. En su adición al concreto hidráulico, es mayormente utilizado en fibras. Es empleado en la mayoría de los estudios realizados como sustitución de agregados finos.Es empleado en la mayoría de los estudios como adición y no como sustitución del mismo concreto y agregados pétreos.La cantidad de PET adicionado o sustituido por concreto hidráulico, es comúnmente relacionado con la masa de la mezcla y volumen de cemento.  
Bermudez Trujillo Sebastian, Universidad Santo Tomás
Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales

ANáLISIS DEL POTENCIAL DE SISTEMAS SOLARES FOTOVOLTAICOS EN EL DEPARTAMENTO DEL CAQUETá-COLOMBIA.


ANáLISIS DEL POTENCIAL DE SISTEMAS SOLARES FOTOVOLTAICOS EN EL DEPARTAMENTO DEL CAQUETá-COLOMBIA.

Bermudez Trujillo Sebastian, Universidad Santo Tomás. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

El departamento del Caquetá cuenta con una Línea de transmisión a 115 Kv en la cual tiene su origen de la Subestación de Altamira a la Subestación Centro de Florencia con una longitud de 57 Km. En este sentido los municipios de Florencia, San Vicente del Caguán, Morelia, El Doncello y La Montañita en gran parte de las zonas rurales no cuentan con servicio de energía eléctrica, por lo cual las comunidades no tienen acceso a diferentes servicios.



METODOLOGÍA

La metodología propuesta para el trabajo se baso en 3 puntos importantes a la hora del desarrollo de la pasantía: Diagnóstico e identificación Definición y evaluación Ejecución Para el desarrollo de las variables climatológicas fue necesario el diagnóstico de las bases de datos suministradas por el IDEAM en donde la medida es la normal climatológica estándar de 30 años para estudios climatológicos a partir de una base de datos establecida, por otro lado, el software ArcMap contribuyo en el estudio espaciotemporal mediante herramientas de interpolación de puntos como IDW. Las regresiones lineales fueron parte del trabajo en materia de calculo para variables como temperatura y radiación. Resultados Caracterización morfométrica: Calcular la elevación media permite comprender y analizar de mejor manera la variación altitudinal del departamento, puesto que esta incide directamente sobre el clima y por lo tanto sobre el régimen hidrológico de la zona, además de caracterizar zonas climatológicas y ecológicas. Se calcula elevación media de 200 msnm para el departamento del Caquetá. Precipitación: Las estaciones empleadas para calcular la precipitación media del departamento en su mayoría cumplen con la normal climatológica estándar de 30 años (85,7% de las 14 estaciones), las estaciones mencionadas cuentan con una gran influencia dentro del mismo por su ubicación, elevación y orografía ya que esta juega un papel muy importante en la cantidad y distribución de la lluvia. El Caquetá cuenta con un régimen monomodal como se puede evidenciar en las variaciones presentes a lo largo del año, con periodos lluviosos en los meses de abril, mayo, junio y julio, con un repunte en el mes de octubre, con precipitaciones en promedio mensual de 248 mm. Al pertenecer a la región amazónica el departamento se ve involucrado en un clima húmedo y lluvioso. La precipitacion media para el departamento mediante poligonos de thiessen es de 2668 mm anuales. Temperatura: La temperatura está influenciada por el gradiente térmico, es por esto por lo que se observa en los mapas una temperatura alta en zonas bajas del departamento que representa la gran mayoría del departamento y temperaturas bajas en la zona alta las cuales hacen parte de la cordillera. Cabe resaltar que el 78,5% de las estaciones cumplen con la normal climatológica estándar de 30 años. Temperatura media para el departamento del Caquetá: 24°C Clasificación climática: La clasificación establecida por Caldas y aplicada al trópico americano, se basó sólo en la temperatura, pero con respecto a su variación altitudinal y no latitudinal. Lang fijó los límites de su clasificación teniendo en cuenta una sencilla relación entre la precipitación y la temperatura. En 1962 Schaufelber unificó e implementó el sistema Caldas-Lang, el cual utiliza la variación altitudinal de la temperatura, que indica los pisos térmicos, y la efectividad de la precipitación, que muestra la humedad. Mediante la herramienta ArcMap de ArcGIS, se realizó la clasificación Caldas-Lang arrojando los siguientes resultados para el departamento del Caquetá: CHS: Cálido superhúmedo 2,7% CH: Cálido húmedo 86,7% Csh: Cálido semihúmedo 3,2% TH: Templado húmedo 5,8% FH: Frío húmedo 1,4% PBH: Páramo bajo húmedo 0,2%   Radiación: La radiación propuesta diaria en los puntos de instalación esta propuesta bajo la siguiente formula: kWh/m2/día= (puntos instalados*radiacion en el punto)/total de puntos instalados kWh/m2/día=4,18  Este valor concuerda con lo establecido en las bases de datos del IDEAM para el departamento del Caquetá y por el UPME para la región amazónica de 4,4 kWh/m2/día. Factores climatologicos que afectan el funcionamiento del sistemas: Temperatura: Teniendo en cuenta esta relación se trabajará con 4100W/ propuesto como radiación para el Caquetá en la cartografía y 24°C como temperatura media también calculada por isotermas mediante cartografía. Tc: Temperatura de la celda fotovoltaica Ta: Temperatura ambiente R: Radiación en W TOP: Temperatura de operación nominal para un panel.   T= 24°C*4100W*(45-20)/41000 T=49°C Con la temperatura de la celda fotovoltaica es ideal ya que por lo general los paneles operan 25°C superior a la temperatura ambiente, en este caso la temperatura ambiente es de 24°C. Precipitación: La precipitación juega un papel importante a la hora de el funcionamiento del panel, pues, la precipitacion involucra nubosidad, esto no quiere decir que el panel no genere energia en estos meses lluviosos,sin embargo, la efeciencia de estos se pueden ver afectadas.


CONCLUSIONES

La variable (ángulo de inclinación, puntos de reflexión, nubosidad, suciedad, fabricación y temperatura) que más influye en valores de eficiencia y durabilidad es el incremento de la temperatura del panel, lo que podría causar una saturación de corriente que impide una óptima salida de potencia y pueden ocasionar daños en la célula Debido al resultado en la ecuación el departamento presenta una temperatura optima y una radiación óptima para la instalación de los paneles solares a lo largo del Caquetá, además de las grandes extensiones de área en donde se pueden instalar estos sistemas sin problema alguno  
Bernal Venegas Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

ESTUDIO DE SIMULACIóN EN SIMIO® AL áREA DE CAJAS DE UNA TIENDA DE AUTOSERVICIO


ESTUDIO DE SIMULACIóN EN SIMIO® AL áREA DE CAJAS DE UNA TIENDA DE AUTOSERVICIO

Bernal Venegas Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo. Perez Miranda Esther Itzel, Instituto Tecnológico Superior de Ciudad Hidalgo. Ramírez Alanís Gladis Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

El origen de los supermercados tiene lugar y fecha en el estado de Tennessee, Estados Unidos, un 16 de septiembre de 1916, cuando Clarence Saunders abrió el primer supermercado King Piggly Wiggly, la primera cadena de supermercados del mundo. Se considera que el señor Saunders no pensó en la comodidad de los clientes, sino en el ahorro de tiempo que suponía para el vendedor: se le ocurrió poner las mercancías al alcance de los consumidores, y así el comerciante solo tendría que cobrar y reponer productos de vez en cuando. El cambio fue radical pues se observó que un solo empleado podría atender un volumen de ventas tres o cuatro veces superior. Actualmente, la atención al cliente es un factor primordial para cualquier establecimiento, sin embargo, la atención brindada no es siempre la adecuada. Un sistema que no cuente con una correcta atención a clientes suele tener pérdidas en diversos aspectos: económicos, de clientes o de personal. En el supermercado Merza se tiene que el tiempo que llega a esperar un cliente para realizar el pago de sus compras al menudeo asciende a 03:21 minutos, mientras que los clientes de compras al mayoreo esperan hasta 11:45 minutos para realizar su pago. Los tiempos de espera suelen ser molestos para los clientes, ocasionando disgusto que puede ocasionar desde malas conductas hasta dejar de frecuentar la tienda, por lo que está en riesgo la pérdida de clientes.



METODOLOGÍA

Para la elaboración y evaluación del sistema se realizó un estudio de simulación bajo la metodología de Law y Kelton (2000), la cual consta de 10 pasos. Formulación del problema El supermercado merza es un establecimiento que se dedica a la venta de productos de abarrote, la cual labora en un horario de 07:00 a.m. a 10:00 p.m. y atienden clientes tanto de menudeo, como de mayoreo; tiene tres cajas, dos de ellas operan bajo una política de cajas que establece que, si la cola en caja1 es mayor a tres personas, la caja2 deberá abrirse al público, mientras que la caja3 funciona únicamente para clientes de mayoreo. El objetivo de la simulación es: Conocer el funcionamiento del sistema actual en un supermercado local llamado Merza para proponer mejoras Recolección de datos y definición del modelo Se identificaron seis variables representativas del sistema: Tiempo entre llegadas Tiempo de selección de artículos Tiempo de pago Tanto para compras a menudeo como mayoreo. Para la recolección de datos se elaboró un instrumento en el que se fueron vaciando las observaciones. El tiempo de recolección fue de dos días. Una vez obtenidos los datos, se realizó un tratamiento estadístico el cual incluye las pruebas de bondad de ajuste, para conocer el comportamiento de las variables y ver si se ajustan a distribuciones teóricas conocidas. Se utilizó el software Stat::Fit para la realización de las pruebas (Kolmogorov Sminorv y Anderson Darling). Del tratamiento estadístico realizado, se obtuvo que todas las variables se ajustaron a distribuciones teóricas conocidas. Para ilustrar el proceso que un cliente sigue dentro de la tienda, se elaboró el diagrama de flujo. Verificación del modelo El diagrama de flujo fue presentado a la encargada, quien verificó dicho proceso. Construcción del modelo Para la construcción del modelo en Simio fue necesario programar cada uno de los elementos arriba mencionados. Una de los grandes atractivos del simulador es la de ofrecer una animación en 3D muy atractiva. Pruebas piloto Se corrió el modelo un total de 10 veces para corroborar que la animación estuviera correcta. Esto también ayudó para la obtención de los datos necesarios para el paso posterior. Validación del modelo La validación verifica la precisión de la representación del modelo del sistema real. La validación del modelo se define como la justificación de que un modelo computarizado posee un rango de precisión satisfactorio referente a la aplicación prevista del modelo. Para realizar la validación de un modelo se utiliza la prueba t-pareada en dónde la hipótesis nula sustenta que los datos simulados son iguales a los del sistema real contra la hipótesis alterna de que no lo son. Todas las variables fueron sometidas al proceso de validación. Diseño de experimentos Se realizó el diseño de experimentos al 95% con ayuda del procedimiento de estimación de la media μ=E(x) con un error específico, una vez que el modelo había sido validado. Para evitar el problema de tomar decisiones en la primera corrida se determinó el mínimo número de ellas. Con un β=0.030, el número mínimo de corridas para tomar decisiones respecto al sistema es de 111. Corrida del programa Se corrió el modelo un total de 111 veces, en la figura 7 se observa el diseño de experimentos con 111 corridas en el simulador simio®. Análisis de resultados En la tabla 3 se muestran los valores correspondientes a los datos obtenidos en el sistema real.


CONCLUSIONES

Durante la estancia en el verano virtual se lograron adquirir conocimientos teóricos acerca de los modelos de simulación. Gracias al programa simio® la simulación realizada en esta investigación resultó de mucha ayuda para la obtención de datos, además de mostrar una animación muy realista, la programación resultó sencilla y fácil de emplear por lo que este simulador es ampliamente recomendable. Además, se lograron obtener diversos conocimientos sobre el área de la simulación y de la ingeniería industrial, la cual es la carrera a la que pertenecemos. Esperamos llevar a la práctica más proyectos de este tipo, pues estamos seguros, nos serán de mucha utilidad en nuestra formación profesional.
Botello Brito Diana Laura, Instituto Politécnico Nacional
Asesor: Mg. Luis Carlos Correa Ortiz, Universidad de Manizales

ESTADOS EMOCIONALES(DEPRESIóN, ANSIEDAD Y ESTRéS), RIESGO SUICIDA Y NIVEL DE ACTIVIDAD FíSICA EN ESTUDIANTES UNIVERSITARIOS BAJO LA SITUACIóN ACTUAL DE AISLAMIENTO SOCIAL.


ESTADOS EMOCIONALES(DEPRESIóN, ANSIEDAD Y ESTRéS), RIESGO SUICIDA Y NIVEL DE ACTIVIDAD FíSICA EN ESTUDIANTES UNIVERSITARIOS BAJO LA SITUACIóN ACTUAL DE AISLAMIENTO SOCIAL.

Botello Brito Diana Laura, Instituto Politécnico Nacional. Asesor: Mg. Luis Carlos Correa Ortiz, Universidad de Manizales



PLANTEAMIENTO DEL PROBLEMA

La situación actual que enfrentamos en el contexto mundial, genera incertidumbre, inseguridad y ansiedad frente al presente y futuro de la vida de cada persona y sus familias. En marzo de 2020, la revista Lancet a través de una revisión sistemática describió el impacto psicológico de la cuarentena no solo durante el tiempo de duración de esta, sino en el tiempo posterior a la medida. La irritabilidad (57%) y el bajo estado de ánimo (73%) son los dos efectos más frecuentes que se encuentran en los individuos sujetos a cuarentena (Brooks et al., 2020). La Universidad de Manizales (UM) y la Escuela Colombiana de Rehabilitación (ECR) se han unido desde el 2015 para trabajar diferentes proyectos relacionados con tecnologías en salud, se contará desde la UM con el apoyo de la Facultad de Ciencias de la Salud desde el programa de psicología con su alta experiencia en el estudio de factores de riesgo que puedan afectar la salud mental de las personas y por otro lado, la facultad de Ingeniería y telecomunicaciones al tener experiencia en  Sistemas de Información Geográfica pone el valor de la estructuración tecnológica para aplicar el cuestionario necesario para los estudiantes de ambas instituciones lo que facilitará el análisis descriptivo y gráfico de las variables. Es por esto que se presenta una investigación que analizar los estados emocionales (depresión, ansiedad y estrés) y nivel de actividad física en estudiantes de la Universidad de Manizales y Escuela Colombiana de Rehabilitación en la situación actual de aislamiento social



METODOLOGÍA

Inicialmente, se establecieron las categorías asociadas al proyecto, específicamente estados emocionales (depresión, ansiedad, estrés), riesgo suicida, nivel de actividad física y una categoría emergente denominada Sistemas de Información en Salud Mental, la cual es el eje de este subproyecto. A continuación se realizó una revisión sistemática para cada una de las categorías, seguido de la selección de una serie de instrumentos de uso libre que permitieran medir cada una de las categorías, los cuales se plasmaron en un instrumento en línea para su posterior aplicación en la población seleccionada. Finalmente evaluarán las diversas categorías para así reportar los resultados a las instituciones correspondientes, y plasmar todo el ejercicio en un artículo científico.


CONCLUSIONES

Comprender la estructura de un sistema de información en salud mental, permite tener claridad sobre la información que apoya la toma de decisiones de los diferentes organismos multilaterales (gubernamentales, privados, academia y sociedad civil) sobre este importante componente de salud pública. Para el caso de sistemas de información en salud mental, el principal referente es el emanado de la Organización Mundial de la Salud (OMS). Como hipótesis a ser comprobada después del análisis de la información recolectada, se intuye un incremento considerable en la cantidad de personas que padecen estos problemas físicos y emocionales, ya que se han generado cambios súbitos e importantes en el  comportamiento de la población bajo la situación de aislamiento. De igual forma se estima que la situación ha sido más traumática para aquellos que ya tenían alguno de estos padecimientos, ya que con el aislamiento social se intensificaron.
Buendia Martinez Cristian Antony, Universidad Politécnica de Tecámac
Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac

SISTEMA DE COMUNICACIóN WIFI CON ACCESORIOS ELéCTRICOS Y COMPUTADORA DE UN AUTOMóVIL PARA LA CONEXIóN CON EL IOT


SISTEMA DE COMUNICACIóN WIFI CON ACCESORIOS ELéCTRICOS Y COMPUTADORA DE UN AUTOMóVIL PARA LA CONEXIóN CON EL IOT

Buendia Martinez Cristian Antony, Universidad Politécnica de Tecámac. Flores Luis Fatima Alejandra, Universidad Politécnica de Tecámac. Matias Carmona Roberto, Universidad Politécnica de Tecámac. Rodriguez Flores Lizeth, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

El principal problema es que los usuarios no pueden detectar las fallas que presente su automóvil de manera rápida y cómoda, tienen que llevar sus vehículos a revisión para identificar la falla. En el mundo hay un automóvil por cada siete personas, según una estimación hecha por Enrique Koganen en el 2016. El problema también está presente en México, ya que, a nivel nacional se tiene una aproximación 3,565,469 de automóviles, estimación realizada por Enrique Koganen en el 2016. En la localidad de Tecámac según la estadística básica municipal de Tecámac, en el 2012 aproximan un total de 3,194 automóviles. En la actualidad la sociedad se ha acostumbrado tanto a vivir con electrodomésticos, autos y teléfonos celulares. Los automóviles son un medio de transporte muy útil, por lo que se busca un buen funcionamiento del mismo. Existen varios softwares y aplicaciones, pero no todos son amigables y funcionales para el usuario. Se requiere de un sistema para tener un control en los servicios mecánicos y manipulación de accesorios eléctricos del automóvil para un mayor confort.  



METODOLOGÍA

El presente trabajo presenta una metodología scrum que hace un énfasis especial en la consideración de los requisitos no funcionales características de este tipo de sistema como los requisitos temporales o la interacción con dispositivos físicos del vehículo. Además de que ejecuta el proyecto en fases cortas y permite mucha flexibilidad a la hora de acometer cambios a mitad del proyecto, ya que tras cada fase se replantean las tareas y los objetivos. Se analizaron las distintas plataformas para el desarrollo de aplicaciones móviles, siendo Xamarin, una extensión de Visual Studio la mas conveniente para este proyecto. Tambien se analizó el microcontrolador, en este caso se ocupó el ESP32 que se programa mediante el IDE de Arduino, ya que nos permitía alojar un Web Service y asi manipular los distintos elementos. Primero se logró crear un Web Service en el ESP32, al mismo tiempo que se realizó la conexión entre el ESP32 y una red Wifi. Posteriormente se logra que la aplicación elaborada en Xamarin se conecta al Web Service que está alojado en el ESP32, para que de esta forma se puedan hacer las solicitudes HTTP. La aplicación se diseñó y desarrolló en con tres vistas: 1. Es un inicio de sesión por parte del usuario, donde solo podrá ingresar con un correo electrónico y contraseña. 2. Despues del inicio de sesión se muestra un menú de dos opciones, donde la primera es un escaneo del vehículo, donde mostrará si este tiene alguna falla mecánica o eléctrica asi como su temperatura, velocidad y combustible. 3. La segunda opción es la de accesorios, donde muestra los elementos que puede controlar, por ejemplo, luces, ventilación, seguros, iluminación interna, etc


CONCLUSIONES

En el presente proyecto se concluye que la comunicación de la aplicación móvil con el microcontrolador ESP-32, fue de un 98 % aceptable en la transmisión de datos entre las diferentes secciones de medición, escaneo, instrucciones e información. Primero se logró crear un web-service en el esp32, al mismo tiempo que se logró la conexión entre el esp 32 y una red wifi. Posteriormente se logró que la aplicación elaborada en Xamarin se conectara al web-service que está alojado en el ESP32, para que de esta forma se puedan hacer las peticiones HTTP a través de Internet. Aunque todavía no se realizan las pruebas en un vehículo, se realizó una simulación con LEDS que representaban los distintos accesorios eléctricos del vehículo, con esta simulación se logró verificar que se pueden manipular correctamente los elementos del vehículo a través del web-service,El sistema se encuentra a más del 50 % de desarrollo, de tal forma podemos decir que el sistema es factible, ya que es una herramienta que ayudará a una gran cantidad de usuarios para que conozcan a tiempo las fallas que presenta su vehículo y de esta forma evitar fallas más graves en el futuro.
Bueno Gutiérrez Mayra Saraí, Universidad Autónoma de Guerrero
Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo

HOTEL ECO-TURÍSTICO


HOTEL ECO-TURÍSTICO

Aguirre Chavez Andrea Guadalupe, Universidad de Sonora. Arévalo D Elia Uziel Mizraim, Consejo Quintanarroense de Ciencia y Tecnología. Bueno Gutiérrez Mayra Saraí, Universidad Autónoma de Guerrero. Cruz Garcia Isabel Alejandra, Universidad Autónoma de Guerrero. Miranda Cayetano Yazmin Alejandra, Universidad Autónoma de Guerrero. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como objetivo el implementar la madera como material principal en la edificación arquitectónica. Dando una solución tanto estructural como de diseño. Un hotel ecoturístico busca un ambiente armonioso que integre áreas de relajación, deportivas, de descanso, de sanación espiritual y talleres de recreación que fomenten el desarrollo sustentable, haciendo uso eficiente y racional de los recursos naturales. Su enfoque principal es hacia el desarrollo turístico el cual busca la relación del usuario con el medio ambiente.



METODOLOGÍA

a través  -Estudio de la zona -Entorno natural (Clima, topografía, flora, fauna) -Contexto construido (Tipologías, estilos) -Contexto social (Habitantes, alfuencia turística, cultura) -Normatividad Análisis  -Diagramas -Zonificación -Programa arquitectónico Síntesis -Planos -Perspectivas


CONCLUSIONES

Debido a las condiciones medioambientales que se viven en la actualidad, se han buscado nuevas formas para poder reducir nuestro impacto ecológico, es por ello que en el sector turístico ha surgido el término hotel ecoturístico el cual deberá propiciar un ambiente armonioso de relajación y recreación, este se enfoca al desarrollo y realce del turístico porque busca relacionar al usuario con el medio ambiente. Es por ello que este proyecto se desarrollará en una zona que tiene un potencial para diseñar este tipo de espacios, asi como se propone el uso de madera y sus sistemas constructivos para el plantemiento del proyecto. 
Bustos Arreola Alan Arturo, Universidad Politécnica de Sinaloa
Asesor: Dra. Dulce Libna Ambriz Perez, Universidad Politécnica de Sinaloa

CULTIVOS ENERGéTICOS, BIOCOMBUSTIBLES Y BIORREFINERíAS: LA HIGUERILLA (RICINUS COMMUNIS L.) COMO INSUMO PRINCIPAL PARA PRODUCCIóN DE BIOCOMBUSTIBLES Y SU POSIBLE DESARROLLO EN UNA BIOECONOMíA


CULTIVOS ENERGéTICOS, BIOCOMBUSTIBLES Y BIORREFINERíAS: LA HIGUERILLA (RICINUS COMMUNIS L.) COMO INSUMO PRINCIPAL PARA PRODUCCIóN DE BIOCOMBUSTIBLES Y SU POSIBLE DESARROLLO EN UNA BIOECONOMíA

Bustos Arreola Alan Arturo, Universidad Politécnica de Sinaloa. Asesor: Dra. Dulce Libna Ambriz Perez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Desde la segunda mitad del siglo XVIII, epoca en la cual se comenzó a desarrollar la Revolución Industrial, el ser humano comenzó a tener una necesidad y una demanda de energía demasiado grande, la cual fue cubierta casi en su totalidad por fuentes de combustible fósiles, esto debido a su recién descubrimiento y a sus grandes ventajas en cuanto eficiencias y transporte. Todo el entorno que rodea al ser humano se encuentra en constante cambio y evolución, esto incluye también las necesidades de la sociedad en todos los ambitos.  Durante más de doscientos años las fuentes fósiles han sido el abastecimiento energético primordial para el ser humano. SIn embargo, en los últimos años se han estudiado y recopilado evidencias acerca del la escasez que están sufriendo y del daño colateral que estos provocan hacía el medio ambiente y a la salud humana.  Biocombustibles, biorrefinerías y cultivos energéticos han sido términos que se han encontrado en el centro de atención de los científicos débido a la necesidad que ha surgido de disminuir la emisión de agentes contaminantes hacía el medio ambiente. Estos términos buscan dar un empuje a la humanidad hacía una bioeconomía, un modelo económico en donde exista un desarrollo y una producción sostenible.  En los cultivos energéticos se han creado muchas discusiones debido a la competencia por espacio que surge entre estos y los cultivos destinados al sector alimenticio, sin embargo es un tema que se encuentra en desarrollo y aún se buscan manera de implementarlo de mejor manera. Entre todos los estudios que se han realizado, la busqueda de un cultivo que tenga buenas cualidades para su implementación ha sido uno de los principales centros de estudio. Es aquí donde entra la higuerilla (Ricinus communis). Este cultivo oleaginoso ha mostrado buenos resultados tanto en adaptabilidad para su plantamiento como en aprovechamiento para obtención de productos competentes con el mercado. Es por esto que el estudio de esta planta para cuestiones energéticas es uno de los principales retos actuales de la humanidad. 



METODOLOGÍA

La metodología de este reporte consiste principalmente en una revisión bibliográfica de diferentes fuentes para contar con la información más actual y con un valor científico comprobable,  pues es exclusivamente recopilativo e informativo debido a la situación de salud mundial presentada durante el desarrollo del XXV Verano de la Investigación Científica y Tecnológica del Pacífico. En primera instancia se tenía planeada la recolección de la biomasa (Ricinus communis) así como la extracción de su aceite para su caracterización y determinación como posible fuente de obtención de biodiesel mediante biorrefinerías. Para la revisión bibliográfica se utilizaron herramientas online especializadas en la recopilación de archivos de carácter científico. Principalmente se recopiló información del eje central del estudio y a partir de ahí se fue ramificando la información para crear un reporte lo más completo posible en donde cualquier persona, sin importar si cuenta con conocimiento previo o no acerca del tema, pueda leer, juzgar y calificar según su perspectiva.  Las herramientas principalmente utilizadas para la obtención de información fueron los motores de búsqueda de Google Scholar, Library Genesis y PDF Drive para archivos de índole científica y el motor común de Google para archivos recopilatorios de gobiernos donde se presente la situación del país frente a las tecnologías actuales de energía. 


CONCLUSIONES

Los cultivos energéticos son un tema de debate y controversia en todo el mundo debido a la competencia que tienen por el espacio, sin embargo, es innegable el hecho de que la humanidad necesita encontrar y desarrollar nuevas fuentes de energía que se adapten a las necesidades humanas y que además sean libres de contaminantes o por lo menos tengan una emisión menos dañina.  Los biocombustibles han recibido un gran apoyo en los últimos años y actualmente son un mercado completamente rentable, tanto económica como energéticamente, el cual sigue en crecimiento y en el cual se tienen muchas propuestas hechas y muchas innovaciones por realizar en un futuro.  Las biorrefinerías son un esquema funcional y eficiente en el cual se trata de mantener por el mayor tiempo posible la biomasa para así crear productos con valor agregado, considerados normalmente como desechos, que sean competentes en el mercado actual de sus semejantes y además provengan de una fuente con la menor emisión de agentes contaminantes posibles, creando así un modelo económico ecológico, conocido también como bioeconomía que además sea integral, aprovechando cada unidad de energía posible y cada producto secundario para aprovechar el máximo potencial que este pueda ofrecer, La higuerilla, entre todas las demás fuentes de biomasa disponible para un cultivo energético, presenta varias ventajas que la hacen ser más viables que otras y además la han mantenido en las investigaciones científicas por muchos años. El hecho de ser una planta no comestible y que tenga la propiedad de crecer en ambientes poco adaptables para otro tipo de plantas la coloca en una posición bastante favorable para el desarrollo de un cultivo energético. Además. el hecho de producir tantos productos en base a una misma biomasa la hacen apta para ser el insumo principal de una biorrefinería  Aún falta mucho tiempo para que los cultivos energéticos y las biorrefinerías produzcan una parte importante de los combustibles demandados por la población, pero sin duda alguna traerán consigo un gran cambio en el modelo económico del país y dejarán a los combustibles fósiles en segundo plano.  Es importante mencionar y aclarar que el hecho de generar gran cantidad de agentes contaminantes y ser no renovables no vuelve a los combustibles fósiles inservibles ni sustituibles, sin embargo sí es importante el aumentar el mix energético para no depender de un solo insumo para el abastecimiento de energía a la población.
Cabrera Lona Gustavo Adolfo, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato

MANUAL DE OPERACIONES Y REDISEñO DEL LAYOUT DE UNA BODEGA DE BEBIDAS.


MANUAL DE OPERACIONES Y REDISEñO DEL LAYOUT DE UNA BODEGA DE BEBIDAS.

Cabrera Lona Gustavo Adolfo, Instituto Tecnológico Superior de Guanajuato. Martínez Tavera Arianna Angélica, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El presente Manual y rediseño de una Bodega Central fue elaborado para ser la pauta en los preparativos para la organización y el buen funcionamiento de la Bodega Central de una empresa del sector refresquero. Toda la información recabada se obtuvo a partir de un previo estudio de mercado para la empresa que tiene sus orígenes en enero del 2020. Posteriormente se analizó y se decidió que es de suma importancia contar con una Bodega Central con instalaciones bien distribuidas y se comenzó a investigar sobre todo lo necesario para las instalaciones. La bodega central, se encargará de alojar todo el producto terminado proveniente de la fábrica para posteriormente ser distribuido por todo el país. Además, contará con un almacén para acopiar azúcar en costales de 100 kg que serán transportados a la fábrica, debido a que es la materia prima que la empresa menos necesita.  Es por ello que la bodega central debe ubicarse en un sitio estratégico, que agilice la recepción y distribución de los envíos. Deberá ser acondicionada para contar con áreas de oficinas, baños, de recepción, de almacenes y de distribución.



METODOLOGÍA

El presente manual consta de tres capítulos: En el primero se realiza el rediseño de la Bodega y trata todas las actividades a realizar para instalar la bodega, tales como la proyección de las dimensiones del inmueble (tanto área total como área de cada departamento), el proceso de búsqueda de inmuebles, la elaboración del Lay Out, la Proyección de recursos materiales y humanos y la actualización del sistema de control de inventarios. El segundo capítulo se relaciona con todas las operaciones de la bodega, tales como la descripción de las áreas de la bodega, la descripción de puestos y la descripción narrativa y diagrama de flujo.  El tercer y último capítulo se basa en los requerimientos de la bodega central , en primer lugar una guía de inspección para la prevención de siniestros (salidas de emergencia, prevención de incendios e inundaciones), las áreas requeridas para la bodega, las normas de seguridad e higiene y los requerimientos de personal para la operación de la bodega (proyectando el número de plazas y capacidad de almacenaje para el año 2023).  


CONCLUSIONES

Se observó que lo que más afectaba la Bodega Central inicial fue la incorrecta distribución realizada, ya que esta generaba pérdida de tiempo, movimientos innecesarios, no se conocían las ubicaciones pues no existían pasillos ni señaléticas, existían áreas con muy poco espacio y otras con exceso de espacio lo que provocaba que hubiera lugares desocupados y mal aprovechados. Fue por ello que se buscó la manera de acomodar correctamente cada área y se marcaron pasillos para el flujo de recurso humano y maquinaria tales como los montacargas. Aunado a todo esto se descubrió que había mucho producto perdido pues no se llevaba un control de inventarios y con el nuevo software ahora se conoce en tiempo real los pedidos y todo lo relacionado al almacén de envases. Este permite tener datos actualizados sobre el inventario de la documentación y los materiales mediante el control de entradas y salidas, además de registrar las cantidades de mercancías existentes y para establecer el costo de la mercancía vendida y generará los documentos y reportes necesarios para la operación de la bodega con la periodicidad deseada. Ahora se conocen y se cumplen las normas de Seguridad e Higiene en la Bodega Central lo que trae consigo que haya mayor seguridad para todos los que laboran ahí y así evitar accidentes. Esto inició desde que se comenzó con la búsqueda del inmueble pues se buscó que no hubiera peligro interno ni externo dentro de ella. Se establecieron actividades en cada área y se determinaron jerarquías para realizar correctamente todo el trabajo dentro de la Bodega. Con todo esto se mejoró la Cadena de Suministro de la empresa y la Logística, pues la Bodega Central distribuye a todo el país y permite que todos los pedidos llegan correctamente al cliente final.
Cabrera Reynaga Gerardo Javier, Universidad de La Salle Bajío
Asesor: Mg. Royer David Estrada Esponda, Universidad del Valle

LA INTERACCIóN HUMANO COMPUTADOR EN EL CURRíCULO DE LAS INSTITUCIONES DE EDUCACIóN SUPERIOR DE MéXICO


LA INTERACCIóN HUMANO COMPUTADOR EN EL CURRíCULO DE LAS INSTITUCIONES DE EDUCACIóN SUPERIOR DE MéXICO

Cabrera Reynaga Gerardo Javier, Universidad de La Salle Bajío. Muñoz Rodríguez Jonathan Eduardo, Universidad de La Salle Bajío. Rodríguez Torres Luis Daniel, Universidad de La Salle Bajío. Sánchez Ramírez Nicolás de Jesús, Universidad de La Salle Bajío. Asesor: Mg. Royer David Estrada Esponda, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Los procesos de interacción que se dan entre los seres humanos y los sistemas informáticos que se desarrollan con el fin de contribuir a la satisfacción de diferentes actividades que dichos humanos realizan, representan un reto desafiante en el ámbito de varias temáticas, por ejemplo, la ergonomía, la accesibilidad y la usabilidad. Un ejemplo de dichos sistemas informativos están en el ámbito de las tecnologías de la información y la comunicación (TIC), que gracias a su aumento significativo han generado que se desarrollen servicios que potencialmente pueden transformar la vida de los usuarios, sin embargo dichos servicios o utilidades generalmente disponibles en internet son complejos y poco usables para un porcentaje de la sociedad. Por lo anterior, una de las áreas de estudio en el contexto de las ciencias de la computación es la Interacción Persona-Ordenador (Human-Computer Interaction o HCI en inglés o IPO en español), y en ese contexto figuran importantes cuerpos de conocimiento que incluyen la IPO/HCI como una arista importante en cualquier proceso en el ámbito de la Ingeniería de Software, este es el caso de SWEBOK, el cuerpo de conocimiento de la ingeniería de software que dedica un capítulo completo relacionado con la HCI. Paralelamente, el informe de ACM/IEEE-CS Joint Curricullum Task Force Computing Curriculla propuso al área de IPO/HCI como una de las nueve áreas de la formación del profesional de informática. También existen syllabus que buscan guiar la enseñanza de conceptos y por tanto la adquisición de habilidades en el contexto de la IPO/HCI. Sin embargo, aún no hay conceso sobre las múltiples temáticas que podrían incluirse en cursos de IPO/HCI y  por tanto lineamientos sobre cómo enseñar esas temáticas.



METODOLOGÍA

Con el propósito de identificar la cantidad de universidades mexicanas con programas que ofrecen asignaturas relacionadas con la IHC/IPO, User Experience, Customer Experience, Usabilidad y Accesibilidad, y que son importantes para que desde la formación de profesionales en ingeniería de sistemas se aborden temas, prácticas y conocimientos que contribuyan con la calidad de sistemas informáticos, su adecuada implementación en sectores productivos y la comodidad de uso para los usuarios finales, la investigación que aquí se presenta inició con un enfoque exploratorio, este tuvo por objeto abordar problemas de investigación poco estudiados o incluso problemas que nunca han sido objeto de estudio en contextos específicos. Adicionalmente, por lo general dicho enfoque contribuye a determinar tendencias e identificar relaciones potenciales entre variables.  


CONCLUSIONES

Una vez revisados los portales institucionales de las universidades mexicanas, se encontró que de las 5.343 universidades activas para el 2019, 1.266 ofrecen programas académicos de licenciatura profesional o tecnológica relacionadas con la Ingeniería de sistemas, Ingeniería informática y en general programas asociados al campo amplio de formación académico Tecnología de la Información y Comunicación. De las 1.266 universidades con oferta de los programas mencionados anteriormente, 539 tienen en sus planes de estudio asignaturas relacionadas con la HCI/IPO, 215 no tienen ninguna relación y en 512 universidades no fue posible realizar la verificación ya que los planes de estudio no estaban disponibles o incluso los portales institucionales de las universidades tampoco lo estaban.  Para complementar la fase de revisión se realizaron consultas en cuatro plataformas tecnológicas relacionadas con la publicación de vacantes, para ello se usaron palabras claves que fueron refinadas gracias a la revisión de los planes de estudio realizada. La Figura 4 refleja los resultados por cada plataforma. Las palabras claves usadas fueron UX, UI, Usabilidad, Diseño de Interacción, entre otras.
Cabrera Sanchez Itzel, Universidad Politécnica de Tecámac
Asesor: Mtra. Graciela Margarita Cetina Quijano, Universidad Politécnica de Tecámac

PLATAFORMA PARA EL PROCESO DE EVALUACIóN DE ESTUDIANTES EN EDUCACIóN DUAL, DESARROLLADA CON PHP, HTML5, CSS3 Y JAVASCRIPT PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC


PLATAFORMA PARA EL PROCESO DE EVALUACIóN DE ESTUDIANTES EN EDUCACIóN DUAL, DESARROLLADA CON PHP, HTML5, CSS3 Y JAVASCRIPT PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC

Cabrera Sanchez Itzel, Universidad Politécnica de Tecámac. Gómez Monroy Luis Alberto, Universidad Politécnica de Tecámac. Ledesma López Andrea Guadalupe, Universidad Politécnica de Tecámac. Martinez Gonzalez Obed Noe, Universidad Politécnica de Tecámac. Asesor: Mtra. Graciela Margarita Cetina Quijano, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la gestión del Sistema Dual en la Universidad Politécnica de Tecámac, la cual es una opción educativa, en la que los estudiantes reciben, de manera alternada, formación teórica en los planteles educativos y formación práctica en las empresas, con la finalidad de facilitar la inserción de los egresados en el ámbito laboral. Sin embargo, la plataforma que se usa actualmente es independiente de la universidad, por lo que sólo permite dar de alta a los estudiantes y no llevar un seguimiento de su desempeño académico y dentro de la empresa. En el año 2015 la Educación Dual comenzó a tener su auge en la educación media superior y superior, su finalidad es cualificar profesionalmente a personas trabajadoras en un régimen de alternancia, que combina la formación de los alumnos en el centro educativo y la formación en la empresa, integrando al estudiante en la empresa para desarrollar sus competencias profesionales, al tiempo que desarrolla competencias genéricas y disciplinares a fin de lograr una educación integral. El principal problema a resolver durante la investigación, fue lograr diseñar y crear un sistema que cumpliera todas las necesidades, que fueron requeridas por nuestro asesor empresarial, y una vez comenzado el desarrollo, ir resolviendo las dudas y problemáticas que se iban presentando al momento de la codificación del sistema.



METODOLOGÍA

El proyecto se realizó en el lenguaje de programación PHP el cual está destinado para el desarrollo web, con el uso del espacio de trabajo, mejor conocido como framework, Laravel. La plataforma está diseñada en base a la arquitectura de software; Modelo Vista Controlador, la cual separa los datos de una aplicación, la interfaz de usuario y la lógica de control. El modelo contiene una representación de los datos que maneja el sistema, en el caso de la vista, es la encargada de proporcionar la información enviada al cliente y el controlador actúa como intermediario entre los dos anteriores. Por ejemplo, para el llenado del formulario de inicio de sesión del estudiante, este usuario ingresa sus datos en la vista y da clic en un botón, por medio de este , la plataforma realiza una petición al controlador y este a su vez por medio del modelo busca los datos del usuario y verifica que sean compatibles con alguno registrado en la base de datos, si la consulta es exitosa, el controlador retornará una respuesta positiva a la vista, en este caso, lo dejaría entrar a su perfil personal, en caso de que no se encuentren los datos, el controlador lanzará una respuesta de error, que se visualizará en la misma vista de inicio de sesión. Para del Front-end, es decir, la interfaz gráfica de la plataforma utilizamos el lenguaje HTML5 el cual nos permite estructurar y presentar el contenido web, nos apoyamos de las Hojas de Estilo en Cascada, CSS3, para mayores detalles de diseño, como colores y tamaños en los elementos de la cada página, así como del framework Bootstrap, el cuál es una biblioteca de código abierto para el diseño de sitios web que contiene plantillas para formularios, botones, menús, entre otros elementos. Del mismo modo utilizamos el lenguaje de programación JavaScript para el diseño de tablas que permitan al usuario visualizar información importante, como lista de tareas, lista de becarios, biblioteca de archivos, registro de asistencia, por mencionar algunos. Sin embargo, JavaScript no sólo lo utilizamos para el diseño, también nos permitió establecer vínculo con el Sistema Único de Información Escolar de la Universidad Politécnica de Tecámac (SUIE), por medio de peticiones para la obtención de información que ayudara a abastecer la Plataforma de Evaluación de Estudiantes en Educación Dual, principalmente los catálogos de estudiantes, docentes, materias, cuatrimestres, carreras, áreas, plan educativo e inscripciones, con la finalidad de no repetir la captura de datos para la plataforma.


CONCLUSIONES

Durante nuestra participación en este verano virtual, logramos obtener un mejor conocimiento tanto de manera personal, pues el hecho de poder convivir con nuestro investigador de una manera mas personal para mejorar nuestro ser, así como el poder aprender nuevas tecnologías de desarrollo de proyectos y convivir con profesores que manejen estas mismas, teniendo asesorías de calidad. Logrando concluir que se espera lograr un impulso en nuestro plantel sobre estos sistemas, logrando una automatización de todos los sistemas posibles hasta ahora.  Se seguira dando seguimiento a este trabajo de investigación con la finalidad de obtener los mejores resultados y estos sean de calidad.
Cacho Figueroa Rosa Isabel, Instituto Tecnológico Superior de Los Reyes
Asesor: Mg. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano

ANÁLISIS DE LA INTERRELACIÓN ENTRE EL TIPO DE ESTRATEGIA DE SUPPLY CHAIN MANAGEMENT Y LA CALIDAD DE LOS PRODUCTOS


ANÁLISIS DE LA INTERRELACIÓN ENTRE EL TIPO DE ESTRATEGIA DE SUPPLY CHAIN MANAGEMENT Y LA CALIDAD DE LOS PRODUCTOS

Cacho Figueroa Rosa Isabel, Instituto Tecnológico Superior de Los Reyes. Asesor: Mg. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

El proceso que conlleva crear un producto o servicio hasta distribuirlo al consumidor final no es analizado de forma concreta para su optimización y mejores prácticas de calidad, por ello inciden casos de inconformidad por parte de clientes. En la actualidad es fundamental contar con las habilidades para reconocer y detectar adecuadamente que la  gestión de cadena de suministro la gestión de calidad debe adaptarse e interrelacionarse a un mismo fin. Hoy en día, en el mercado globalizado, las empresas se ven forzadas a generar nuevas ideas para incursionar en el entorno y obtener ventaja competitiva. Debido a esto, el interés de las empresas está enfocado en la gestión de la cadena de suministros, creando valor para la empresa y el cliente, concentrándose primordialmente en la satisfacción de las expectativas del cliente. El problema es que muchos de la alta gerencia carecen del reconocimiento de dos cosas importantes. Primero, no piensan en la cadena de su suministros como un todo, todos los enlaces que se involucran en la administración del flujo de productos, servicios, información y fondos desde el proveedor de su proveedor hasta el cliente de su cliente. Segundo, no buscan continuamente resultados tangibles, con foco en crecimiento en ventas, utilización de activos y reducción de costos.



METODOLOGÍA

Para llegar al objetivo general de construir a base de procedimientos analíticos, un artículo basado en la relación que conllevan los procesos de cadena de suministros con los procesos de calidad, se llevó a cabo una metodología propuesta para realizar este estudio, la cual fue en base a una revisión de la literatura para una construcción de un fragmento sobre la interrelación entre el tipo de estrategia de cadena de suministro con la calidad del producto. Para tal efecto el primer paso fue formular una pregunta de investigación, la cual respondería al planteamiento del problema principal, después se redactó una hipótesis que brindaba más contexto acerca de lo que se esperaba en el estudio para así pasar a la parte de más importancia, fase que se basó en un ardua  búsqueda de artículos en diferentes bases de datos, con el fin de ser analizados  y extraer de ellos las variables de interés al proyecto, proyecto que como fin, tendría la habilidad de crear un modelo estructural mostrando los resultados.


CONCLUSIONES

El resultado principal fue la creación de un modelo estructural, en base a 10 análisis y revisiones de literatura, modelo que muestra las estrategias y estructuras clave de SCM  que van directamente en el proceso de producción hasta la distribución del producto final, donde al mismo tiempo la calidad del producto interactúa siendo el objetivo principal, ya que la calidad del producto es el factor vital para que la organización sea exitosa; esto va de que un cliente potencial siempre espera que el producto o servicio este a su alcance y disponible, tenga un ciclo de funcionamiento estable y que al mismo tiempo sea compensado al precio que pago por él, por esto el observa las características y lo que lo diferencia del resto de empresas donde pueda conseguirlo, además las condiciones de entrega y el  tiempo es indispensable, ya que si el producto se retrasa no hay nada que detenga al cliente de irse a la competencia, por todo lo anterior se debe llevar a cabo una correcta planeación de gestión de cadena de suministro analizando que estrategia es la ideal y que tipo de estructura es necesaria, para llegar al fin en común que es la satisfacción del cliente. Además, como tendencia futura de investigación el modelo tiende a poder ser refinado para su aplicación en otros campos específicos, complementando con técnicas estadísticas completas u otras prácticas y metodologías basadas en gestión de cadena de suministros.
Cadavid Restrepo Juan Camilo, Institución Universitaria de Envigado
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.


ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.

Cadavid Restrepo Juan Camilo, Institución Universitaria de Envigado. Garzón Restrepo Alvaro Andrés, Institución Universitaria de Envigado. Gómez Narváez Yeison, Institución Universitaria de Envigado. Macias Ramirez Jairo Yael, Universidad de Guadalajara. Monsalve Guzman Jacobo, Institución Universitaria de Envigado. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

Con el avance de las nuevas tecnologías como las proporcionadas por la Industria 4.0 y la gran cantidad de datos, que posibilitan el manejo de la información mediante el uso de la Big Data, ha permitido a investigadores abordar el gran campo de la inteligencia artificial haciendo uso de todo este material libre para la investigación. Uno de los mayores contribuyentes de esta información es el área de la medicina que a partir de diferentes tipos de registros han consolidado grandes bases de datos de diversos temas de interés como, por ejemplo, diagnósticos sobre enfermedades cardíacas, como se menciona en (Ciechowski, 2013) Las muertes a causa de enfermedades cardíacas en países desarrollados se está volviendo cada vez más común, muy posiblemente se deba al estilo de vida sedentario que viven muchas personas, que además no se puede obtener un diagnóstico temprano para tratar la enfermedad debidamente. Por este motivo muchos investigadores en conjunto con profesionales médicos se han encargado de aprovechar las técnicas de IA utilizando y creando algoritmos para procesar los diferentes tipos de datos provenientes de las evaluaciones de pacientes que están disponibles para su uso.



METODOLOGÍA

Con el fin de abordar el diagnóstico de enfermedades mediante el trabajo realizado por el campo de la Inteligencia artificial, este trabajo se fundamentó desde un metodología que permitiera conocer el estado actual de las investigaciones relacionadas con a los términos expuestos anteriormente (IA, diagnostico, modelos, métodos, algoritmos) que han sido utilizados recientemente para el tratamiento de dicha enfermedad, por eso este trabajo considero en desarrollar un Estado del arte, que recopila los artículos más recientes que permitan dar a conocer a toda la comunidad científica la manera en la que están trabajando estos dos grandes campos , la medicina y la inteligencia artificial, basándose en el planteamiento de Vélez y Calvo sobre Estado del Arte Maestría en Educación, en el que sugieren cuatro pasos a seguir para la realización del estado del arte: a. Contextualización b. clasificación c. Categorización d. Análisis El desarrollo de estos pasos se llevaron a cabo a groso modo de la siguiente manera : La ejecución del primer paso consistió en una contextualización la cual hace alusión a una exploración previa sobre la documentación bibliográfica, en este caso empleado mediante las diferentes bases de datos electrónicas, (Scopus, Science Direct, Google Scholar, DOAJ, entre otras) ofrecidas por las universidad a, así como también en algunas páginas web ,indagando sobre: Un estado del arte, señales biomédicas provenientes de corazón, la evolución de las tecnologías informáticas con fines de automatización en procesamientos de datos, la inteligencia artificial como herramienta para el diagnóstico clínico, y enfermedades cardiacas, planteando además el problema de estudio, como también definiendo el alcance del trabajo con el fin de dar claridad sobre el curso de la investigación. El paso siguiente consiste en una clasificación sobre toda la información recolectada, según el tiempo de publicación que permita dar un orden cronológico, los objetivos de dichas investigaciones y además el nivel de aporte a la investigación en curso. Luego en la siguiente etapa de categorización, como lo afirma (García, 2014) implica una recuperabilidad importante de la información, lo cual facilitará el estudio del fenómeno a investigar, y como plantea (Molina Montoya, 2005) desde la documentación bajo el enfoque de las temáticas, metodologías, hallazgos, teorías, estudios prospectivos o retrospectivos, y a través de la conexión entre temáticas investigativasencontrando esas singularidades y aspectos comunes que han trabajo empleado en previos investigaciones. Finalmente, el último paso del análisis trata de exponer tendencias y perspectivas mediante una valoración de las implementaciones que se esperan a futuro según las perspectivas de la documentación consultada. Como lo indica Molina citado en (García, 2014), El estudio previo y sistemático de las investigaciones precedentes, además de contribuir al mejoramiento de la teoría y la práctica de un tema particular, permite llegar a conclusiones y respuestas nuevas que se proyecten a futuro. de tal manera que los resultados de esta investigación se puedan aplicar en futuras investigaciones o proyectos, generando un valor agregado a partir de los resultados obtenidos.


CONCLUSIONES

Las técnicas utilizadas en los más recientes artículos consultados han implementado algoritmos de machine learning y Deep learning, dejando atrás los métodos estadístico que eran utilizados anteriormente, que han permitido el procesamiento y el aprendizaje de una gran cantidad de información, aprendiendo patrones y categorizando por ejemplo el tipo de enfermedad, el grado o la etapa en la que esta se encuentra , así como también han podido diagnosticar de forma preventiva el padecimiento de una enfermedad cardiaca, disminuyendo los errores de diagnóstico humano que se podrían encontrar en la práctica real. Sin embargo en estos mismos estudios los autores expresan que aunque es indudable el gran trabajo que se ha logrado, debe pasar algún tiempo que permita revisar la precisión de estos métodos mediante el resultado del paciente en cuanto a su salud o una verificación externa con dato clínicos reales, Igualmente al considerar un factor como el constante aprendizaje que requieren dichos programas para mantenerse al tanto de los nuevos diagnósticos y los nuevos resultados o conocimiento sobre la enfermedad en cuestión. Se espera que en un futuro no muy lejano estos programas ayuden al personal médico a mejorar la precisión y dar conocer al paciente su situación médica de manera oportuna mediante el apoyo inteligente de percepción de una máquina, logrando un tipo de consultor experto sofisticado.  
Camacho Badilla Camila, Universidad de Sonora
Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango

DISEñO DE MECANISMOS PARA MOVIMIENTOS OCULARES DE UN PROTOTIPO DE UN TíTERE ANIMATRóNICO


DISEñO DE MECANISMOS PARA MOVIMIENTOS OCULARES DE UN PROTOTIPO DE UN TíTERE ANIMATRóNICO

Camacho Badilla Camila, Universidad de Sonora. Quezada Laurean Dora Guadalupe, Universidad de Sonora. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

México es uno de los países con mayor riqueza lingüística del mundo, según el Diario Oficial de la Federación, actualmente sobreviven 68 lenguas con 364 variantes en el territorio mexicano.Desafortunadamente con el paso de los años la población hablante de una lengua indígena ha disminuido, y los indígenas de la Sierra Norte de Puebla, quienes son hablantes nativos del Náhuatl no son la excepción.Lo anterior se debe a diversos factores como la discriminación y agresiones que sufren en el ámbito escolar o laboral, e incluso en las calles, por lo que prefieren comunicarse en español. El fin de nuestro proyecto es crear un niño animatrónico con los rasgos físicos de los indígenas de la Sierra Norte de Puebla, y así lograr esa unión o aceptación por parte de la sociedad a dichas personas, así como rescatar la lengua náhuatl y lograr conservar su cultura.Al finalizar en su totalidad el proyecto se espera obtener un animatronico que apoye el aprendizaje de la lengua Náhuatl, usando actividades prácticas como el saludo, numeración, cuentos, oraciones, etc.Esta parte del proyecto se enfoca en el rostro del animatrónico y se diseñarán mecanismos para ojos y cejas.  



METODOLOGÍA

Para dar inicio a los trabajos del verano científico estudiamos los mecanismos de algunos animatrónicos disponibles en  videos y literatura técnica, después seleccionamos los que consideramos más apropiados para los espacios de la cabeza del animatrónico y probamos algunos movimientos con material casero como cartones y pelotas de unicel.Después empezamos con el diseño de estos mecanismos y sus adecuaciones en el software SolidWorks. Los actuadores utilizados para generar los movimientos son servomotores MG996 de 15 kg.Los movimientos a transmitir para el globo ocular deben ser arriba y abajo y derecha e izquierda, para lograrlo se utilizó una junta universal que se caracteriza por su facilidad de moverse en esas direcciones, esta junta se conecta al globo ocular con un tornillo y el globo ocular se conecta a los actuadores con uniones bola y varillas que dirigen el movimiento deseado. Por otro lado, los párpados deben moverse hacia adelante y hacia atrás recorriendo el globo ocular para simular el abrir y cerrar de ojos, para ello se conectaron directamente con las uniones bola y varillas a un actuador por cada par de párpados.Finalmente, el movimiento de las cejas se realizó con dos actuadores que movían dos barras verticales conectadas de su parte inferior a la ceja colocada horizontalmente, de esta forma la punta de la cejas puede inclinarse hacia abajo y arriba, pero la ceja completa también puede moverse hacia abajo y hacia arriba. Al terminar de recrear los movimientos para ojos y cejas deberán instalarse en una base diseñada por las estudiantes, para después integrarse a la cabeza del animatrónico con los demás mecanismos.  


CONCLUSIONES

Hasta el momento hemos podido diseñar los movimientos deseados para ojos, párpados y cejas y nos encontramos ensamblando los mecanismos para posteriormente adecuar la base actual. Hemos incrementado nuestra práctica y conocimientos de diseño (CAD) y nos hemos sumergido en el mundo del funcionamiento de los animatrónicos, además de aprender sobre muchas de sus posibles aplicaciones e impacto en distintas áreas como la cultura.  
Campos López Laura Fabiola, Universidad Autónoma del Estado de México
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DISEñO MECáNICO DE UN COMPOSTERO DOMéSTICO INTELIGENTE


DISEñO MECáNICO DE UN COMPOSTERO DOMéSTICO INTELIGENTE

Campos López Laura Fabiola, Universidad Autónoma del Estado de México. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA La basura orgánica es aquella que se compone por desechos de alimentos, seres vivos o excrementos, es decir, todo aquello que se descompone de manera natural para volver a formar parte del ciclo de la vida. Estudios estiman que en México se producen alrededor de 103 mil toneladas al día de basura municipal, es decir, aproximadamente un habitante promedio produce 1 kilogramos al día, de lo cual el 45% es basura orgánica. El objetivo del proyecto es diseñar y elaborar un compostero de fácil manejo acompañando a una trituradora de alimentos para la reutilización de materia orgánica como composta y generar una contribución para la reducción de residuos sólidos orgánicos.



METODOLOGÍA

Se implementó la metodología de diseño UAM-Azcapotzalco la cual va enfocada a la observación de los usuarios para definir sus necesidades; como primera etapa se tiene Planteamiento y estructuración del problema en el cual mediante varias fases se va desglosando el problema hasta obtener un problema específico, en este ya se tenía establecido, dentro de la misma etapa la siguiente fase a realizar es el análisis de productos existente mediante el método FODA, en el cual resalto un compostero de la marca Whirpool; en la siguiente etapa se plantearon los requerimientos en los diferentes ámbitos como: de uso, funcional y estructurales, de los cuales los más importantes fueron: que deberá contar con un triturador que fraccione la comida a 2.5 cm, que el contenedor de composta genere el ambiente óptimo para producir una composta de calidad, que cuente con una criba para la separación de la composta como resultado final, en cuestión estética se plantearon dos estilos uno moderno con el fin que se pueda empotrar en un espacio de la cocina, el segundo con un estilo futurista el cual será modular para acomodarlo en cualquier espacio de la cocina. En la segunda etapa Desarrollo del proyecto se llevaron a cabo varias propuestas de diseño, así como, una lluvia de ideas la cual se fue depurando conforme a las ideas más viables y las cuales cumplieran con los requerimientos planteados, posteriormente se procedió a realizar planos técnicos y modelados 3D virtuales. La ultima etapa es Producción en la cual se realiza una muestra física del producto la cual no se logró llevar a cabo.


CONCLUSIONES

En conclusión se observó que un diseño con medidas más chicas podría funcionar mejor para que sea adaptable a más hogares de américa, de igual forma, se tendría que buscar un estilo o corriente de diseño que pueda hacer armonía con diversos estilos de cocinas y por último se ve que podría ser más viable el uso de un solo modelo a dos hablando de costos.
Canales Grimaldo Juan Pablo, Instituto Politécnico Nacional
Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia

BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES


BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES

Canales Grimaldo Juan Pablo, Instituto Politécnico Nacional. Loza Aceves Jose de Jesus, Universidad de Guadalajara. Mendoza Garcia Diana Montserrat, Instituto Tecnológico de Tuxtla Gutiérrez. Moreno Macias Pablo Cesar, Universidad de Guadalajara. Obeso Peregrina Andrea, Universidad de Guadalajara. Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la sociedad enfrenta retos importantes en todos los aspectos. Uno de ellos es la integración de grupos minoritarios en actividades cotidianas, para que las personas puedan generar una experiencia que les permita adquirir cualidades como individuos y generar un bienestar individual y/o colectivo. La propuesta desarrollada Bioclimática y espacio público: propuesta de intervención del espacio público asociado a estructuras sustentables e incluyentes.       engloba dos aspectos muy importantes para el desarrollo integral de una persona: educación y recreación



METODOLOGÍA

En los diferentes espacios de este proyecto como son el parque sensorial y la escuela de educación especial, se adaptan e integran diversos elementos arquitectónicos para que el usuario sea capaz de descubrir y desarrollar sus cualidades a través de la experiencia sensorial e intuitiva. Para la realización de este proyecto se usó el método cuantitativo de diseño arquitectónico del Arquitecto Álvaro Sánchez, el cual permite el planteamiento de una solución de proyecto. Finalmente, estos elementos y métodos se concluyen en un objeto arquitectónico apto para el cumplimiento de su objetivo, ofreciendo soluciones técnicas constructivas y sustentables. La desintegración social es un problema con alta incidencia en los grupos de todos los niveles educativos y socioeconómicos de determinada población, en donde se generan diferencias propias de los integrantes, habiendo una marcada deficiencia en los sistemas de organización y regularización para atender los problemas.  Cuando existe, el grupo como tal, no se desarrolla en su máxima plenitud


CONCLUSIONES

Crear el Centro de Recreación e Integración Social supone para el desarrollo humano un paso muy importante en la sana convivencia y bienestar del lugar en donde se encuentre. Esto demuestra la flexibilidad que tiene la arquitectura para crear, así como innovar conceptos e ideas de acuerdo a los nuevos requerimientos sociales, al mismo tiempo se demuestra la responsabilidad que esta rama tiene en ofrecer espacios que den solución a dichos requerimientos. Este proyecto cumple con ellos de manera sustentable, técnica y perceptual, prometiendo convertirse en un referente urbano a nivel local, nacional e internacional, no solo por su diseño, sino también por el origen de su concepción que va más allá de solo mejorar un lugar y construir un objeto arquitectónico.  Ofrecer una oportunidad a todas las personas, especialmente a las que tienen capacidades diferentes para su bienestar y desarrollo, para percibir su entorno de manera distinta y de experimentarla con una mejor calidad de vida emocional y físicamente, es lo que se ha plasmado en este proyecto, generando un cambio positivo en la calidad de vida de nuestra sociedad.
Cano Correa Cristhian Alexander, Corporación Universitaria Santa Rosa de Cabal UNISARC
Asesor: Dr. Leonardo Fabio Yepes Arbeláez, Universidad Católica de Pereira

EMPLEO DE PREDICCIóN ESTADíSTICA, BASADA EN INTELIGENCIA ARTIFICIAL, PARA LA CATEGORIZACIóN Y VALORACIóN DE LA OCUPACIóN ESPECTRAL EN LA BANDA DE VHF,


EMPLEO DE PREDICCIóN ESTADíSTICA, BASADA EN INTELIGENCIA ARTIFICIAL, PARA LA CATEGORIZACIóN Y VALORACIóN DE LA OCUPACIóN ESPECTRAL EN LA BANDA DE VHF,

Cano Correa Cristhian Alexander, Corporación Universitaria Santa Rosa de Cabal UNISARC. Rios Jimenez Jairo Armando, Corporación Universitaria Santa Rosa de Cabal UNISARC. Asesor: Dr. Leonardo Fabio Yepes Arbeláez, Universidad Católica de Pereira



PLANTEAMIENTO DEL PROBLEMA

Empleo de predicción estadística, basada en inteligencia artificial, para la categorización y valoración de la ocupación espectral en la banda de VHF Asesor: Leonardo Fabio Yepes Arbeláez, PhD. Estudiantes: Jairo Armando Ríos Jiménez Cristhian Alexander Cano Correa     INTRODUCCIÓN   Con el propósito de fomentar la investigación científica y sus principales aspectos metodológicos, se ha desarrollado el verano de investigación científica bajo el programa DELFIN. En particular, se han abordado aspectos de predicción estadística aplicada a escenarios de categorización y valoración de la ocupación espectral en la banda de VHF, lo cual contribuye a mejorar la capacidad de los sistemas de telecomunicaciones enfocados a la prestación de servicios de Internet móvil o fija. En este sentido, se impactará de forma transversal con los Objetivos de Desarrollo Sostenible, dado que permitirá mejorar los servicios de adquisición, transporte, almacenamiento y procesamiento de la información que genera cada objetivo por separado.   PLANTEAMIENTO DEL PROBLEMA   Las condiciones espectrales que se requieren en el desarrollo de tecnologías con mejores capacidades de transmisión de información, se ha convertido en un reto en los nuevos sistemas de telecomunicaciones. En especial, los sistemas de telecomunicaciones que requieren de un acceso dinámico al espectro para atender la demanda de los servicios.   Basado en lo anterior, se ha considerado la predicción estadística, basada en inteligencia artificial, para la categorización y valoración de la ocupación espectral en la banda de VHF. En particular, se ha centrado en la determinación de métricas de eficiencia vinculadas al uso del espectro radio bajo la metodología de acceso dinámico.   El acceso dinámico al espectro permite a usuarios secundarios emplear bandas espectrales pertenecientes a usuarios primarios, siempre y cuando la interferencia causada se conserve por debajo de un umbral predefinido. Por lo tanto, los patrones de ocupación espectrales, tanto de usuarios primarios como secundarios, tienen el mínimo de interferencia y la no interrupción de la comunicación buscando garantizar el servicio.   Por lo tanto, la predicción de la ocupación de la banda espectral es un componente clave para la optimización de los sistemas de comunicación basados en acceso espectral dinámico.



METODOLOGÍA

METODOLOGIA En el desarrollo metodológico empleado, se analizaron varios métodos de predicción, y en particular los estadísticos, tales como: 1. Modelos de procesos de Poisson; 2. Predictores Bayesianos y 3. Regresión Lineal.   Luego de analizar los métodos de predicción estadística, se optó por emplear una metodología de investigación basada en algoritmos computacionales básicos como la Regresión Lineal, y de este modo definir el escenario inicial para el análisis de predictores.   Se utiliza la predicción de la ocupación espectral mediante la regresión lineal para minimizar el tiempo de procesamiento para la asignación del espectro, ya que el problema que hay a nivel de radio cognoscitivo es el tiempo requerido para censar y predecir un espacio determinado incrementando el aviso al usuario lo que conlleva a perdida de oportunidad de aprovechamiento de dicho servicio.   Cuando implementamos la regresión lineal de algunas variables dependientes. Se  calculara los estimadores de los coeficientes y  simplemente los pesos predichos. las observaciones se denominan residuales. La respuesta final consistirá en determinar la mejor circunspección, es decir, las correspondientes a los residuos más pequeños buscando la optimización del espectro de manera dinámica. Se desarrolló con en el software   libre para el lenguaje de programación Python. De sklearn importaremos el modelo de regresión los datos, error medio cuadrado y el coeficiente de determinación. Para empezar con nuestro modelo de regresión  se ingresaron los datos de las variables x & y, luego con los datos procedemos a realizar el entrenamiento del predictor tanto para la variable x como la variable y después de tener el predictor entrenado procedemos a realizar la prueba de igual manera en ambas variables. Luego de esto se llamó al modelo de regresión lineal asignándole una variable y se entrenó con los datos que habían resultado de entrenar las variables x & y, para esto utilizaremos el comando fit, por último usamos el comando predict para realizar la predicción de los datos, después de haberlos entrenado y allí procederemos a graficar todos los resultados de la recta de regresión.                  


CONCLUSIONES

CONCLUSIONES   Durante la estancia en el verano de investigación se logró adquirir conocimiento teórico-práctico para la optimización del uso del espectro en la banda VHF mediante la técnica de predicción de regresión lineal matemática en conjunto posteriormente, con un algoritmo computacional basado en inteligencia artificial, encontrando que esta es una de las técnicas más prácticas que hay para predecir la ocupación en el espectro.   Debemos comparar este modelo con otros para determinar su viabilidad y eficiencia frente a los otros modelos de predicción que se encuentran.   Queremos agradecer ante todo por la oportunidad que se nos brindo de pertenecer a este grupo de verano de investigación científica delfín, a la Universidad Católica de Pereira por habernos permitido desarrollar dicha actividad en su institución a nuestra Universidad UNISARC que nos dio el apoyo para este proceso educativo y al Doctor Leonardo Fabio Yepes Arbeláez por sus valiosas enseñanzas, paciencia y por todo el conocimiento brindado en esta formación educativa. Además, esta se convirtió en una oportunidad para desarrollar nuestra tesis de pre-grado.       REFERENCIAS   kit-learn.org/stable/modules/linear_model.html
Cantu Carrasco Xochitl, Universidad Autónoma de Guerrero
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEÑO DE UNA CASA ECOLÓGICA AUTOSUSTENTABLE ( ORIENTACIÓN DE LA CEA E INSTALACIÓN HIDRÁULICA)


DISEÑO DE UNA CASA ECOLÓGICA AUTOSUSTENTABLE ( ORIENTACIÓN DE LA CEA E INSTALACIÓN HIDRÁULICA)

Cantu Carrasco Xochitl, Universidad Autónoma de Guerrero. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

¿Que sabemos ya? la orientación está dada de acuerdo a la ubicación geográfica de la casa. todo se trata de ubicar por donde sale el sol. la instalación hidráulica es un conjunto de tuberías y conexiones de diferentes diámetros y diferentes materiales, para alimentar y distribuir agua dentro de la construcción, esta instalación surtirá de agua a todos los puntos y lugares de la obra arquitectónica que lo requiera, de manera que este líquido llegue en cantidad y presión adecuada a todas las zonas húmedas de esta instalación. ¿Qué necesitamos saber? La orientación de una casa es fundamental para aprovechar todos los recursos naturales que nos puede ofrecer. El diseño de la instalación hidráulica fue hecho con el fin de cuidar y proteger nuestro medio ambiente con dispositivos ahorradores de agua que irán incorporados dentro de la grifería de los muebles sanitarios y a partir de esta haga su función y así satisfacer las necesidades básicas humanas. ¿Por qué necesitamos saberlo? Para tener conciencia de cómo se puede aprovechar a la naturaleza y mediante ella diseñar los sistemas de instalación que ayudan a reducir el consumo extremo del agua.



METODOLOGÍA

OBTENCIÓN DE INFORMACIÓN TÉCNICA: La información básica general necesaria que se obtuvo para la investigación de como orientar una casa y de cómo diseñar sistemas de tuberías para la instalación hidráulica fue mediante una METODOLOGÍA CUALITATIVA. Consultar las normas y reglamentos existentes que indican los niveles de tubería, que tanto de grosor y presupuesto de tubos son los adecuados para esta instalación y sobre todo cuales son los más económicos y duraderos.  una buena orientación para el aprovechamiento de luz natural beneficia varios aspectos como lo es el ahorro de agua, evita el uso de luces artificiales, calentadores lo aires acondicionado. INTERPRETACIÓN DE DATOS: Determinar la capacidad de cada uno de los materiales que se propusieron para la elaboración de esta instalación fue mediante el cálculo de presupuestos, capacidad de agua y presión que resiste el agua en cada uno de los tubos a utilizar, establecer los perlizadores para colocarlos en las griferías del sistema sanitario. El diseño de una orientación de una casa fue con el fin de aprovechar la orientación y tener un mejor ahorro energético para ello se diseñaron, varios aspectos para el acomodo de las celdas voltaicas, sistemas de captación de aguas pluviales, sistemas de energía autónomo, todo esto es gracias a la buena orientación que se ubicó la construcción. SÍNTESIS: Diseñar un sistema de instalación hidráulica se propone un distribuidor para que se encargue de la división del agua fría y caliente para que estas puedan funcionar en todas las instalaciones sanitarias de la casa. esto será válido para las propuestas de construcciones vigentes relacionados para la elaboración de una casa autosustentable.


CONCLUSIONES

Se logró diseñar la instalación hidráulica y la orientación de una casa aprovechando los beneficios que brinda a la naturaleza, esto se hace posible siguiendo una metodología cualitativa en la cual se utilizaron diversas herramientas de investigación que mediante esta recopilación de datos  llegue a la conclusión que este sistema de instalaciones y una buena orientación  para el diseño de una casa ecológica autosustentable está al alcance de la sociedad y esto ayudara mucho a disminuir la pobreza. Por lo cual es primordial el estudio de cada uno de estas situaciones para así ayudar a la sociedad y tener un gran ahorro energético en una vivienda. Gracias al verano de investigación científica pude reforzar mis conocimientos al permitir ver de otra perspectiva el aprovechamiento de los recursos naturales.
Cantú Rodríguez Román Alejandro, Instituto Tecnológico de Matamoros
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE LA FACTIBILIDAD EN LA INCORPORACIóN DE PET COMO ADICIóN/REFUERZO EN EL CONCRETO HIDRáULICO, PARTIENDO DE LA REVISIóN DEL ESTADO DEL ARTE RESPECTO A LAS CONCLUSIONES DADAS POR LOS AUTORES


ANáLISIS DE LA FACTIBILIDAD EN LA INCORPORACIóN DE PET COMO ADICIóN/REFUERZO EN EL CONCRETO HIDRáULICO, PARTIENDO DE LA REVISIóN DEL ESTADO DEL ARTE RESPECTO A LAS CONCLUSIONES DADAS POR LOS AUTORES

Cantú Rodríguez Román Alejandro, Instituto Tecnológico de Matamoros. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente se ha estado trabajando arduamente con la innovación de nuevos concretos, que cumplan con una parte importante en el desarrollo sustentable, esto debido a que es uno de los materiales más usados en la construcción y también uno de los que más causa daños al ambiente por la energía que se necesita para su elaboración. Es por ello que partiendo de un estudio analítico del estado del arte, el cual se basa en el análisis de documentos escritos, recabando información relevante sobre cualquier tema (Montoya, 2005), y analizar todas esas aportaciones publicadas a lo largo de estos años con la finalidad de sobre llevar esta investigación. Uno de los materiales contemplados como sustituto y/o adición del concreto más sonado en las publicaciones de los últimos 5 años es el tereftalato de polietileno (PET) reciclado, el cual es un material polimérico cuya característica principal es su altísima tenacidad y su excelente resistencia a la fatiga y al desgarro. El proceso de reciclado del PET consiste tradicionalmente en transformar las botellas usadas en monómeros o fibras, a través de métodos físicos, químicos o térmicos (Ávila Córdoba, Martínez Barrera, Barrera Díaz, Ureña Núñez, & Loza Yáñez , 2015). Gran parte de las investigaciones donde mencionan el uso del PET en el concreto hidráulico expresan de manera clara una idea de funcionalidad, por ejemplo Jaramillo & Posada (2019) evaluaron  la manejabilidad y la resistencia a la compresión de un concreto realizado con sustitución parcial del agregado fino por PET reciclado y determinaron que, en términos de resistencia a la compresión, este valor disminuyó como era de esperarse al reemplazar el agregado fino por PET pero los valores obtenidos en las mezclas con PET son satisfactorios, pues están por encima del límite inferior que define un concreto estructural. En este trabajo se realizará una revisión sistemática sobre el uso del PET en el concreto hidráulico, desarrollando un estudio del estado del arte sobre investigaciones realizadas del 2015 a la fecha, respecto a la incorporación de PET como adición/refuerzo en el concreto hidráulico, específicamente enfocado a las conclusiones dadas por los autores, para analizar si es factible o no el desarrollo de nuevas mezclas de concreto en combinación con el material plástico.



METODOLOGÍA

El objetivo principal de la investigación es encontrar las semejanzas y diferencias de las ideas de los autores a partir de realizar gráficas estadísticas de acuerdo a una serie de trabajos recaudados en un tiempo corto. El estudio se llevó a cabo mediante una serie de pasos, los cuales se presentan a continuación: Participación en 33 ponencias desarrolladas por investigadores del Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil (UMSNH) las cuales ayudaron de manera aleatoria a asentar las bases teóricas respecto al tema en estudio. Investigación documental guiada por coordinadores del tema en estudio, en buscadores académicos, partiendo del tema PET en el concreto hidráulico o de palabras clave como: Concreto hidráulico, PET, resistencia mecánica, sustitución de agregado pétreo. Recopilación de la información: Los resultados que arrojara el motor de búsqueda utilizado con la colocación de las palabras clave se revisaban y descargaban para un posterior análisis. Separación de trabajos por título de investigación: Cuando se analizaban los documentos de principio a fin se decidía si era relevante verdaderamente al tema de interés, los que eran elegidos se dividían en carpetas según su enfoque de investigación. Creación de la tabla de registro: Teniendo recopilados los documentos y previamente analizados a fondo se realizaba un vaciado de información que iban desde el año, el titulo y autor, manera de trabajar el PET, año de publicación, nombre de la revista o Universidad del trabajo de grado, ciudad y aportación. Por último, una vez con la muestra completa de investigaciones consultadas y llevadas al vaciado de datos en la tabla de registro, se desarrollaron gráficas estadísticas a partir de la contabilización de los trabajos encontrados, con el propósito de tener una visión más clara y precisa, específicamente de las conclusiones aportadas por todos los autores. De acuerdo con la muestra de datos y las gráficas elaboradas, se llegó a los siguientes resultados:    En 2019 fue el año con mayor cantidad de publicaciones con un 36.17 % Colombia y Perú son los países con más aportaciones de artículos científicos con el 29.79% y 23.4% respectivamente. La forma de PET que dio mejores resultados mecánicos en las investigaciones fue en fibra. El 49% de las investigaciones analizadas tuvieron resultados favorables, el 30% resultados desfavorables, y el porcentaje restante tuvieron resultados neutrales.    


CONCLUSIONES

Analizando los resultados obtenidos del analisis del estado del arte se logró llegar a la conclusión que, en los últimos años, particularmente del 2017 a la fecha las investigaciones relacionadas con el uso del PET en el concreto hidraulico aumentaron considerablemente, y es Colombia el país que ha desarrollado más investigaciones relevantes. También, muchos autores compartían una idea general expresada en los documentos revisados, la cual es la reutilización de PET reciclado con el fin de innovar en las tecnologías de los elementos constructivos, hacerlos más amigables con el medio ambiente y crear una conciencia social del reciclaje para una mejor calidad de vida de las personas. El uso del PET en el concreto tiene mucho futuro por delante, si bien hoy en día aún no se sugiere un uso estructural, si se ha sabido incorporarlo en obras que requieran únicamente de concreto simple. La mitad de los trabajos han tenido éxito en su incorporación y otro gran porcentaje se mantiene firme en seguir tratando, sabiendo esto se puede concluir que si es factible su incorporación en el concreto hidráulico.
Carbajal Morales Uriel de Jesus, Universidad Mexiquense del Bicentenario
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

APLICACIóN PARA LA ENSEñANZA DEL CONOCIMIENTO ESPACIAL PARA NIñOS CIEGOS SIGUIENDO LA METODOLOGíA METUIGA.


APLICACIóN PARA LA ENSEñANZA DEL CONOCIMIENTO ESPACIAL PARA NIñOS CIEGOS SIGUIENDO LA METODOLOGíA METUIGA.

Carbajal Morales Uriel de Jesus, Universidad Mexiquense del Bicentenario. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

A lo largo de su vida los niños ciegos se enfrentan con muchos retos en relación a su aprendizaje. En la actualidad existen diversas herramientas tecnológicas que sirven como ayuda para que estos niños puedan tener una interacción con las computadoras sin embargo no todas buscan sacarle mucho provecho de la herramienta con la que ellos perciben el mundo como lo son sus manos. El objetivo de esta investigación es poder enseñar temas de conocimiento espacial a niños ciegos mediante el uso de interfaces tangibles, ya que En esta investigación se pretende generar herramientas digitales siguiendo la metodología METUIGA utilizando interfaces tangibles y técnicas de gamificación, para ello es que se construyó una aplicación para la enseñanza de temas de conocimiento espacial en donde se incorpora la metodología planteada, utilizando los métodos de interfaces tangibles y técnicas de gamificación.  



METODOLOGÍA

METUIGA (Metodología para el diseño de sistemas basados en Interfaces de Usuario Tangibles y técnicas de Gamificación) Centrado en el desarrollo de sistemas interactivos siguiendo los principios de los diseño y el ciclo de vida iterativo en cascada METUIGA se organiza en etapas que determinan la etapa de desarrollo en la que estamos. El esquema refleja claramente, con una codificación de color basada en la metodología Mplu +, cuatro conceptos básicos: • Las herramientas adjuntas para el uso correcto de técnicas de gamificación y herramientas tangibles entre rostros (Azul). • Procesos de ingeniería de software del ciclo de vida iterativo en cascada (Rojo). • Deben implementarse los procesos en los que se deben implementar las pruebas relacionadas con los resultados obtenidos en el proceso de software (amarillo). • Los procesos que deben obtener una evaluación satisfactoria por parte del equipo de desarrollo y del usuario final (Verde). La metodologia cuenta con las siguientes etapas para que se pueda llegar al resultado satisfactorio y son: Requerimientos: La comunicación con los usuarios es un aspecto prioritario para las empresas que desarrollan sistemas de software. Durante esta etapa es importante dejar claro el alcance y la herramienta de gamificación que el sistema tendrá en función de las necesidades del usuario. Diseño:  En esta etapa se diseña la mejor solución posible, teniendo en cuenta que el problema se definió claramente en la etapa de requisitos. Sus etapas abarcan diferentes funcionalidades, diseño de actividades, diseño de información y diseño de interfaz tangible, así como las principales actividades que componen el proceso global de sistemas interactivos. Implementacion: También conocida como la etapa de codificación, ya que es donde se debe escribir el código de software necesario que permitirá que el sistema finalmente implementado cumpla con las especificaciones establecidas en la etapa de análisis de requisitos y responda al diseño del sistema.


CONCLUSIONES

La metodología aplicada tiene un gran potencial debido a que se pueden crear distintos tipos de aplicaciones con el uso adecuado de los pasos de toda la metodología. Se pretende continuar la experimentación con la metodología llevando el caso de estudio a término para presentar un resultado final. Debido a que la aplicación esta en desarrollo se van a realizar pruebas con los usuarios a ver si las actividades que contiene son de su agrado o no y si fuera el caso buscar cambiarlas, cabe destacar que por el momento esta actividad cuenta con dos apartados de temas de conocimiento espacial, más adelante se pretende agregar un tercer tema más.
Carmona Leon Alicia, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez

MONITOREO DE UN PANEL FOTOVOLTAICO USANDO INTERNET DE LAS COSAS (IOT)


MONITOREO DE UN PANEL FOTOVOLTAICO USANDO INTERNET DE LAS COSAS (IOT)

Carmona Leon Alicia, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Dado el incremento del uso de sistemas fotovoltaicos (PV), es necesario el estudio de los parámetros meteorológicos que afectan el rendimiento de estos sistemas. Los parámetros que se incluyen son: temperatura ambiental, humedad, precipitación, radiación, velocidad del viento, además es necesario monitorear los parámetros eléctricos del sistema con el fin de conocer el rendimiento, por lo que un sistema de monitoreo es crucial para el funcionamiento eficiente y sin problemas del sistema. En este trabajo se ha desarrollado el prototipo de un sistema de monitoreo, fácil de usar y de bajo costo. El sistema se basa en un microcontrolador ESP8266 y un Arduino Uno, los cuales recopilan y envía los datos a la plataforma ThingSpeak. 



METODOLOGÍA

. El sistema de monitoreo está compuesto por los siguientes bloques: 1.  Panel fotovoltaico (10 W) 2. Sensores de temperatura, humedad, corriente y voltaje. (DHT11, ACS712, ZF0430) 3. Los microcontroladores (Arduino Uno y NodeMCU ESP8266) 4. Intefaz de comunicaciones de WiFi (plataforma ThingSpeak) 5. Usuario final ​A continuacion se muestra una breve descripción de cada uno de los bloques del sistema. Panel fotovoltaico: Se uso un panel fotovoltaico ERDM 10/12, el cual tiene una potencia máxima de 10 W.  El voltaje de circuito abierto (Voc) es de 21.8 Volts y una corriente de circuito cerrado (Isc) de 0.63 Amps. A modo de carga se conectó un foco incandescente pequeño. Sensores: Para obtener los datos de temperatura y humedad se utilizo el DHT11, el cual cuenta con una salida de señal digital calibrada. El pin de salida del DHT11 se conecto al pin 2 de la tarjeta Arduino Uno, el pin de Vcc al pin 5V de la tarjeta  y las GND tanto del sensor como del Arduino se conectaron.  El sensor utilizado para medir el voltaje entregado por el panel fue el voltaje FZ0430, el cual tiene un rango de medicion de 0 a 25 V. El pin S del primer sensor se conectó al pin analógico A0, el pin - a GND de la tarjeta mientras que VCC y GND se conectaron en paralelo a la carga.  En el caso de la corriente se usó el modelo 30 A del sensor de corriente ACS712. Para su conexión, el pin VCC se conectó al pin de 5V de la tarjeta Arduino Uno, el pin de salida se conectó al pin analógico A1 en el Arduino, y el pin GND al GND de la tarjeta, mientras las dos entradas fueron conectadas en serie con la carga y el panel fotovoltaico. Microprocesadores: La tarjeta Arduino Uno se usó como auxiliar para recopilar los datos detectados a través de los sensores de humedad, temperatura, corriente y voltaje, una vez procesados los envia a la tarjeta NodeMCU ESP8266 mediante una comunicacion SoftwareSerial. Por su parte la NodeMCU ESP8266 envía los datos al canal creado en la plataforma IoT "ThingSpeak".  Interfaz: La intefaz del sistema se creo utilizando las herramientas proporcionadas por ThingSpeak. Los datos recopilados del sensores se almacenan en la nube y se presentan de forma grafica al usuario.  Usuario final: El usuario final puede analizar y visualizar los datos en la pagina web de ThingSpeak o mediante la aplicación móvil. 


CONCLUSIONES

La integración de los sistemas fotovoltaicos al sistema eléctrico se ha convertido en una necesidad y por lo tanto requiere la búsqueda de nuevas y eficaces soluciones de monitorización y control. En este proyecto se ha desarrollado el prototipo de un sistema de monitoreo de un panel fotovoltaico basado en IoT para recopilar datos sobre parámetros importantes de los paneles solares. Luego de estudiar la arquitectura que los sistemas de monitoreo para paneles solares siguen y obtener un primer prototipo del sistema, el siguiente paso es lograr un sistema confiable y seguro que pueda alimentarse del mismo panel, asimismo, mediante el uso de algoritmos y modelos de aprendizaje automáticos, es posible lograr que el sistema sea capaz de tomar decisiones sobre los datos y el rendimiento. De ahí la importancia de tener disponibles y de forma gráfica los parámetros medidos por los sensores usando un sistema de monitoreo remoto basado en Internet de las Cosas.
Carranza Guillermo Miriam, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica

ESTIMACIóN DE PRODUCTOS FINALES A TRAVéS DE REGRESIóN NO LINEAL COMO HERRAMIENTA DE TOMA DE DECISIóN EN LA PRODUCCIóN DE CARNE DE CANGREJO PRECOCIDA (CALLINECTES SAPIDUS).


ESTIMACIóN DE PRODUCTOS FINALES A TRAVéS DE REGRESIóN NO LINEAL COMO HERRAMIENTA DE TOMA DE DECISIóN EN LA PRODUCCIóN DE CARNE DE CANGREJO PRECOCIDA (CALLINECTES SAPIDUS).

Carranza Guillermo Miriam, Tecnológico de Estudios Superiores de Valle de Bravo. Palafox Méndez Marcela Guadalupe, Instituto Tecnológico Superior de Los Reyes. Vian Arcos Joselin, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El lago de Maracaibo está conectado al mar Caribe del que recibe agua salada, lo que le otorga su condición de estuario, en él habitan seis especies de cangrejos del género Callinectes, pero es C. sapidus la especie dominante en las capturas con más del 90% del total, tiene importancia económica en América, especialmente en México y en Estados Unidos, el cual es considerado como el primer productor mundial.  Una planta industrial ubicada en el occidente de Venezuela, comercializa este cangrejo en cuatro presentaciones distintas; Jumbo; Lump; Claw y Cocktail claw. Resulta difícil para la empresa precisar la cantidad final que se obtendrá de cada producto y presenta dificultades a la hora de las estimaciones de costos y tiempos tanto de producción y logística así como tiempo de vida en anaquel. Es por ello que durante el verano de investigación se trabaja con el objeto de establecer ecuaciones de predicción para cada uno de los productos de esta empresa, que permitan con suficiente antelación adelantar estimaciones sobre las necesidades antes mencionadas.



METODOLOGÍA

Para la recopilación de datos se tomaron 22 días como prueba piloto, tomando en cuenta la trazabilidad entre el producto recibido y el terminado, se garantizo la validez de las estimaciones para que ambos valores estuvieran dentro del mismo código de lote. Respecto a la selección de variables resultaron más evidentes como predictoras los kg de cangrejo recibido y el aceptado. Mediante una prueba de correlación de Pearson (r), se logró establecer que la variable independiente ideal para realizar la predicción es los kg de cangrejo aceptados. Se tabularon los datos en una hoja de cálculo electrónica, y fueron analizados con el uso de la herramienta de selección de modelo de regresión de STATGRAPHIC V.18.a través del valor del coeficiente de determinación (>R2).  La variable independiente se determina durante la recepción, lo cual permite su uso de forma oportuna para la predicción de los productos con una antelación de 12-16 horas.Los valores de relación observada entre los kg de cangrejo aceptado y los productos resultaron ser muy fuerte, positiva y altamente significativa (P<0,01). Tabla 1. Tabla 1. Ecuaciones de regresión y parámetros de bondad de ajuste Producto   Coef. de correlación (r)      Significancia JUMBO                0,99                                     ** LUMP                   0,97                                     ** CLAW                   0,98                                    ** COCKTAIL            0,99                                    ** ** Altamente significativo (P<0,01). Las ecuaciones ajustadas para la estimación de los productos se describen en la tabla 2. Tabla 2. Ecuaciones de regresión Producto                               Ecuación                         Significancia JUMBO      JUMBO=(5,011935+0,00417352*ACEPTADO)2         ** LUMP         LUMP= (1195,52+0,00401348* ACEPTADO2)           ** CLAW         CLAW= (-727,679+0,0027282* ACEPTADO2)            ** COCKTAIL  COCKTAIL= (-0,49883+0,198647* ACEPTADO )2     ** ** Altamente significativo (P<0,01). Se obtuvieron cuatro ecuaciones de regresión no lineal, pasando por ecuaciones de tipo raíz cuadrada de Y (Y = (a + b*X) 2: Jumbo), doble cuadrado (Y = sqrt(a + b*X2: Lump y Claw) y raíz cuadrada doble: Y = (a + b*sqrt(X))2: Cocktail). Todos los modelos ajustados resultaron altamente significativos (P<0,01), y con alto coeficiente de determinación (R2). Y la igualdad entre los valores observados y los valores predichos a través de las ecuaciones descritas se contrastó mediante la prueba de T de Student para muestras independientes, resultando no haber diferencia significativa. Se realizaron pruebas de normalidad para datos no censurados, optando por la prueba de Anderson-Darling (A2), una prueba muy potente estadísticamente para muestras de tamaño =< 30, ya que el tamaño muestral de los datos analizados fue de 22. Los parámetros de bondad de ajuste para las ecuaciones determinadas se pueden observar en la tabla 3. Tabla 3. Parámetros de bondad de ajuste Producto   Coef de determinación (R2)        RSSa             TSSb JUMBO                         0,98                              7,011            436,22 LUMP                            0,96                           1,450*E-8      3,347*E-9 CLAW                            0,98                           5,435*E-7     2,240*E-9 COCKTAIL                     0,95                              6,50            135,75 a. RSS: suma de cuadrados de residuales. b. TSS: suma de cuadrados totales. Los resultados obtenidos de la prueba de Anderson-Darling sugieren que los residuos obtenidos de las estimaciones realizadas no se desvían una distribución normal, de igual forma puede corroborarse que los valores de la suma de cuadrados de residuales (RSS) representa una fracción muy pequeña de la variabilidad total (TSS), lo cual consolida la habilidad de las ecuaciones descritas para explicar la variabilidad de los datos estudiados. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de estadística y ponerlos en práctica con las técnicas de análisis y el uso del programa de selección de modelos de regresión de STATGRAPHIC (V.16).  Para la selección del mejor modelo en cada producto se utilizaron como parámetros de bondad de ajuste el coeficiente de determinación (R2) y la suma de cuadrados residual (RSS). Se obtuvieron ecuaciones de regresión no lineales altamente significativas (P<0,001), que permitieron la estimación de los productos con elevados niveles de determinación (0,95-0,98 R2) y bajas sumas de cuadrados de residuales. Pruebas de t de Student verificaron la diferencia no significativa entre los valores observados y los valores estimados a través de las ecuaciones determinadas, igualmente se estableció la normalidad de la distribución de los residuales de las estimaciones. Por lo que se concluye que la técnica de regresión no lineal provee importantes elementos para la toma de decisiones oportunas en el proceso de producción de carne de cangrejo precocida.
Carrasco Avalos Alexis, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

CONSTRUCCIÓN DE UN MODELO EN SIMIO DE UN SITIO DE TAXIS (SIMULACIóN Y REDES LOGíSTICAS)


CONSTRUCCIÓN DE UN MODELO EN SIMIO DE UN SITIO DE TAXIS (SIMULACIóN Y REDES LOGíSTICAS)

Carrasco Avalos Alexis, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Jasso Osornio Daniel, Tecnológico de Estudios Superiores de Jocotitlán. López Escobar Miguel Ángel, Universidad Mexiquense del Bicentenario. López Montoya Jhoana, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

Grisales, A. & Posada, C.A. (2020) dan a conocer en su trabajo titulado: Diseño de estrategias de planeación de la demanda en servicios individuales de pasajeros tipo taxi, que la planeación del transporte público de vehículos Taxi, depende en un alto porcentaje de la disponibilidad y ubicación de estos en el área. Por ello, se considera que al comenzar a desarrollar cambios en un negocio y/ o servicio es de suma importancia que de antemano se realice una previa investigación sobre si es viable o no la propuesta de lo que buscamos realizar. Un servicio de taxis es utilizado diariamente por un gran numero de personas y es prescindible el ofrecer un servicio de calidad, dado que en la actualidad se han presentado nuevos servicios como el medio de transporte instantáneo por medio de una aplicación móvil, autobuses más económicos, que han causado la baja de clientes a este. Es prescindible considerar que tras la constante demanda del servicio el número de taxis disponibles en todo momento debe de cumplir con la demanda de clientes en los distintos horarios.



METODOLOGÍA

Para el desarrollo del presente proyecto de investigación se hará uso de la metodología de Law y Kelton (2001), la cual cuenta con 10 etapas para desarrollar un estudio de simulación, estas son:  1. Formulación del problema El sistema bajo estudio corresponde al sitio de taxis 24 de junio ubicado en la localidad de San Juan Coajomulco, municipio de Jocotitlán, Estado de México, cuenta con un total de 36 taxis distribuidos en las distintas bases de la localidad, pero en el sitio de taxis principal con el que se trabajó solo cuenta con un total de 10 taxis; ofrece dos tipos de servicios: colectivo y local o especial. El objetivo a cumplir con el desarrollo del proyecto fue: construir un modelo de simulación en Simio del Sitio de taxis para conocer el funcionamiento del sistema. 2. Recolección de datos y definición del modelo Se identificaron los parámetros de entrada del sistema, los cuáles son: Número de taxis en el sitio Tipo de servicio Tiempo entre llegadas de los pasajeros Destinos más frecuentes Tiempo de viaje (redondo) Con los datos recolectados, se construyeron las bases de datos de cada una de las variables y se procedió al análisis estadístico de las misma. El análisis estadístico corresponde a la aplicación de pruebas de bondad de ajuste que determinarán si los datos de las variables se ajustan o no a distribuciones teóricas conocidas. Para la realización de las pruebas de bondad de ajuste se hizo uso del software estadístico Stat::Fit ®. Este software, una vez alimentados los datos, realiza tres pruebas de bondad de ajuste: Chi-cuadrada, Kolmogorov-Smirnov y Anderson Darling, eligiendo dos de ellas dependiendo la naturaleza de los datos. 3. Verificación del modelo. Esta fase se desarrolló mediante el análisis del diagrama de flujo con personas familiarizadas con la operación del sistema, quienes lo avalaron. 4. Construcción del programa Se construyó el modelo en SIMIO® para ello fue necesario conocer los elementos básicos. ELEMENTO DEL SISTEMA Y ELEMENTO SIMIO Llegada del pasajero - Source Paradas - Server (s) Pasajeros - Entity Rutas de Viaje - TimePath (s) Selección de tipo de viaje - Path Destinos - Sink (s) Horarios de trabajo - Data_Workshedules Total de taxis en la parada - Definitions_Lists 5. Realización de pruebas piloto Esta etapa se dónde el modelo se consideró casi terminado, consiste en que tras la ejecución del programa un cierto número de veces, se obtiene información y para posteriormente poder realizar la validación de la simulación del modelo. 6. Validación del programa La validación de un modelo de simulación es el procedimiento matemático por medio del cuál se asegura que los datos que arroja el modelo son estadísticamente iguales a los del sistema real. Para realizar este procedimiento se utiliza una prueba de hipótesis, en donde: Ho: La media de los datos del sistema real son iguales a la media de los datos del modelo de simulación Ha: Las medias de los datos de sistema no son iguales a la media de los datos del modelo de simulación. Se utiliza la prueba t-pareada y se valida cada una de las variables.  7. Diseño de experimentos Esta fase fue donde se determinó el número de simulaciones independientes, es decir, el número de veces que se ejecutara el programa, especificando claramente su tiempo y sus condiciones iniciales. Para esto, se hizo uso de un procedimiento matemático a través de determinar un error absoluto. Después de realizado el procedimiento se obtuvo que el número mínimo de replicaciones a efectuar son 80. 8. Corrida del programa En esta etapa, se corrió el modelo 80 veces. 9. Análisis de resultados Esta etapa se desarrolló mediante el análisis de la información generada tras la corrida del programa el número de veces indicado. Con ello se estiman las medidas de desempeño para determinar el mejor sistema con respecto a alguna de ellas. 10. Documentación e implementación de resultados En esta fase es donde se guardó todo lo realizado para el desarrollo del proyecto, esto con la finalidad de tener una base sólida en la cual se puedan probar escenarios de mejora al sistema.


CONCLUSIONES

Durante la estancia virtual de investigación en el Instituto Tecnológico Superior de Tierra Blanca, se logró adquirir conocimientos y habilidades tanto teóricas como practicas en el desarrollo de simulación de procesos logísticos, se desarrollo un pequeño proyecto. Además, se aprendió a manejar el simulador Simio® en un nivel básico, de tal forma que ahora es posible modelar sistemas. Así mismo, se aprendieron los métodos y fórmulas para el tratamiento de la información y de los resultados obtenidos tras el proceso de simulación, esto con la finalidad de apoyarnos en la toma de decisiones de los modelos desarrollados en dicho software.
Carrasco Pérez Vania Sherlyn, Instituto Politécnico Nacional
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

CONCRETO RECICLADO EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL EN AGUASCALIENTES


CONCRETO RECICLADO EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL EN AGUASCALIENTES

Carrasco Pérez Vania Sherlyn, Instituto Politécnico Nacional. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años se ha incrementado de manera rigurosa y significativa el desarrollo de la construcción en el país y alrededor del mundo. Es un pilar indispensable para satisfacer las necesidades de la sociedad que se desarrolla para mejorar la calidad de vida. Por ello las principales problemáticas que se generan en la industria de la construcción son en gran parte las ambientales, tales que afectan de manera drástica la colectividad de nuestro entorno socioeconómico, el entorno ambiental, degradando nuestros recursos, desde la extracción de materiales, procesamiento, fabricación, distribución y eliminación, ocasionando sus mayores impactos ambientales. Los residuos de la construcción y demolición (RCD) son producidos en cantidades masivas. En México se desechan grandes toneladas de estos éstos  y afectan de manera inconmensurable, no obstante, estudios realizados en el año 2019 demuestran que la generación en toneladas de residuos fue de 10.14 millones, dónde el 25% fueron desechos de concreto, provenientes de obras, considerados desperdicios en construcciones y/o demoliciones. Tomando en cuenta que la mayoría de los casos, los residuos terminan en basureros, calles y ríos, se busca que la contaminación llegue a reducirse de manera exponencial, estimando los impactos visuales, económicos y de factibilidad de nuestros recursos, sin dejar de lado la adversidad económica que se puede generar por estos medios aprovechando a toda costa nuestros bienes para llegar a este objetivo. Aunando a la contaminación de suelo, también es importante mitigar la explotación de nuestros recursos no renovables. Tomando en cuenta lo anterior la presente investigación tiene como finalidad realizar una recopilación acerca del concreto reciclado reincorporando un residuo al ciclo de vida como una solución para la construcción y la recuperación de los espacios públicos para el disfrute de la población, basándose en la recolección de información de la región Occidente de México, de manera particular en Aguascalientes.



METODOLOGÍA

La presente investigación es del tipo descriptivo. El caso de estudio tiene por objeto conocer estudios previos (tesis, artículos), situación actual con bancos de materiales, legislación y gestión de los RCD y conocimiento/opinión sobre implementación de concretos reciclados en Aguascalientes. De tal modo que las herramientas empleadas para efectuar la investigación son las primarias por medio de contactos directos, y la información secundaria que se obtuvo mediante la lectura de artículos, revistas, tesis, etc. • Fichas de literatura especializada, nacionales e internacionales. Los estudios sobre los Concretos reciclados y RCD muestran la importancia de su uso y que tan factible es social, ambiental y económica. • Ficha de los Bancos de materiales en la ciudad de Aguascalientes. A grandes rasgos, los datos se obtuvieron por la Secretaría de Comunicaciones y Transportes (SCT) del inventario de Bancos de materiales. Se identificó 8 bancos solicitando información sobre la descripción del proceso para la producción de agregados, producción anual y porcentajes producidos por tipo. • Recopilación de información sobre los RCD, a través de un diagnóstico las prácticas de gestión que se implementan en diferentes obras civiles, auxiliándonos de un directorio de las empresas pertenecientes dentro del mismo sector de la construcción y aplicando una encuesta que fue enviada a 28 constructoras. Se sabe que las empresas constructoras en Aguascalientes por disposiciones oficiales están empezando a tomar conciencia de la sostenibilidad en sus proyectos, implementando procesos de gestión para los RCD generados en sus obras. • Encuestas sobre los concretos reciclados constituidas por 20 preguntas acordes a la revisión bibliográfica aplicadas en línea conociendo la opinión pública. Como resultado se obtuvieron datos particulares: rango de edad, ocupación, lugar de residencia, y la relación en el sector de la construcción, por otra parte, se identificó la cantidad de personas dispuestas a consumir un producto reciclado, también fue necesario determinar si tenían conocimiento de lo que es un concreto reciclado y en qué tipo de obras deberían implementarse. Se expondrán resultados reportados a 6 días de su publicación. La información obtenida es producto de los estudios obtenidos para tener obtener más conocimiento sobre el tema. Actualmente los mecanismos de gestión de residuos en la ciudad de Aguascalientes se manejan de manera especial minimizando su generación y maximiza su valoración haciendo el uso de políticas ambientales, y acuerdos municipales.


CONCLUSIONES

De la literatura consultada, se puede concluir que para elaborar un material tan usado en la industria de la construcción, como lo es el concreto, la utilización de RCD en su elaboración es una buena alternativa   para su gestión y estrategia para minimizar el impacto medioambiental reduciendo el consumo de recursos no renovables, demostrándonos que hacer uso del reciclaje en concretos son sustitutos que brindan resultados satisfactorios.  Con respecto a la encuesta de concretos reciclados, los resultados obtenidos en un análisis preliminar indican que el 54.6% conocía lo que es un concreto reciclado y que adquiriría estos productos de acuerdo a su funcionalidad, costo, y amigables con el ambiente, y el 97.3% considera la implementación en obras en México con un 66.4% es una alternativa aceptable y aplicable sería en la urbanización, los cuáles 86.9% confía en su desempeño. Del total de encuestados a nivel nacional, sólo el 0.6% reside en Aguascalientes, de los cuales el 100% considera que el reciclaje es una buena medida de gestión ambiental y que debería implementarse en todo tipo de industrias, el 50% desarrolla una actividad vinculada con la industria de la construcción, sabe lo que es el concreto reciclado y considera que el uso del concreto reciclado en obras civiles es una buena alternativa.
Carrasquilla Escorcia Wendy Johana, Universidad Antonio Nariño
Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango

ANALISIS DE UN DISEÑO DE MECANISMO FACIAL PARA UN TÍTERE ANIMATRÓNICO.


ANALISIS DE UN DISEÑO DE MECANISMO FACIAL PARA UN TÍTERE ANIMATRÓNICO.

Carrasquilla Escorcia Wendy Johana, Universidad Antonio Nariño. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Del total de lenguas existentes en el territorio mexicano en el siglo XVI, actualmente sobreviven 68, con 364 variantes, agrupadas en 11 familias lingüísticas, (Diario Oficial de la Federación, 2011). El último dato arrojado en el 2015 por el Instituto Nacional de Estadística, Geografía e Informática (INEGI) informa que en nuestro país un 6.6% de la población son hablantes de una lengua indígena, pasando del 16% en 1930 al 7.1% en un lapso de 70 años. Según el Instituto Nacional de Lenguas Indígenas, en México se hablan 68 lenguas originarias, colocándose como uno de los países con mayor riqueza lingüística del mundo. Por lo que se propone un diseño de un títere animatrónico que apoye el aprendizaje inductivo de la lengua náhuatl y que propicie su estudio autónomo y socializado mediante actividades prácticas como el saludo, numeración, partes del cuerpo humano, palabras cotidianas, oraciones, etc., con la finalidad de aportar para el rescate, preservación y difusión de esta lengua indígena.



METODOLOGÍA

Se presenta el  diseño de un mecanismo facial para un animatrónico para la enseñanza del lenguaje náhuatl, usando el software SolidWorks como herramienta de diseño y simulación 3D, así como los mecanismos de movimiento que intervienen en la gesticulación para una interacción, logrando el movimiento de boca y ojos en la forma más real posible.


CONCLUSIONES

El diseño propuesto para el proyecto resultó un  complicado por la falta de información acerca del conocimiento de la lengua, también el diseño es largo. El software de diseño aplicado  permite identificar y determinar los valores de rigidez de la estructura con el adecuado amortiguamiento.
Carreto Maxil Emanuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla

MODELADO DE PROPIEDADES ESTRUCTURALES, ELECTRóNICAS Y MECáNICAS DE NANOMATERIALES.


MODELADO DE PROPIEDADES ESTRUCTURALES, ELECTRóNICAS Y MECáNICAS DE NANOMATERIALES.

Carreto Maxil Emanuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la innovación y desarrollo de nanomateriales tiene una gran importancia en el avance tecnológico de los semiconductores siendo algunos de sus principales usos en los dispositivos inteligentes, celdas solares e incluso tratamientos médicos. El desarrollo de estos materiales se ha facilitado gracias a la simulación de las propiedades adquiridas el generar cambios estructurales principalmente pero también en el dopaje o generación de vacancias los cuales gracias a las herramientas de simulación pueden conocerse antes de realizar los experimentos y así disminuir el margen de error al buscar dichas propiedades. También cabe mencionar la enorme ventaja en tiempo y recursos utilizados para una simulación comparando la velocidad en los avances que han ocurrido desde que se hace uso de este tipo de herramientas y el tiempo en que no se ocupabas. El tipo de simulación (molecular o cuántica) así como el software utilizado, establecerá los requerimientos del equipo de cómputo. Sin embargo para procesos de simulación molecular utilizados en este trabajo bastó con un equipo de cómputo básico.



METODOLOGÍA

Como primer paso se realizó un estudio de la ciencia e ingeniería de los materiales. Este estudio se basó en conocer las propiedades que tiene cada material y de esta forma modificarlas para su adaptación a distintos entornos e incluso la sustitución de materiales por otros que cumplan con mayor eficiencia la labor a desempeñar haciendo uso de la combinación de distintos materiales para generar mejores propiedades. Durante la estancia también se estudió el comportamiento de la microestructura y como es que es un factor que afecta profundamente las propiedades de un material ya que el enfoque de este trabajo en particular es de analizar dos materiales semiconductores muy utilizados en el área de dispositivos inteligentes los cuales son el óxido de zinc (ZnO) y el arsenuro de galio (GaAs) haciendo uso de herramientas de simulación. En la segunda asignación de lectura se concluyó que los métodos de mecánica molecular (MM) se basan en las leyes de la mecánica clásica y en las leyes de la mecánica cuántica para la cual existen otros métodos,una de las razones es la sencillez de simular moléculas complejas que, con un método cuántico, se obtendrían datos más precisos pero también computacionalmente más costosos y esto último es una de las razones más importantes por las cuales se adoptan los métodos de MM con leyes clásicas en dónde se estudian los átomos como esferas rígidas en el espacio y los enlaces químicos se interpretan como resortes que actúan bajo el principio de un oscilar armónico simple en el cual puede usarse la ley de Hooke para obtener las constantes de fuerza dependiendo del desplazamiento que resulta en cada actividad del resorte. El método construye una expresión de la energía potencial en función de las posiciones atómicas así como el tipo de átomos que construyen una molécula. Las aportaciones a la energía potencial se describen en una ecuación la cual es la suma de: Alargamiento del enlace, deformación del ángulo de enlace, deformación fuera del plano, rotación internan alrededor de un enlace (TORSIÓN), interacciones entre estas clases de movimientos (CRUZADO), atracciones y repulsiones de Van Der Waals entre átomos no enlazados e interacciones electrostáticas entre los átomos. Todas estas expresiones conforman lo que se conoce como un Campo de Fuerzas y por medio del principio de transferibilidad un campo de fuerzas puede adaptarse a sistemas más complejos. Durante este trabajo se realizaron simulaciones moleculares haciendo uso del software Forcite Tools dónde se calcularon dos optimizaciones geométricas respecto a la conectividad entre dos átomos al azar tanto de ZnO como de GaAs comparando con resultados experimentales encontrados en la base de datos de Forcite Tools. Los cálculos se efectuaron con 3 distintos campos de fuerza pre-establecidos por el software y se tabularon para compararse con los resultados experimentales y poder conocer qué campo de fuerzas tenía mayor afinidad con dichos resultados.


CONCLUSIONES

Los resultados experimentales obtenidos para el arsenuro de galio (GaAs) para una distancia interatómica seleccionada marcaron una distancia de 5.653 Å (angstroms), posteriormente al realizar la optimización geométrica se usaron los campos de fuerzas: Universal, Compass27 y Dreiding. Usando Universal se obtuvo una distancia de 5.56 Å, usando Dreiding fueron 5.549 Å y al utilizar Compass27 el software señaló un error de ajuste debido a que el campo no podía aplicarse al sistema del óxido de zinc el cual tiene una estructura cristalina tipo wurzita. Para esta optimización el campo de fuerzas con mayor afinidad fue Universal con una diferencia de 0.093 Å de los resultados experimentales contra Dreiding con una diferencia de 0.104 Å. Para hacer uso de Compass27 para este sistema es requerido hacer ajustes particulares tomando en cuenta más variables de las que se tenía conocimiento en el momento de la simulación. Para el óxido de zinc (ZnO) los resultados experimentales mostraron una distancia interatómica seleccionada de 7.049 Å, al realizar la optimización geométrica los resultados obtenidos fueron 7.048 Å para Universal, 7.683 Å para Dreiding y 6.865 Å para Compass27. El campo de fuerzas con mayor afinidad fue nuevamente Universal con una diferencia de tan solo 0.001 Å. La optimización geométrica de una distancia interatómica es sólo una pequeña parte de toda la simulación requerida para encontrar la estructura cristalina más estable en un material. Sin embargo las simulaciones realizadas durante esta estancia esclarecieron el uso de distintos campos de fuerzas para encontrar el sistema menor energía lo que se traduce como la estructura más estable posible para los parámetros de ajuste seleccionados en el momento de cada simulación.
Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora

APLICACIóN DE UN DISEñO INSTRUCCIONAL BASADO EN UN MODELO CONSTRUCTIVISTA QUE MEJORE EL RENDIMIENTO ACADéMICO EN EL TECNOLóGICO DE ZAMORA


APLICACIóN DE UN DISEñO INSTRUCCIONAL BASADO EN UN MODELO CONSTRUCTIVISTA QUE MEJORE EL RENDIMIENTO ACADéMICO EN EL TECNOLóGICO DE ZAMORA

Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán. Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán. Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán. Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Hoy en día los avances en la tecnología de la comunicación han producido cambios muy significativos en la educación tradicional. Un gran número de instituciones educativas están ofreciendo aprendizaje a distancia o virtual a través del internet. Ahora estos docentes se enfrentan con el reto de cambiar el diseño instruccional tradicional para que sus cursos sean efectivos en línea. En el Instituto Tecnológico de Estudios Superiores de Zamora, normalmente cada docente tiene sus propios cursos en diversas plataformas virtuales, sin embargo, no se cuenta con un diseño instruccional que permita estandarizar las actividades que se pretenden y que el curso contenga todo lo necesario para que el estudiante aprenda. Los cursos no presentan el uso de diferentes actividades que proporciona la plataforma utilizada. Las reducidas actividades que actualmente proporcionan los profesores de estos cursos virtuales no promueven la característica principal del constructivismo social que es la de relacionarse socialmente para aprender. Esto a pesar de que el modelo educativo basado en competencias se fundamenta en la teoría constructivista.



METODOLOGÍA

Esta investigación es de tipo experimental. El proceso secuencial se efectuaría de la siguiente manera: Investigación documental. Técnicas de investigación de campo. Recopilación de la información. Análisis de la información obtenida. Interpretación de la información obtenida. Conclusiones y recomendaciones. Definir los resultados obtenidos. Determinar las causas y los efectos de dichos resultados. Precisar la alternativa más conveniente. Reporte final de investigación. Metas: A corto plazo se pretende aplicar el diseño instruccional en una clase con un grupo ya formado para llevarlo a cabo como una prueba piloto, se presentará al estudiante los temas y subtemas que contiene alguna unidad y se describirá la importancia de la misma. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. A mediano plazo se implementará en una materia completa, en donde cada unidad contenga todos los elementos del diseño instruccional constructivista. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. A largo plazo se implementará en una carrera, en donde todas las asignaturas cuenten con el diseño instruccional constructivista, de igual forma se emplea con los anteriores, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. Finalmente, se incluirá, cómo se llevaron a cabo las actividades de aprendizaje, Éstas se realizarán a través de las actividades que proporciona Moodle como son: wikis, diario, glosario, cuestionario, encuesta, tareas, foros, crucigramas y chat. 


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos acerca del diseño instruccional basado en un modelo constructivista y poner en práctica esos conocimientos tomando el rol de profesores, donde nos dimos cuenta que la labor de un docente no es nada fácil, tienen que pasar por una etapa de organización demasiado detallada para que todo cuadre a lo largo de lo que se imparte la materia, además de cumplir con los objetivos de la asignatura a base de las actividades que se van dejando. También aprendimos a utilizar las plataformas virtuales con Sway, para apoyarnos en presentaciones dinámicas y Educaplay para actividades interactivas. ---Andrea Guadalupe Rosas Miranda   La educación en línea tomó por sorpresa a muchos, pensando en esto, se realizó una plantilla de diseño instruccional constructivista, la cual, estandariza la manera en la que el docente impartiría sus clases, es importante que los estudiantes se instruyan de manera efectiva y dinámica, estimulándolos a la investigación, proporcionándoles la inquietud y el interés por aprender cosas nuevas, por lo que se propusieron actividades de aprendizaje con distintas plataformas virtuales, entre ellas: Moodle, Genially, Sway, Visual Paradigm, Educaplay, Zoom, Meet Google, entre otras. Algunos docentes todavía son tradicionales en su forma de enseñanza y como estudiantes, a veces no nos percatamos del esfuerzo y dedicación de nuestros profesores, el tomar el papel de docente en esta investigación nos hizo valorar aún más dicha profesión, que dicta de la paciencia y el entusiasmo de enseñar. ---María José Carrillo Núñez   Mi participación en el programa Delfín, sin duda alguna fue de las mejores experiencias que he tenido, porque he aprendido a trabajar en equipo de una mejor manera. Los conocimientos que adquirí fue el trabajar mediante un modelo constructivista para acoplar una página, en la cual los estudiantes puedan tomar clases de manera virtual, de forma más sencilla, ordenada y didáctica. Sin dejar de lado la experiencia de trabajar de manera virtual en el desarrollo de este proyecto, ya que fue un verdadero reto, debido a que se presentaron muchos inconvenientes como fallas con el internet, entre otras cosas, que hicieron un poco más complicado el desarrollo del proyecto, aunque no imposible. ---Verónica Guadalupe Martínez Mora   Jamás tuve experiencia relacionada con elaborar contenido educativo en las ya conocidas plataformas virtuales, como estudiante únicamente estaba del lado de tener que introducirme a nuevas plataformas. Realizando mi estancia me percaté que tenía que utilizar un lenguaje para el desarrollo de páginas web; que es una asignatura que vi en mi carrera. Comprendí que ser docente no es simple, que con los límites que nos impidan asistir a la escuela, aún así, los docentes tienen que adaptarse y aprender a utilizar estas tecnologías para seguir enseñándole a sus alumnos. Mi punto de vista sobre las plataformas virtuales y el docente cambiaron considerablemente, fue algo que admiré mucho y que estaría dispuesto a hacer si en algún momento a mí también me toca compartir mis conocimientos. ---Fermín Lara Chávez      
Casas Frutis Liliana, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA


MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA

Casas Frutis Liliana, Tecnológico de Estudios Superiores de Valle de Bravo. Garcia Medina Andrea, Tecnológico de Estudios Superiores de Valle de Bravo. Gómez Arroyo Anel Michel, Tecnológico de Estudios Superiores de Valle de Bravo. Pineda Ortiz Guadalupe Marlen, Tecnológico de Estudios Superiores de Tianguistenco. Sánchez Rojas Félix Alexis, Instituto Tecnológico de Zitácuaro. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

Se observó que en el área de trabajo de la empresa UUMBAL, el no tener controlado los lotes en producción conlleva a tener una variación en la productividad mensual de la plantación, teniendo un impacto significativo en las metas planificadas. La empresa consideró oportuno los estudios de calidad en su proceso para optimizar los tiempos de recolección, tiempo efectivo de trabajo, recursos humanos y distintos costos de herramientas, para consigo mejorar su capacidad de estrías y aplicación de pastas ante los factores cambiantes del entorno, utilizando diferentes metodologías, para saber qué problemas se presentan en cada localización o subproceso, así mismo identificar los factores que intervienen en el estriado y cosecha de pino para generar alternativas que ayuden a tener una meta más alta de recolección.



METODOLOGÍA

Se desarrolló una investigación no experimental, la cual se basa en variables que ya ocurrieron o se dieron en la realidad sin intervención directa del investigador, es de tipo cualitativa ya que con la recolección de datos que se tiene se pretende analizarlos para la comprobación de hipótesis y es un estudio correlacional ya que la investigación es conducida en lugar de la experimentación por la relación estadística causal entre las variables. Con datos sobre el proceso de resinación de la empresa UUMBAL se realizó un diagnóstico en el proceso de resinación aplicando un Mapa de Cadena de Valor (VSM) para identificación del flujo de materiales, la información desde el proveedor, proceso y cliente, plasmando las actividades productivas para identificar la cadena de valor y detectar donde se producen desperdicios durante el proceso, se identificaron dos cuellos de botella, el primero fue en la parte de la aplicación de pasta, ya que dicho proceso es de 7 días para posteriormente realizar la cosecha de resina y el segundo fue en el almacén final, ya que la resina que llega se queda en resguardo para posteriormente ser enviada a Grupo Allen. Se empezó con la aplicación de la metodología de Seis Sigma,en la etapa 1 se realizó un diagrama de Ishikawa, se observó que la mayoría de los problemas que existen en el proceso de resinación son generados a raíz de la mano de obra ya que no cuentan con las capacitaciones pertinentes para realizar sus tareas, así mismo el rendimiento es afectado por factores como la disciplina o habilidades con las que cuentan. Con la finalidad de hacer un análisis minucioso y preciso de las problemáticas detectadas se elaboró un diagrama de Pareto, examinándolo se aprecia que hay 4 causas principales asociadas al proceso de resinación, las cuales son; herramientas, EPP no requisitado, habilidades, capacitación y experiencia del colaborador. Estas representan el 20% del total de las causas que afectan al rendimiento y calidad del estriado, es necesario hacer énfasis a dar solución a estas causas detectadas, ya que resolviendo esto se elimina el 80% de las afectaciones en el proceso. En la etapa 2 se elaboró un histograma con los datos de producción, en el cual se observa el rendimiento de estriado mostrando un histograma tipo binomial, la desviación indica variabilidad en la producción de estrías ya que hay colaboradores que están realizando entre 800 estrías mientras que otros hacen hasta 1400. Se hizo un diagrama de caja y bigotes para mostrar la distribución de los datos y dio como resultado que no se está cumpliendo con la producción, debido a que la media de los datos es 1096.25 y la producción requerida es de 1200, asi mismo se encuentran 2 datos atípicos uno de 657 y otro de 1581 los cuales pueden ser atribuibles a algunas de las principales causas que se encontraron en los diagramas de Ishikawa y Pareto. En la etapa 3 con referencia al análisis de la capacidad del proceso en donde se cuenta con varios lotes de producción de pino híbrido y caribean, especialmente la resina que es el proceso que nos interesa, en la etapa 2 se determinó la capacidad del proceso en donde se evidencia que el proceso no es estable debido a que no cumple con el rendimiento de trabajo por colaborador asignado por jornada, derivado de esto se requiere un ajuste en la capacidad del proceso, es decir, establecer la contratación de nuevo personal o disminuir el rendimiento establecido a través de un buen estudio de tiempos y movimientos con la finalidad de llegar a las metas establecida de producción por año de la empresa UUMBAL. Con relación a la etapa 4, se genera un área de oportunidad en donde se establece un diseño de experimento de varios factores incluido un análisis de varianza de 2 factores, donde se determina áreas de mejora para maximizar la producción de resina aprovechando los recursos con los que cuenta la empresa. Por último en la etapa 5 se planteó el control de los datos de producción aplicando un control estadístico de procesos, que permita el monitoreo de la información para el desarrollo de proyectos de mejora que permitan eficientar las actividades de resinación dando como resultado mayor producción de resina.


CONCLUSIONES

Con la implementación del proyecto de mejora al proceso de resinación, se logró identificar áreas de oportunidad para aumento de la productividad utilizando los mismos recursos. A través de este análisis se logró observar el comportamiento de los colaboradores de campo, evaluando su rendimiento operativo, estableciendo parámetros muy puntuales de mejora, derivados de las causas potenciales encontradas con la aplicación de metodologías de calidad y herramientas estadísticas que coadyuvaron a la propuesta de proyectos de mejora integral. Por lo tanto se concluye que la hipótesis desarrollo de la metodología y herramientas de Lean Seis Sigma en el proceso de extracción de resina y cosecha de pino hibrido y caribean, se logrará eficientar la productividad y mejora del proceso de resinación durante un cierto periodo de tiempo, coadyuva para maximizar la producción y mejora del proceso de resinación en la empresa UUMBAL agroforestal.
Castrejón Moralez Irvin Misael, Universidad Tecnológica de La Costa
Asesor: Dr. Edgar Tello Leal, Universidad Autónoma de Tamaulipas

RESUMEN DE INVESTIGACIóN - TAREAS DE MINERíA DE DATOS


RESUMEN DE INVESTIGACIóN - TAREAS DE MINERíA DE DATOS

Castrejón Moralez Irvin Misael, Universidad Tecnológica de La Costa. Asesor: Dr. Edgar Tello Leal, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La realización de base de datos se ha vuelto una acción fundamental para las empresas, ya que les permiten crear estrategias para conseguir nuevos clientes o fidelizar a los habituales. Pero a consecuencia de la generación masiva de datos, nos encontramos frente a un problema, la infoxicación, disponemos de tanta información, que a veces es imposible organizarla con efectividad. Por ello, la clave está en descubrir patrones o algoritmos para sacarle el máximo partido, y aquí es donde entra en juego el Data Mining o minería de datos. La elección del mejor algoritmo para una tarea analítica específica es un gran desafío y depende del problema a resolver. Hay básicamente cinco problemas diferentes en la minería de datos: clasificación, regresión, segmentación, asociación y análisis de secuencias. Para resolver estos problemas hay muchos algoritmos a utilizar, los principales son: los de asociación, los clústeres, los de árbol de decisión, los de regresión lineal, el clasificador Bayesiano ingenuo, los de red neuronal, los clústeres de secuencia y los de serie temporal. Finalmente, el último paso es el de análisis de los resultados. Actualmente este trabajo se está realizando en muchas áreas de negocio como seguridad de datos, finanzas, salud, marketing, detección de fraude, búsquedas online, procesamiento de lenguaje natural o los nuevos coches inteligentes.



METODOLOGÍA

Para realizar los tres temas vistos en el verano científico se utilizó el lenguaje de programación Python con el IDE Jupyter. En todos los casos se usó la librería matplotlib.pyplot, que ofrece multitud de opciones a la hora de trabajar con gráficas, desde pintar varias funciones en la misma figura, con diferentes colores o diseños, hasta indicar por ejemplo el máximo de una función.   Para el tema de clasificación de datos se utilizó el Data Set Iris. Es una Base de datos sobre la flor de iris, contiene 150 registros, 50 de cada tipo de iris (Setosa, Virginica y Versicolor), donde muestra las características de cada una de las especies, tales como longitud y ancho del pétalo y del sépalo. El objetivo de la tarea es clasificar los datos, además de crear un árbol de decisión donde muestre como es que se identifica un tipo de flor, se utilizó el 80% de datos de entrenamiento y el otro 20 % para la fase de prueba, la predicción se realizó con 4 modelos, de los cuales se obtuvieron predicciones con el 20% de los datos. Precisión Regresión Logística: 0.9666666666666667 Precisión Máquinas de Vectores de Soporte: 0.9583333333333334 Precisión Vecinos más Cercanos: 0.95 Precisión Árboles de Decisión Clasificación: 1.0 La característica más importante para poder clasificar las flores es la longitud del pétalo. Con base a eso se realizó el árbol de decisión.   Para el tema Agrupación se usó el algoritmo K-means es un método de agrupamiento, que tiene como objetivo la partición de un conjunto de n observaciones en k grupos en el que cada observación pertenece al grupo cuyo valor medio es más cercano. Se usó un grupo de datos de dos dimensiones. En la primera interacción el centro 1 tuvo 9 datos, el centro 2 tuvo 4 y el centro 3 tuvo 3 datos Para el resultado final se realizaron 3 interacciones, los centros se movieron 3 veces. Después de las interacciones el centro numero 1 quedo con 8 datos, el 2 con 4 al igual que el tercer centro.  Estos datos se consiguieron realizando la fórmula de la distancia euclidiana.   En el tema de regresión se trabajó con regresión lineal y regresión lineal múltiple Para realizar esta prueba sobre regresión lineal fueron con un grupo de datos, x y y Se usó la fórmula para obtener la estimación de los coeficientes de regresión. Y se calcula el coeficiente de correlación de Pearson  Se realizaron las operaciones necesarias, guardándolas en variables que después se usaran para graficar. Los resultados de beta0, beta1 y el coeficiente de correlación de Pearson. Beta0= -2,883565082525945 Beta1= 0.011222571133152072 R= 0,7154692033617363   Regresión lineal múltiple, se usaron los datos de X, Y, Z El resultado debe de ser la ecuación de la recta. Estos fueron los resultados: error: 1.2939681190290417 Error r2: 0.08525268080006776 coef [-0.0037088 -0.00016118] [27.11800748]


CONCLUSIONES

A lo largo de la estancia del verano científico se vieron tres temas sobre minería de datos, los cuales fueron, clasificación de datos, agrupación y regresión. Con las practicas hechas de estos temas se logró adquirir conocimiento práctico además de comprender las funciones de estos temas. Con la estancia adquirí conocimientos sobre la introducción a la minería de datos, los cuales se reforzaron al realizar prácticas de los temas. Estos temas son esenciales, ya que su característica es manejar grandes volúmenes de datos para llegar a un resultado, en el caso de clasificación, buscar características en común con todos los datos para así poderlas clasificar por tipos, el agrupamiento de datos, formas varios grupos de datos con semejanzas entre ellos, etc.
Castrejón Ocampo Yael Eduardo, Instituto Politécnico Nacional
Asesor: Dr. Alejandro Sebastián Ortiz Pérez, Universidad Autónoma de Baja California

INFLUENCIA DE LAS FUERZAS AERODINáMICAS EN EL DESEMPEñO DE UNA AERONAVE DE AVIACIóN CIVIL Y SU CONTRIBUCIóN EN LA ESTABILIDAD ESTáTICA.


INFLUENCIA DE LAS FUERZAS AERODINáMICAS EN EL DESEMPEñO DE UNA AERONAVE DE AVIACIóN CIVIL Y SU CONTRIBUCIóN EN LA ESTABILIDAD ESTáTICA.

Castrejón Ocampo Yael Eduardo, Instituto Politécnico Nacional. Leandro Gonzalez Emmanuel, Instituto Politécnico Nacional. Asesor: Dr. Alejandro Sebastián Ortiz Pérez, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La industria aérea se ha convertido en una de las más importantes a nivel mundial, ya que tiene gran impacto principalmente en el sector económico, social y ambiental. Es una de las principales entradas de recursos económicos del país. Sin embargo, no todos los costos llegan a ser tan accesibles, y por esto es necesario desarrollar aviones más eficientes aerodinámicamente, lo que conlleva ser capaces de mantener un mayor tiempo de vuelo con una cantidad considerable de combustible, siendo esta, una de las formas óptimas para reducir las tarifas establecidas.



METODOLOGÍA

Primero, se abarcaron los conocimientos previos teóricos necesarios. Se nos encargó investigar para tener, dentro del análisis a realizar, un panorama completo de qué aspectos se toman en cuenta para la solución de las problemáticas que generan las fuerzas aerodinámicas en el desempeño de una aeronave. Para un mejor entendimiento, investigamos las características que influyen en el desempeño aeronáutico. Una vez visto esto, comenzamos a desarrollar modelos matemáticos aplicables a diversas situaciones que influían en el desempeño de la aeronave, tal como el que describe el equilibrio de las fuerzas en esta, el factor de carga, la eficiencia aerodinámica y la velocidad óptima. De igual manera, determinamos el modelo para el cálculo del rango de vuelo de un turborreactor, con la finalidad de evaluar el desempeño de este, su comportamiento de consumo de combustible específico (TSFC) en función a la altitud y la velocidad de vuelo, así como el alcance máximo de una aeronave con un sistema propulsivo a base del turborreactor antes mencionado. A partir de los resultados, se obtuvo que a una altura constante se alcanza un mayor rango en comparación con el de velocidad constante, esto se debe a que el consumo específico del combustible siempre va a depender de la altitud, por esa razón si lo mantenemos a una altitud constante, se obtendrá un mejor aprovechamiento del combustible. Por otra parte, determinamos el modelo para el cálculo de un óptimo despegue de una aeronave, buscando obtener el tiempo por cada intervalo y la distancia recorrida total, considerando las fuerzas de fricción, arrastre y empuje. A partir de esto, se obtuvo la ecuación para calcular el tamaño mínimo de la pista, así como el tiempo que va a tardar en despegar. Para el caso del aterrizaje, serán distintos la longitud de la pista de aterrizaje necesaria y el tiempo, ya que el análisis se dividirá en 3 partes:  approach, flare y ground run. Por último, se buscó modelar matemáticamente y describir todos los aspectos que llegan a influir, en el giro de una aeronave, encontrando la relación de los coeficientes de la aeronave, en distintas situaciones de giro. Finalmente, analizamos y resolvimos cada posible situación donde aplicarán los modelos matemáticos obtenidos, se desarrollaron y se buscó darle una interpretación más cercana a la realidad para encontrar la solución más factible, normalizando los modelos matemáticos obtenidos para alcanzar una máxima eficiencia de la aeronave contemplando todas las fuerzas aerodinámicas que influyen.


CONCLUSIONES

Durante la estancia, los contenidos teóricos fueron totalmente abarcados y comprendidos, se aplicaron para la solución de distintas situaciones cercanas a la realidad, en donde se buscó la eficiencia máxima de la aeronave, tomando en cuenta los distintos aspectos aerodinámicos. Se obtuvieron buenos resultados los ejercicios realizados, además al ser prácticos, se aplicó conocimiento de otras ramas. El no poder tomar las lecciones presencialmente, limitó la parte práctica de la solución de la problemática, ya que no se comprobó experimentalmente los resultados teóricos. Se espera que en un futuro se apliquen estos conocimientos en la rama de ingeniería aeronáutica y contribuya al mejoramiento de una aeronave.
Castro Dominguez Zury Yasmin, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango

DISEñO DE CONTROL PARA UN SISTEMA DE IMPRESIóN TRACCIóN DE UN DISPOSITIVO TIFLOTéCNICO


DISEñO DE CONTROL PARA UN SISTEMA DE IMPRESIóN TRACCIóN DE UN DISPOSITIVO TIFLOTéCNICO

Castro Dominguez Zury Yasmin, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Durante centenares de años no hubo un sistema de lectura y escritura apropiado para ser empleado en la educación de las personas ciegas y muchos pensaban que estos no eran educables. El método de Valentín Haüy hacía posible la lectura, pero en ningún caso la escritura por parte de los ciegos. Un avance cualitativamente importante fue la propuesta de Charles Barbier, un militar que había inventado un modo de escritura y lectura basado en puntos y rayas en relieve con el fin de que los soldados pudiesen descifrar por la noche consignas secretas, el nuevo método se llamaba sonografía y se basaba en diversas combinaciones de puntos y rayas formando signos que representaban los diferentes sonidos del lenguaje, no las letras del alfabeto. Louis Braille, sobresaliente en inquietudes y capacidad de trabajo, decidió abordar la tarea de simplificar el método sonográfico de Barbier y completarlo en los aspectos que resultarían imprescindibles para disponer de un auténtico alfabeto. El Sistema Braille es un código táctil de lecto-escritura, basada en una matriz de seis puntos dispuestos en dos columnas paralelas de tres puntos cada una, los cuales, escritos en relieve y combinados entre sí, forman todas las letras del alfabeto, signos de puntuación y números. Los seis puntos se marcan sobre las hojas de papel, generando unas protuberancias en la ubicación de cada punto. En este contexto, una impresora Braille es un dispositivo electrónico que permite imprimir textos e imágenes simples empleando puntos percutidos en papel, las mismas que son enviadas desde un ordenador personal. Para la impresión de caracteres Braille al igual que las impresoras convencionales requiere de un mecanismo de impresión, en este caso se utilizan punzones, los mismos que al ser lanzados con fuerza contra el papel, marcan la hoja, sobresaliendo los puntos por la cara contraria a la percutida.



METODOLOGÍA

Se utilizaron: Raspberry Pi 3 Broadcom BCM2837B0, Cortex-A53 64-bit SoC @ 1.4GHz, Arduino ATmega2560 has 256 KB, Driver motor a pasos 28BYJ-48, Driver motor a pasos Driver DRV8255, Motor paso a paso bipolar 28BYJ-48, Motor paso a paso bipolar NEMA 17 y Solenoide 5V. Para el desarrollo de los diseños del sistema de tracción e impresión, se utilizó el software SolidWorks para el diseño CAD de las piezas, el proceso de diseño para cada sistema se dio de la siguiente manera: Sistema de tracción. Para el diseño de éste se partieron de criterios muy puntuales como las dimensiones de la hoja en la que normalmente las personas trabajan el sistema Braille, el mecanismo de funcionamiento de la tracción de hoja en la que se tomó como aliada a la gravedad, la estructura de acoplamiento y la configuración mecánica del funcionamiento. En dicho sistema, un factor clave para el diseño es la función que éste cumple a lo largo de todo el proceso, que consiste en que al entrar en contacto con la hoja este la sujete y la succione al interior del dispositivo para que se pueda escribir sobre ella y posteriormente salga con lo digitado, teniendo en cuenta los criterios mencionados anteriormente se estructura como primera medida un chasis con un área determinada para la integración de los demás componentes, seguido de dos estructuras laterales para el chasis, para garantizar que la hoja actúe tomando como aliada a la gravedad se diseña una rampa, la cual consta de tres bases, dos laterales y una con cierta longitud de arco para el movimiento de la hoja, entendiendo así que ésta última no abarcará área del chasis, sino que tendrá área independiente, pero sujetada con esta misma. La tercera parte se integra por dos punzones que se encuentran acoplados a los solenoides que son los responsables de proporcionarles el movimiento a los punzones, haciendo que éstos últimos se muevan en el eje Z, cabe decir que aunque se muevan a lo largo del eje de la Z, éstos de cierta forma u otra también lo hacen sobre el eje de las X, puesto que como se encuentran de forma implícita adscrito al sistema de estructura, ésta les proporcionará el componente restante para trabajar sobre el plano XZ. Se diseña de igual manera un control manual ergonómico con 6 botones pulsadores, estos representan los 6 puntos correspondientes a un cuadratín del sistema de escritura braille. Sistema de Control. Se deben de almacenar las dos secuencias de caracteres identificados, por una parte, los que se van leyendo del documento en Braille y por otra parte los que se van generando como resultado de la traducción en sistema Letra en tinta. La cadena de bytes que se obtenga como resultado de la conversión de Letra en tinta a Braille, se utilizará para mostrar la información en algún sistema que tenga la capacidad de manipular elementos físicos, donde las personas invidentes puedan percibir por medio del tacto las protuberancias que requieren para identificar textos, puedan leerlo y logren su comprensión sin ningún problema.


CONCLUSIONES

Este algoritmo de control propuesto para la conversión entre textos e impresión es de gran ayuda para las personas invidentes, debido a que los acerca a los documentos y la información que puede estar disponible en cualquier documento de texto. Además de que les permite expresar sus ideas, sentimientos, emociones y conocimientos sobre algún tema en particular y les da la posibilidad de convertir sus textos a un sistema que pueda ser utilizado por la mayoría de personas en cualquier dispositivo electrónico con la capacidad de manipulación de archivos de texto; logrando con esto que todas las personas tengan acceso a la información que se encuentra almacenada de manera digital, sin importar si pueden hacer uso o no de su sentido de la vista.
Castro Rivas Luis Orlando, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato

DISEñO DE EXPERIMENTOS DENTRO DEL PROCESO DE PRODUCCIóN DE PIMIENTOS DE LA AGRICULTURA PROTEGIDA EN MéXICO


DISEñO DE EXPERIMENTOS DENTRO DEL PROCESO DE PRODUCCIóN DE PIMIENTOS DE LA AGRICULTURA PROTEGIDA EN MéXICO

Castro Rivas Luis Orlando, Instituto Tecnológico Superior de Guanajuato. Lozano Retana María Azucena, Instituto Tecnológico Superior de Guanajuato. Pérez Hernández Nazareth Martín, Instituto Tecnológico Superior de Guanajuato. Rodríguez Medina Cristina, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una empresa grande del sector agrícola dedicada a la agricultura protegida realiza la siembra, cosecha y venta de sus productos, entre estos frutas y hortalizas. La empresa presenta problemas en el área de empaque; genera gran cantidad de desperdicio por deficiencias en el proceso de producción de pimientos. Se procedió a realizar un diagrama de Ishikawa para analizar los factores involucrados en el proceso y se identificó la causa principal de los desperdicios, concluyendo que los desperdicios se generan en la máquina de embolsado de pimiento. 



METODOLOGÍA

En el área de empaque de pimiento se detectaron factores causantes de gran cantidad de desperdicios por deficiencias del proceso en la máquina de embolsado. Por tal motivo se implementó la metodología Diseño de experimentos (DOE), la cual permite analizar las variables o factores independientes que intervienen en el proceso e influyen en la variable de respuesta de este, permitiendo obtener un mejor nivel de optimización (Hernández, De la Paz y García, 2015). Para realizar el estudio sobre DOE (Montgomery, 2004; Hernández 2014), se aplicaron los siguientes pasos: 1. Identificación y exposición del problema Se determinó que en la máquina de empaque se encuentra el mayor número de causas posibles de desperdicio, porque es en la maquina donde se tienen mayor número de factores que podrían ser más difícil de combinar correctamente. La máquina dos de embolsado se encarga de realizar el empaquetado del pimiento en cantidades de tres unidades por bolsa, en repetidas ocasiones provoca fisuras y aplasta el producto al sellar las bolsas, generando una considerable cantidad de producto dañado (Garza, 2014 ; López, Quiroga, Gómez y Barrando, 2012) 2. Elección de factores, niveles y rangos Las variables seleccionadas para el análisis estadístico deben ser variables que influyen directamente en el proceso y deben ser controlables (Abate, Deferrari y Martinez, 2017) por lo tanto se determinó que las variables de interés son, la velocidad de la maquina en un rango de acciona de 70 a 85% y la altura de las brochas de empuje de 2.9 hasta 3.4 pulgadas, estas son las variables que tienen la posibilidad de ser modificadas y controladas en el proceso y sus respectivos rangos de acción que serán utilizadas para el diseño. 3. Selección de la variable de respuesta Se determino como variable de respuesta o dependiente a la cantidad de producción de bolsas (Rendon, Gutiérrez y Duque, 2010), esta variable es afectada al modificar las variables de velocidad de la maquina y la distancia de las brochas de empuje del pimiento. 4. Elección del diseño experimental Se requiere de la aplicación de diseños de experimentos mediante la técnica de cuadros latinos, en la maquina dos de embolsado al momento de empacar pimientos de 3 pulgadas, ya que estos se producen en mayor volumen, se realizará con una matriz de 4 por 4 factores lo que conlleva cuatro tratamientos de la variable velocidad de la maquina y cuatro tratamientos de la variable altura de las brochas de empuje, con un total de 16 muestras. Estas corresponden a velocidad de la maquina 70, 75, 80 y 85 y la altura de la brocha de empuje 2.9 pulgadas, 3.0 pulgadas, 3,2 pulgadas y 3,4 pulgadas. Se debe de comenzar con la medida más baja y la velocidad más baja que es la altura de 70 y 2.9 pulgadas de altura de la brocha de empuje (Aguilar, Benzadon, De Leon, Sánchez, Cedeño, 2019), se debe de medir cantidad de productos embolsados con estas variables durante dos minutos lo que corresponderá a nuestra variable de respuesta, así sucesivamente se van aumentando las variables del diseño y tomando las variables de respuesta correspondientes a las combinaciones de las variables y se va realizando el registro de los resultados de las distintas combinaciones. 5. Realización del experimento. Se confirmo que las personas quienes intervienen en el proceso estuvieran perfectamente capacitados para la objetividad de los resultados y se realizó la recolección de datos (Diaz, 2009) con base en las combinaciones establecidas, posteriormente se desarrolló la metodología mediante cuadros latinos comenzando con la asociación de datos a letras de manera ordenada, se realizó una diferencia de estos datos con respecto a la media del total y se suman las filas y columnas para obtener Y que en este caso equivale a 19, se procedió a calcular las sumatorias correspondientes a cada una de las letras para obtener Yj donde se pudo comprobar que el valor de Y era el correcto al ser igual que Yj. Para realizar el análisis de varianza (Durakovic, 2017) se desarrolló una ecuación, para calcular la suma total de los cuadrados, que corresponde a la suma de la suma de cuadrados de regresión y la suma de cuadrados del error, como resultado de esta sumatoria, se obtuvo lo siguiente: SST=9448.4375, SSR= 49.1875, SSc=6443.6875, SSt=1109.1875, SSE=1846.375


CONCLUSIONES

Como resultado del diseño de experimentos se obtiene un ANOVA (analysis of variance), donde se evaluó si la variación de cada una de las variables analizadas afecta de manera considerable en nuestra variable de respuesta (Montgomery, 2017); para que una variable no afecte la variable de respuesta su valor de F debe de ser menor que el valor de Fisher correspondiente a los grados de libertad, que para este experimento corresponde a 4.76 y se observó que la variable de velocidad es donde se genera variación en el diseño debido el valor de F es igual a 6.979 y mayor que el valor Fisher este valor de 6.979 corresponde a la velocidad de la máquina, es decir que la velocidad de la maquina afecta de manera considerable en nuestro proceso de producción. Se realizó un gráfico radial donde se muestra el comportamiento de la producción con respecto a distintas combinaciones de variables mostrando cuál de ellas genera mayor eficiencia, las cuales corresponden a las velocidades de 80 y 85, se establece un objetivo de 210 bolsas por minuto y la mayor efectividad se genera a una velocidad de 85, independiente a la altura de la brocha manteniendo la producción constante y cercana al objetivo.  
Castro Sáenz Jesús Antonio, Universidad Autónoma de Ciudad Juárez
Asesor: Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla

ALGORITMOS DE MINERíA DE DATOS PARA EL ANáLISIS DE SITIOS WEB DE EMPLEO EN MéXICO.


ALGORITMOS DE MINERíA DE DATOS PARA EL ANáLISIS DE SITIOS WEB DE EMPLEO EN MéXICO.

Castro Sáenz Jesús Antonio, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El área de recursos humanos es una parte indispensable de cada organización. Se trata del primer filtro y uno de los más importantes en el proceso de contratación. Los especialistas en esta área se encargan de todas las actividades relacionadas al personal, desde la selección de los trabajadores más calificados hasta la prevención de una constante rotación de personal. Cada empresa busca a los individuos mejor preparados que puedan alcanzar una constante evolución y puedan contribuir positivamente.  Por ello, la minería de datos se posiciona como una atractiva herramienta que pueda facilitar los procesos de decisión del área de recursos humanos. Por ejemplo, puede ayudar a las empresas a descubrir perfiles de acuerdo con sus necesidades, a predecir patrones de deserción y a seleccionar los mejores atributos de los posibles candidatos, entre otras cosas. En este proyecto se llevará a cabo un proceso de descubrimiento de conocimiento en el que se descubrirán los atributos en los que un candidato de determinada profesión debe enfocar sus esfuerzos, para poder obtener un mejor puesto laboral. El estudio se llevará a cabo con información recabada de dos de los sitios web más importantes que ofertan vacantes.



METODOLOGÍA

El proyecto se llevó a cabo implementando diversas fases de análisis, tales como: Procesamiento de los datos; Transformación de los datos; Minería de Datos; Depuración de Resultados; Análisis de resultados. Donde se implementaron tanto el algoritmo de clasificación llamado NaiveBayes como el algoritmo de asociación nombrado Apriori., todo ello con la ayuda del programa Weka. En una primera instancia, se recabaron los datos de diversas vacantes de dos portales conocidos: CompuTrabajo y OCC Mundial. Estos sitios web son un gran enlace entre los aplicantes y las empresas, por lo que añaden gran relevancia al desarrollo de la investigación. Cada uno de los puestos de trabajo está compuesto de atributos como tipo de trabajo, nivel de inglés, nivel de estudios, experiencia laboral, prestaciones de la ley, entre otros. El conjunto de datos está compuesto de 626 registros que pertenecen al portal OCC Mundial, y 631 que vienen de CompuTrabajo, lo que conforma un total de 1,257 instancias, las cuales están divididas entre las siguientes carreras: Arquitecto, Ingeniero Industrial, Ingeniero Químico, Diseñador Industrial, Ingeniero de Calidad, Ingeniero Civil, Ingeniero en Sistemas Computacionales, Abogado, Médico General y Analista Químico. Después de recabar la información, fue necesario definir los atributos más importantes para el análisis de los datos. Esto es debido a que algunos de ellos no contaban con información o la que proporcionaban no aportaba mucho a los resultados. Dentro del análisis de los datos, fue necesario clasificarlos de manera general para evitar tener varias definiciones de un mismo atributo. Por ejemplo, en la columna de Nivel de Inglés, hay varias maneras de llamar al nivel avanzado, tales como "90%", "80%", "Conversacional avanzado", "95%", entre otros. Consiguientemente, con ayuda del programa Weka, se procedió a la implementación de los algoritmos señalados en cada uno de los experimentos propuestos. En el caso del algoritmo NaiveBayes, este permite identificar en una primera instancia qué tan correcta y precisa es la información del conjunto de datos. Por otro lado, el algoritmo apriori permite generar reglas de asociación para los atributos que se relacionan. Este algoritmo permite encontrar el nivel de certitud o incertitud en una muestra del conjunto de datos. En el desarrollo del proyecto, se realizaron dos tipos de pruebas: Aquellas enfocadas en los atributos y aquellas enfocadas en las instancias. Sin embargo, cabe destacar que estas dos pruebas contaban con dos parámetros en común: El nivel de confianza se estableció en 0.9 (90%) El número de reglas a encontrar se estableció en 50. Para el primer caso de pruebas, fueron considerados sólo los atributos relevantes , así como aquellos que no tuvieran faltante de información de más del 50%. Por ejemplo, en una prueba fueron considerado sólo los atributos relacionados al nivel de inglés, nivel de estudios, experiencia laboral, prestaciones de ley y la carrera. Donde se mostró con un 93% de certitud que incluso con un nivel medio de inglés y un título, es necesario tener experiencia laboral. Así mismo, de las reglas generadas, se obtuvo que, si alguien cuenta con experiencia laboral, está entre los 25 y 40 años y busca un trabajo de tiempo completo con prestaciones de la ley, va a necesitar contar con un título. Para el segundo caso de las pruebas, se consideraron sólo las tuplas de aquellas carreras (clases) que no tuvieran muchas cosas en común. Por ejemplo, la combinación de Ingeniero Civil, Ingeniero en Sistemas Computacionales, Médico General y Químico Analista. En casos de este tipo se obtuvieron resultados que indican que si alguien busca tener un salario mínimo de $10,000 mxn, va a requerir contar con experiencia laboral. Además, si busca tener un salario mínimo de $15,000 mxn, va a necesitar contar con un título universitario.


CONCLUSIONES

Aun cuando se han hecho algunas conclusiones previas durante la metodología del proyecto, es importante destacar que la falta de información en los puestos de trabajo puede generar confusión y problemas en el proceso de selección. Esto indica, para el caso de los encargados de recursos humanos, que la descripción de los puestos necesita ser más específica para lograr atraer a los correctos aplicantes. De la misma manera es importante destacar, en cuanto a los portales de empleo, que se necesitan redefinir los campos a llenar al momento de subir una vacante al sitio web. Esto debido a que es información que la mayoría de las veces no va a ser relevante para las empresas. Finalmente, este proyecto hace énfasis en la adquisición de experiencia laboral, como un requisito de la misma magnitud que el propio título. Por ello es importante que las universidades puedan reconsiderar y reformular sus planes de estudio con proyectos como éste.
Causor Santamaria Ociela Celeste, Instituto Tecnológico Superior de Apatzingán
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

SISTEMA PARA LA INCORPORACIÓN DE PARÁMETROS EMOCIONALES EN DISPOSITIVOS ROBÓTICOS A TRAVÉS DE TÉCNICAS DE INTELIGENCIA ARTIFICIAL


SISTEMA PARA LA INCORPORACIÓN DE PARÁMETROS EMOCIONALES EN DISPOSITIVOS ROBÓTICOS A TRAVÉS DE TÉCNICAS DE INTELIGENCIA ARTIFICIAL

Causor Santamaria Ociela Celeste, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Hoy en día en el mundo existen pocos proyectos que incorporan el comportamiento consiente y emocional de las máquinas, por eso se ha utilizado la inteligencia artificial como un instrumento para que estas puedan imitar sensaciones que sean propias de los seres vivos, considerando que muchos de estos se centran en tomar parte de los conceptos de las teorías humanas para aplicarlos en sus trabajos de forma que sirven como base para obtener otros resultados, como en el caso de los dispositivos que interpretan los estados emocionales a partir de las sensación por el contexto donde se encuentran. Es incuestionable que la vida es más fácil gracias a las tecnologías de información, internet y los dispositivos electrónicos, estos tienen también su lado perjudicial, ya que son responsables de daños psicologicos. Pero no solo las personas que tienen acceso a Internet o los dispositivos electronicos sufren problemas psicologicos, como por ejemplos los Astronautas los cuales se encuentran sometidos a una de las situaciones más estresantes que puede vivir el ser humano: pasan meses, e inclusos años, encerrados en una nave, viviendo, trabajando y durmiendo en espacios reducidos, orbitando en mitad de la nada. Están siempre junto a las mismas personas, sometidos a la microgravedad, que también afecta a su estado físico. Esta situación puede generar claustrofobia incluso al recluta mejor preparado. La NASA está trabajando con la firma australiana de tecnología Akin para desarrollar un asistente de inteligencia artificial que pueda dar apoyo emocional a los astronautas. Pero existen distitntos tipos de daños psicologicos ocausionados por muchas maneras. Debido a todo lo mencionado  el objetivo de esta investigacion es la Implementación de un prototipo para la incorporación de parámetros emocionales en dispositivos Robóticos a través de técnicas de inteligencia artificial como en el caso del aprendizaje de máquina (Para imitar las emociones humanas). El cual se realizara a base de Rutinas o Códigos Excepcionales.    



METODOLOGÍA

Este proyecto se desarrollará de una forma analítica, empezando con una investigación general sobre inteligencia emocional, computación evolutiva y modelos de programación basado en comportamiento; las técnicas y teorías para el desarrollo son complejas, por tal motivo se establecerá la estructura básica sobre la cual se realizara la generación de patrones en reconocimiento por medio de la utilización técnicas en aprendizaje máquina que permita la búsqueda de secuencias de estados emocionales definidos en el contexto. Se harán entrevistas con personas especializadas en la materia, para analizar las necesidades funcionales de los campos del conocimiento que el sistema espera cubrir.  La investigación bibliográfica se centrará sobre metodologías recientes utilizadas en este tipo de desarrollos, integrando algoritmos y herramientas funcionales que permitan la operación óptima de cada función definida dentro de los requerimientos para establecer las aplicaciones. Se utilizara la Metodología V el cual fue desarrollado para regular el proceso de desarrollo de software por la Administración Federal Alemana. Describe las actividades y los resultados que se producen durante el desarrollo del software. Proporciona una guía para la planificación y realización de proyectos. Los siguientes objetivos están destinados a ser alcanzados durante la ejecución del proyecto: Minimización de los riesgos del proyecto Mejora la transparencia del proyecto y control del proyecto, especificando los enfoques estandarizados, describe los resultados correspondientes y funciones de responsabilidad. Permite una detección temprana de las desviaciones y los riesgos y mejora la gestión de procesos, reduciendo así los riesgos del proyecto. Mejora y Garantía de Calidad Como un modelo de proceso estándar, asegura que los resultados que se proporcionan sean completos y contengan la calidad deseada. Los resultados provisionales definidos se pueden comprobar en una fase temprana. La uniformidad en el contenido del producto mejora la legibilidad, comprensibilidad y verificabilidad. Reducción de los gastos totales durante todo el proyecto y sistema de Ciclo de Vida El esfuerzo para el desarrollo, producción, operación y mantenimiento de un sistema puede ser calculado, estimado y controlado de manera transparente mediante la aplicación de un modelo de procesos estandarizados. Reduciendo la dependencia en los proveedores y el esfuerzo para las siguientes actividades y proyectos. Mejora de la comunicación entre todos los inversionistas La descripción estandarizada y uniforme de todos los elementos pertinentes y términos es la base para la comprensión mutua entre todos los inversionistas. De este modo, se reduce la pérdida por fricción entre el usuario, comprador, proveedor y desarrollador.  


CONCLUSIONES

Implementar un prototito para la incorporación de parámetros emocionales en dispositivos robóticos a través de técnicas de inteligencia artificial. Este proyecto contribuirá a generar nuevas herramientas e investigaciones en el campo de la inteligencia emocional permitiendo aumentar nuevas proyecciones para la universidad en cuanto: ·Incrementar el campo y manejo del tema. ·Preparar las bases para futuros trabajos de grado y proyectos de investigación sobre tema. ·Fortalecer la Línea de investigación de Inteligencia Artificial y Técnicas de aprendizaje máquina. ·Reducir el esfuerzo y los costos de la implementación de aplicaciones en Inteligencia Emocional con la utilización de dispositivos.
Ceceña Santoyo Ana Laura, Universidad Autónoma de Occidente
Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente

ESTUDIO DE RIESGO AMBIENTAL MEDIANTE EL USO DEL SIMULADOR ALOHA


ESTUDIO DE RIESGO AMBIENTAL MEDIANTE EL USO DEL SIMULADOR ALOHA

Ceceña Santoyo Ana Laura, Universidad Autónoma de Occidente. Villegas Trasviña Priscila, Universidad Autónoma de Occidente. Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El amoniaco es un gas incoloro de olor característico identificado como una sustancia química peligrosa que, en caso de ingestión, inhalación, contacto con la piel y con los ojos puede ocasionar graves consecuencias. Su exposición a niveles altos de puede producir irritación, quemaduras serias en la piel, en la boca, garganta, pulmones y ojos, mientras que su exposición a niveles muy elevados puede producir la muerte. El proyecto se origina por la necesidad de medir el área de afectación que tendría la fuga de un tanque de amoniaco en una empresa en la que se compra y almacena este producto en dos posibles escenarios con el fin de determinar la influencia de las condiciones atmosféricas en la dispersión de la sustancia química asi como identificar el impacto en la salud de las personas y medio ambiente que se encuentran en las zonas colindantes a este lugar utilizando el simulador ALOHA 2016. Las fugas de amoniaco pueden ocasionarse debido a diversos motivos entre los que destacan la formulación de planes de mantenimiento inadecuados, no monitorear rutinariamente los parámetros de operación del sistema, personal no certificado y acreditado para el manejo de la sustancia etc. Es de vital importancia conocer las medidas de control necesarias que deben aplicarse ante un accidente salvaguardar la integridad de las personas.



METODOLOGÍA

La modelación de la fuga fue realizada mediante la aplicación del simulador de eventos ALOHA 2016 versión 5.4.7. Las dos condiciones en las que se llevara a cabo la simulación son siguientes: Condición 1. Este estudio es realizado con base a las condiciones atmosféricas promedio de los meses de junio, julio y agosto. Tomando en cuenta los datos del Sistema Meteorológico Nacional (SMN) la velocidad promedio del viento de estos meses es de 15.43 km/ h, la temperatura promedio del viento es de 30.38°C. Condición 2. Este estudio es realizado con base a las condiciones atmosféricas promedio de los meses de octubre, noviembre y diciembre. Tomando en cuenta los datos del Sistema Meteorológico Nacional (SMN) la velocidad promedio del viento de estos meses es de 11.31 km/ h, la temperatura promedio del viento es de 24.90°C. Metodología utilizada en ALOHA 2016. Selección del lugar: Para determinar el área de afectación se seleccionan las coordenadas del lugar donde ocurrió la fuga las cuales son en nuestro caso 25°48´0.70´´N y 108°´58´13.94´´O en la cuidad de Los Mochis, Ahome, Sinaloa. Selección de la sustancia química: Se indica que la sustancia química que utilizaremos es el amoniaco. Información sobre las condiciones climáticas: En este caso se indica la velocidad (m/s), temperatura (°C) y humedad relativa (%) del viento en los dos posibles escenarios. Solo en este apartado cambian los datos, ya que a partir de aquí determinaremos el impacto de las condiciones atmosféricas en la dispersión del amoniaco. Selección de las características del tanque: Se selecciona la condición del tanque la cual es para ambos escenarios un tanque cilíndrico con un porcentaje de llenado es del 85% que poseen diámetro de 0.75 m, longitud de 2.26 y un volumen de 1000 L. Seleccionamos del evento: Se procede seleccionar que nuestro accidente fue de una fuga de un químico no flamable. En cuanto a la apertura del tanque es de 0.0254 m de diámetro a 0.75 m del fondo del tanque. Identificación la zona de afectación:  Tomando como base los datos anteriores en este apartado se nos señala la concentración (ppm) y distancia (m) que recorre la nube de vapor.


CONCLUSIONES

La distancia recorrida del contaminante en el primer escenario  Zona de amenaza roja: 69 m Zona de amenaza naranja: 182 m Zona de amenaza amarilla: 429 m La distancia recorrida del contaminante en el segundo escenario Zona de amenaza roja: 74 m Zona de amenaza naranja: 196 m Zona de amenaza amarilla: 461 m Diferencia de las distancias en los escenarios Zona de amenaza roja: 5 m Zona de amenaza naranja: 14 m Zona de amenaza amarilla: 32 m De acuerdo a los resultados obtenidos con el simulador Aloha 2016, los factores climáticos como la velocidad y temperatura del viento si afectan la estabilidad del amoniaco, por un lado la simulación realizada en el primer escenario con una velocidad de 15.43 km/h y una temperatura de 30.38°C presento un menor alcance en metros que el segundo escenario que contaba con una velocidad de 11.31 km/h y una temperatura de 24.90°C lo que nos arroja a que el amoniaco permanece más en el ambiente en temperaturas más bajas y con índices de viento menores. En este caso no son muy representativos los metros de diferencia ya que ambos escenarios tienen poca distancia de diferencia y afecta a las mismas zonas esto nos lleva a deducir que conforme aumente la cantidad de amoniaco liberado aumentara también la diferencia entre la distancia que recorre el contaminante llegando a ser mayor e impactar zonas diferentes.
Cedillo Ocaña Cler Mariana, Universidad Mexiquense del Bicentenario
Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE PROTOTIPOS DE HERRAMIENTAS SOFTWARE PARA LA IMPLEMENTACIóN Y USO DE BUENAS PRáCTICAS DEL PERFIL BáSICO DEL ISO/IEC 29110


DESARROLLO DE PROTOTIPOS DE HERRAMIENTAS SOFTWARE PARA LA IMPLEMENTACIóN Y USO DE BUENAS PRáCTICAS DEL PERFIL BáSICO DEL ISO/IEC 29110

Abad Salinas Jorge Andrey, Universidad Autónoma de Guerrero. Cedillo Ocaña Cler Mariana, Universidad Mexiquense del Bicentenario. Huerta Cámara Dulce Mariana, Universidad Mexiquense del Bicentenario. Tovar Espinoza de los Monteros Karen Annet, Universidad Mexiquense del Bicentenario. Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el presente documento se destaca el trabajo realizado durante la estancia del verano de investigación, en la que se llevó a cabo el desarrollo del proyecto Prototipos de herramientas software para la implementación y uso de buenas prácticas del perfil básico del ISO/IEC 29110. Este proyecto aborda la problemática que actualmente tienen las Empresas Muy Pequeñas (EMPs), relacionado como la falta de conocimiento y experiencia para la correcta implementación y uso de estándares, siendo una de las causas la falta herramientas que proporcionen soporte para  su adopción y uso. En este contexto, se pueden resaltar como ejemplos de algunos de los problemas más recurrentes que tienen algunas EMPs durante el desarrollo de proyectos de software, la falta de una gestión de riesgos adecuada, la carencia del diseño del software, la mala definición de requisitos y la poca o nula realización de actividades relacionadas con la verificación y validación de Requisitos, actividades que son necesarias para el aseguramiento de la calidad del producto. Lo antes mencionado hace evidente la necesidad del desarrollo de herramientas que funcionen como soporte para dar solución a dichos problemas.



METODOLOGÍA

Para el desarrollo del proyecto y teniendo en cuenta las restricciones de tiempo, se optó por adaptación de SCRUM utilizando buenas prácticas y artefactos proporcionados en el perfil Básico del estándar ISO/IEC 29110. De Scum se tomaron como base algunos de sus eventos y artefactos (de los eventos (planificación del sprint, Sprint, reuniones diarias y revisión del sprint) y de los artefactos (pila del sprint, producto mínimo visible)). Además, se reforzó con la implementación de tareas y productos de trabajo proporcionados por el perfil de entrada del ISO/IEC 29110, de las tareas (planificación, análisis de requisitos, diseño, pruebas, liberación), y de los productos de trabajo (enunciado de trabajo, entorno de desarrollo, instrucciones de entrega, estrategia de control de versiones, especificación de requisitos, riesgos, arquitectura de software y diseño detallado, registros de trazabilidad, pruebas, resultados de pruebas, minutas de reunión y respaldos y la configuración de software).


CONCLUSIONES

En conclusión, el resultado de este proyecto se desarrollaron 4 herramientas enfocadas a la gestión de proyectos e implementación de software, cómo lo son gestión de riesgos, diseño de software, definición de requisitos, y verificación y validación de requisitos, las cuales fueron creadas con el fin de servir de soporte a las EMPs que tengan la intención de adoptar prácticas del ISO/IEC 29110 para el desarrollo de sus proyectos. A continuación se presenta una breve descripción de la funcionalidad de las herramientas realizadas: Herramienta de Gestión de riesgos: Este módulo proporciona una solución para llevar a cabo la gestión de riesgos de un proyecto de empresas muy pequeñas (EMPs), permitiendo llevar a cabo el monitoreo del riesgo durante todo el proceso de desarrollo de software. La funcionalidad incluida en el módulo es: registrar los riesgos, clasificar riesgos según su prioridad e impacto, brinda el porcentaje de exposición del riesgo. Además permite llevar un monitoreo a base del registro de observaciones y brinda al usuario un documento de toda la información registrada. Definición de los requisitos: Este módulo está diseñado para brindar una guía para la especificación de requisitos de un software, a través del uso de criterios predefinidos, y segmentado con base en la técnica utilizada para la definición de los requisitos(casos de uso o historias de usuario), El usuario podrá al hacer uso del módulo, tener en cuenta los aspectos básicos para la correcta definición de los requisitos. Diseño de software: este módulo brinda información de apoyo para ayudar al usuario a tener mayor conocimiento de los elementos a tener en cuenta para el desarrollo del diseño de software. El módulo cubre la información para el diseño de alto nivel (arquitectura) y para el diseño de bajo nivel (diseño detallado). A través de la interfaz del  módulo, se brinda información sobre conceptos y ejemplos para el desarrollo correcto del diseño de software.  Verificación y validación de requisitos: este módulo brinda una solución para facilitar la ejecución de actividades de calidad (verificación y validación) de los requisitos mediante el uso de un Checklist, con el cual se brinda apoyo para que el cliente pueda llevar a cabo la revisión de manera adecuada de los requisitos e identificar dudas o expresar inconformidades relacionados con los requisitos. Cómo funcionalidad del módulo además se incluye proporcionar los resultados de la verificación y la validación del mismo, tal que éstos pueden ser utilizados con facilidad por la empresa.  Además de los resultados antes mencionados, se logró obtener conocimiento del estándar ISO/IEC 29110 y de Scrum, la implementación de algunos elementos del estándar y de algunos eventos de Scrum para el desarrollo del proyecto, la lectura de artículos y reportes técnicos, y la elaboración de documentos técnicos a través de la redacción del reporte técnico y un artículo.
Celais Garrido Edjair, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtra. Matilde Sampayo Carcamo, Instituto Tecnológico Superior de Huauchinango

ANÁLISIS DE FACTIBILIDAD PARA EL DESARROLLO DEL PROYECTO “JUGUETE PARA LA ENSEÑANZA DE LECTURA-ESCRITURA DE BRAILLE (TIFLI)”


ANÁLISIS DE FACTIBILIDAD PARA EL DESARROLLO DEL PROYECTO “JUGUETE PARA LA ENSEÑANZA DE LECTURA-ESCRITURA DE BRAILLE (TIFLI)”

Celais Garrido Edjair, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtra. Matilde Sampayo Carcamo, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de proyectos de tipo I+D es un punto obligado dentro de cualquier institución educativa y actualmente dentro del PND 2018-2024 la visión es enfocar estos proyectos al desarrollo o mejoramiento de la localidad, el estado, la región y/o el país en general, es por ello que el uso de herramientas de planeación, análisis, evaluación y visualización de los proyectos son imperativas desde la concepción de la idea hasta la comercialización del producto o servicio ideado. Lamentablemente es difícil cambiar la visión de prácticas que se ejecutaron por décadas de una misma manera a nuevas formas de trabajo en las que se debe tener un resultado aplicable en beneficio de la sociedad. Buscando que el desarrollo de proyectos incluya desde la investigación tecnológica más básica hasta llegar a una primera prueba de concepto, posteriormente, el desarrollo tecnológico que buscaría llegar a un primer prototipo o demostrador no comercializable, para finalizar en la innovación tecnológica, que requiere la introducción de un nuevo producto o servicio en el mercado, seguido, por último, de la implantación a gran escala. En este trabajo de investigación se hace una propuesta de las herramientas a utilizar y el orden de las mismas para el desarrollo de proyectos.



METODOLOGÍA

La elaboración de proyectos busca reducir al máximo la incertidumbre que existe en una decisión, es un fin que tal vez nos permitirá lograr de mejor manera el éxito, es decir, concretar nuestros objetivos. El desarrollo de proyectos I+D son una parte importante dentro de las tecnologías informativas, para lograr el éxito de un proyecto I+D es necesario la utilización de herramientas como son: Canvas, TRL y RoadMap. Para el desarrollo dentro del Proyecto PROTOTIPO DE JUGUETE PARA LA ENSEÑANZA DE LECTURA-ESCRITURA DE BRAILLE (TIFLI), las herramientas se desarrollaron de la siguiente manera: El modelo Canvas es una herramienta que nos ayuda NO EN FUTURO a definir y crear modelos de negocio innovador, en este se detallaron las 4 grandes áreas: clientes, oferta, infraestructura y viabilidad económica en un cuadro con 9 divisiones donde se observa la descripción de ellas para TIFLI. El Nivel de Madures de la Tecnología (TRL) consta de 9 rangos, de mayor a menor incertidumbre tecnológica en el se desarrollaron las categorías que indican el grado de novedad y/o acercamiento al mercado del proyecto, iniciando por las ideas básicas, hasta la producción y su distribución de TIFLI. Por último, con el RoadMap se realizó el trazo del camino por medio del cual TIFLI va a llegar desde el estado actual hasta el estado futuro, es decir, la secuencia de actividades o camino de evolución que nos llevan al estado futuro.


CONCLUSIONES

Hemos presentado de manera muy breve las herramientas utilizadas para el desarrollo de TIFLI, Canvas fue de mucha utilidad para definir los aliados estratégicos y la segmentación en el mercado, RoadMap nos dio una visión acerca de la tecnología que se requiere para el desarrollo futuro de TIFLI, gracias a estas herramientas nos encontramos en proceso del nivel 4 de acuerdo al Nivel de Madures de la Tecnología (TRL).
Cervantes Almonte Yaneli, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro

PLAN DE NEGOCIOS PARA UN MATERIAL BIOPOLÍMERO


PLAN DE NEGOCIOS PARA UN MATERIAL BIOPOLÍMERO

Cervantes Almonte Yaneli, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Según Greenpeace (2019). La producción total de plástico en 2016 alcanzó las 335 millones de toneladas. A esta cantidad hay que sumarle las fibras sintéticas que se usan en la ropa, cuerdas, u otros productos, que de forma conjunta representaron 61 millones de toneladas ese mismo año. Se estima que en 2020 se superarán los 500 millones de toneladas anuales, lo que supondría un 900% más que los niveles de 1980. Lo cual es un problema para el mundo y la humanidad pues  ya que se está contaminando demasiado provocando el cambio climático, desastres naturales sin considerar la contaminación de ecosistemas.



METODOLOGÍA

Se realizó una extensa investigación sobre el plan de negocios así como las partes que lo conforman para tener un mayor conocimiento del mismo, se realizó una investigación de mercado para así saber cuáles son nuestros clientes y a quienes será dirigido nuestro marketing de tal forma que sea la correcta y la adecuada a nuestro producto, se realizó una amplia investigación del Cavas de Propuesta de Valor y early adopters el cual nos da una serie de pasos donde nos ayuda a darle una propuesta de valor al producto así como darnos cuenta de a dónde y cómo llevaremos nuestro producto y como se va  avanzar de manera correcta, se aplicaron herramientas administrativas para determinar el costo de producción del popote laborado a base de un material biopolímero con el cual se determina el precio al cliente,  también se determina el punto de equilibrio donde nos damos cuenta en que momento de las ventas del producto se tendrá la inversión y se iniciaran a tener ganancias, para saber más de nuestro producto se utilizaron  muestras del biopolímero para determinar su tiempo de descomposición en el agua y en la tierra para así darlo con más precisión la calidad del producto y que no contamina ya que es elaborado de materiales biodegradables, se mantuvo el producto durante 6 semanas en recipientes con agua y tierra, se obtuvo el resultado de que se degrada más rápido en el agua sin contaminarla ya que se elabora de productos naturales.


CONCLUSIONES

El popote hecho de un material biopolímero elaborado a base de nopal es aceptado por las personas de la región de Tacámbaro, el marketing que se ofrecerá va dirigido a hombres y mujeres ya que en las encuestas que se realizaron se obtuvo una respuesta aceptaba por los dos, la inversión inicial más costosa es el de la Estructura de popotes que tiene un precio de 335,000$, dinero que se recupera en menos de un año, con una  producción semanal de 54,000 popotes trabajando 6 días por semana durante 8 horas de producción. Se le dará un valor agregado al nopal que es solo consumido como un alimento o curativo a ser ahora también un elemento indispensable para la producción de plástico biodegradable, el plan como resultado nos da que será un buen negocio ya que solo se invierte poco y se obtienen rápido ganancias.
Céspedes Jiménez Frida Paola, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla

PRODUCCIóN DE METANO A PARTIR DE CO2 CAPTURADO POR ZEOLITA


PRODUCCIóN DE METANO A PARTIR DE CO2 CAPTURADO POR ZEOLITA

Céspedes Jiménez Frida Paola, Benemérita Universidad Autónoma de Puebla. Vazquez Martinez Adrian, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Debido a que los gases de efecto invernadero (GEI) que, emitidos como consecuencia del desarrollo de actividades antrópicas y procesos naturales, han ocasionado el deterioro de la capa de ozono y por ende el calentamiento global. El dióxido de carbono (CO2) es uno de los GEI de mayor impacto. El sector energético aporta dos terceras partes de las emisiones de GEI y representa el 90% del total de emisiones de CO2.  Mediante la captura, almacenamiento y transformación de CO2 se podría disminuir el impacto de las emisiones atmosféricas.  Entre las técnicas existentes se encuentra la de Power-to-Gas, consiste en la producción de gas combustible a partir de energía eléctrica y CO2 de electrólisis y metanización.



METODOLOGÍA

Adsorción; Se buscó la simulación de adsorción del CO2, ya que gracias al enorme desarrollo de los ordenadores en los últimos años se cuenta ahora con el apoyo de la Simulación Molecular, con el fin de conocer el alcance de adsorción del CO2 en las zeolitas es necesario primero conocer en detalle sus estructuras, analizar sus propiedades y determinar las limitaciones de estructuras nanoporosas. La zeolita por estudiar será tipo clinoptilolita, Para la simulación se busca generar un código en Python tomando en cuenta el área superficial, la porosidad o textura del sólido, el diseño de las estructuras cristalinas, entre otras para la simulación y modelaje de las estructuras, cationes de moléculas implicadas. Buscando determinar la adsorción de mezclas de alcanos al variar la temperatura, la localización de los cationes, la densidad de los cationes y el momento polar. Para esto se utilizarán simulaciones en el colectivo gran canónico (NTV) que es el conjunto de los posibles estados de un sistema o partículas, que intercambia energía térmica y materia con los alrededores.  Mantenido fijo el volumen, la temperatura y el potencial químico. A bajas presiones la cantidad de moléculas adsorbidas tiene un comportamiento lineal, si son lo suficientemente bajas, la constante de Henry proporciona también una buena aproximación de la isoterma de adsorción. La adsorción de hidrocarburos en zeolitas depende fundamentalmente del tipo de estructura cristalina, de la densidad y distribución de cationes de intercambio y del tipo de catión de intercambio. Utilizando simulaciones Monte Carlo se podrá reproducir posiciones cristalográficas, aunque lo que se busca es, el modelo de distribución del tamaño de poro, por los métodos Dubinin-Astakhov (D-A) y Barret-Joyner- Hallenda (BJH) y con la densidad de la zeolita conocer la distribución de los átomos de la zeolita. En el caso de que se logre generar esto, se procederá a encontrar la correcta simulación de isotermas de adsorción de estos materiales, comprobando con los datos experimentales, y después se procederá a introducir nuevos adsorbatos y como último paso se propone extender este estudio para diferentes zeolitas. Desorción: Se piensa llevar a cabo desorción flash, donde la zeolita cargada de CO2 se desgasifica a través de una serie de etapas de reducción de presión. Liberando el CO2, regenerando así la capacidad original de la zeolita.   Electrolisis: Es el método donde el agua se separa en sus componentes H2 y O2. Se realiza aplicando un potencial eléctrico a dos electrodos llamados cátodo y ánodo, en el primero se obtendrá H2 y en el segundo O2. Metanización: La transformación se efectúa por vía biológica, el biogás es un producto de la descomposición anaerobia de materia orgánica, se compone principalmente por CO2 y CH4. El proceso anaerobio involucra una compleja serie de reacciones bioquímicas y se divide en hidrólisis, acidogénesis, acetogénesis y metanogénesis. Cuando la metanogénesis es mediada por el CO2 como precursor se denomina hidrogenotrófica o hidrogenófila y se utiliza H2 como principal donador de electrones. El modelo utiliza como microorganismo unicelular la arquea metanógena y la reacción principal es 4H2+CO2→CH4+2H2O. La velocidad total de consumo de H2 se obtiene al sumar la velocidad de consumo de H2 para el crecimiento del cultivo y la velocidad con la que el H2 se consume para la producción de CH4. El cálculo del gas de salida se realiza con la media aritmética de los valores de flujo de entrada y salida. La fracción de H2 en el gas de salida depende de la velocidad con la que se consume el H2 y esta puede ser calculada mediante un balance al H2 en fase gas. Se realizó el código del proceso en el programa EES para identificar cómo afecta la presión, el volumen de trabajo y el tiempo de crecimiento de la biomasa en el proceso y predecir la composición del gas de salida del reactor biológico. Finalmente se realizaron gráficas donde se puede observar que, al aumentarlos, la fracción de CH4 y del CO2 a la salida disminuye, mientras que la fracción H2 aumenta.


CONCLUSIONES

En trabajo se presentan los parámetros que se deben de tener en cuenta para un modelo molecular de zeolita clinoptilolita, ya que se infiere que uno de los principales problemas es el modelo con el que se diseñe esta estructura, que afecta directamente en la simulación de adsorción. También deben de ser considerados los defectos de la estructura natural, así como la tortuosidad y conectividad entre poros. La principal ventaja de desarrollar un modelo de adsorción en una herramienta como Python, es que se podría simular adsorción de distintos gases, así como para su separación, sin necesidad de muchos recursos.  En cuanto a la transformación del CO2 se puede concluir que, aunque la tecnología Power-to-Gas aún se encuentra en desarrollo es una opción bastante viable para producir bioenergía, ya que el gas puede ser empleado para reducir la energía eléctrica requerida, así como también se podría utilizar la energía que libera la reacción. Además de esto, el programa se podría utilizar para el diseño de una planta a pequeña escala si se incluyen otros parámetros y equipos necesarios para abarcar todo el proceso.
Chacon Aguilar Abel, Instituto Tecnológico de Tapachula
Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula

DESARROLLO DE SOPORTE ERGONóMICO PARA EQUIPO DE MEDICIóN DE SIGNOS VITALES


DESARROLLO DE SOPORTE ERGONóMICO PARA EQUIPO DE MEDICIóN DE SIGNOS VITALES

Chacon Aguilar Abel, Instituto Tecnológico de Tapachula. Lopez Ramirez Eduardo, Instituto Tecnológico de Tapachula. Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores inconvenientes en la innovación es la falta de residencia,la sociedad se acostumbra al uso de ciertos dispositivos(en nuestro caso mecánico) que no ven la necesidad o la utilidad de innovar. Esto ocurre en todos los sectores, el área médica no es una excepción; ciertamente las mayores innovaciones vienen acompañadas de mayores costos, lo cual hace aún más difícil que se logre el cambio esperado. En el presente trabajo mostramos la innovación de un dispositivo de "apoyo médico" que comenzó como un porta sueros y que prácticamente a sufrido leves cambios en los más de 50 años en que se ha utilizado, hablamos de un soporte para equipos de medición de signos vitales.



METODOLOGÍA

El diseño se basa en leyes de la física básicas que abarcan términos generales, Estática, Mecánica de Materiales, Dinámica,fluidos; Este diseño empleara como parte fundamental, mantener un centro de gravedad bajo sin importar la masa que se coloque en el extremo Superior del soporte, Logrando de esta forma el balance de cuándo, Evitar giros del soporte y caida de los dispositivos de medición. Se empleará como respaldo del análisis mecánico, Sistemas CAE que nos permitirán simular el soporte y corroborar el comportamiento estructural y dinámico de acuerdo a los esfuerzos a los que estará sometido, utilizando herramientas de mallado basadas en el método de elementos finito para la aproximación de las solicitudes de más ecuaciones empleadas en el diseño.


CONCLUSIONES

Durante la estancia del verano se logró desarrollar el diseño del soporte ergonómico para equipos de medición de signos vitales. Mediante el apoyo de software de diseño (ANSYS), de esta manera se corroboro el diseño estructural del soporte, esperando ahora una continuación en el proyecto para su aplicación.
Chagal Saavedra Jose Roberto, Universidad Mexiquense del Bicentenario
Asesor: Dra. Claudia Patricia Figueroa Ypiña, Universidad de Guadalajara

FACTORES ASOCIADOS A LA DESERCIóN UNIVERSITARIA DE LAS CARRERAS DE INGENIERíA DEL CENTRO UNIVERSITARIO DE LA COSTA.


FACTORES ASOCIADOS A LA DESERCIóN UNIVERSITARIA DE LAS CARRERAS DE INGENIERíA DEL CENTRO UNIVERSITARIO DE LA COSTA.

Chagal Saavedra Jose Roberto, Universidad Mexiquense del Bicentenario. Ramirez Velasco Ximena Paola, Instituto Politécnico Nacional. Asesor: Dra. Claudia Patricia Figueroa Ypiña, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La deserción escolar es una situación que preocupa a las instituciones de educación superior. Este estudio se centra en analizar los factores que inciden en la deserción de estudiantes de las carreras del área de ingenierías del Centro Universitario de la Costa de la Universidad de Guadalajara. Partiendo la información del Sistema Integral de Información y Administración Universitaria y del cuestionario a estudiantes desertores, los resultados indican que el programa educativo con mayor índice de deserción es la ingeniería en computación ya que cuenta con un 32.94%. Seguida de la ingeniería en comunicación multimedia que cuenta con un 29.31%. Finalmente, la ingeniería en telemática que cuenta con un 25.12% las causas principales obedecen a factores económicos, académicos y familiares.



METODOLOGÍA

En este estudio se presenta un estudio mixto de carácter descriptivo. A través de la información del Sistema Integral de Información y Administración Universitaria (SIIAU) de la Universidad de Guadalajara respecto al plan de estudios de los programas educativos de ingeniería en comunicación multimedia, ingeniería en computación e ingeniería en telemática del Centro Universitario de la Costa, junto con la aplicación del cuestionario de desertores a una muestra de estudiantes que solicitan la baja de la carrera. De la información recabada se obtuvo información sobre las causad del porque los estudiantes abandonan sus estudios con la intención de entender este fenómeno desde la perspectiva cuantitativa y cualitativa.


CONCLUSIONES

El estudio contempló una población de 1502 alumnos que desertaron de las carreras del área de ingeniería, tales como multimedia, computación y telemática, teniendo en cuenta que no existe un numero de deserciones igualitario en las carreras seleccionadas, puesto que como se mostró en la investigación, la carrera de multimedia tiene el 50% de deserciones, telemática con 26% y computación con 24%. Entre los factores de deserción del CUCOSTA se encuentran los académicos, los personales, socioculturales e institucionales; al igual que en los trabajos de investigación citados, el CUCOSTA no es ajeno al fenómeno de deserción durante los primeros años de las carreras a nivel superior, dónde el motivo principal son los factores personales, ocupando asi un porcentaje del 34.28% de los antes mencionados, cabe resaltar que dentro de esta categoría la situación personal identificada con mayor rango de deserción es que los alumnos se percataron de que no era la carrera indicada para ellos. Por otra parte, se observa con menor porcentaje las dimensiones académicas con un valor de 3.73% , analizando que la mayoría de dichas deserciones dentro de este factor son por asignaturas con bajo desempeño académico.
Chan Dzul Jesus David, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo

INTEGRACIóN DE FUENTES FOTOVOLTAICAS A LA RED ELéCTRICA Y SU IMPACTO EN LA CALIDAD DE LA ENERGíA


INTEGRACIóN DE FUENTES FOTOVOLTAICAS A LA RED ELéCTRICA Y SU IMPACTO EN LA CALIDAD DE LA ENERGíA

Chan Dzul Jesus David, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La producción de la energía eléctrica basada en el uso de combustibles fósiles puede resultar en ocasiones en un proceso de un costo elevado y preocupante por su impacto ambiental que propicia problemas de contaminación causando un deterioro a la calidad de aire y además estos recursos están en peligro de agotamiento, es por ello por lo que se han buscado alternativas que ayuden a solucionar estos problemas. Una de estas soluciones es el uso de las energías renovables, que nos ofrecen una alternativa para atenuar el cambio climático, y relativamente resultan ser más económicos; tales como el aprovechamiento de la energía solar que gracias a las fuentes de energía fotovoltaica nos permite una generación de energía eléctrica, sin embargo, este tipo de sistemas trae con ello afectaciones en la calidad de la energía de la red eléctrica. El comportamiento de las fuentes fotovoltaicas en la red eléctrica afecta de cierta manera en la estabilidad y calidad de energía, así como la intermitencia inherente asociada a estas puede llegar a ser muy importante; la intermitencia podría causar que la demanda del sistema eléctrico pueda quedar insatisfecha, lo que se puede solucionar por ejemplo con almacenamiento de energía y con la forma de operación de cada sistema. 



METODOLOGÍA

Primeramente, para el análisis de este tipo de afectaciones se llevó a cabo una revisión bibliográfica en tópicos esenciales, como la calidad de energía que de acuerdo con la IEEE (Institute of Electrical and Electronics Engineers) es el concepto de alimentar y conectar equipos electrónicos de una manera que sea adecuada para el funcionamiento de ese equipo y compatible con el sistema y otros equipos. La calidad también está definida como la falta de problemas eléctricos que pueden reflejarse en desviaciones de la tensión, la corriente o frecuencia y provocando errores o mal funcionamiento en los equipos del usuario. Se llevó a cabo un análisis sobre cuáles son algunos de los problemas que afectan a la calidad de energía de los cuales se pueden mencionar los picos de voltaje, el ruido eléctrico, los armónicos, sag’s, swell, bajo voltaje, alto voltaje, variación de frecuencia, entre otros, así como la variedad de equipos que permitan prevenir o eliminar estos disturbios eléctricos con la finalidad de garantizar una mejora en la calidad de energía que finalmente llega al usuario. Entre estas tecnologías de protección y mejora se pueden mencionar los supresores de picos y transformadores de aislamiento, acondicionadores de línea, UPS’s y plantas de emergencia. Las fuentes fotovoltaicas se pueden presentar en diferentes tipos de conexiones, como los son interconectadas a la red, sistemas aislados (o autónomos) y pueden estar presentes en las microrredes, donde de acuerdo con el objetivo que se busque en la instalación respectiva, se pueden agregar componentes o equipos para tener una configuración adecuada. Se abordaron de igual manera los diferentes sistemas de almacenamiento que se analizaron en el desarrollo de la investigación. En cuanto al análisis de la problemática de la intermitencia de las fuentes fotovoltaicas en la red eléctrica o redes de distribución, se pudo llevar a cabo estudios en artículos de investigación que desarrollan este tema, donde se toma en cuenta un punto importante: la optimización. A lo largo de la estancia fue una base para el comprendimiento de la solución del modelado del problema. Se mencionó los diferentes métodos de optimización, con los que se maximiza o minimiza una función objetivo. Con ayuda del software Matlab se pudo llevar a cabo la solución de ejercicios, usando diversos códigos preestablecidos en el software (linprog, intlinprog, fmincon, ga) de acuerdo con las restricciones que se presenten (lineales o no lineales). Cabe destacar que el método de optimización usando algoritmos genéticos es un punto relevante en el desarrollo de la investigación, ya que forman parte de la rama de inteligencia artificial y ayuda a encontrar soluciones a problemas más complejos en un tiempo razonable. Una solución es el uso de los sistemas de almacenamiento de energía como los son los BESS (Battery Energy Storage System) la ubicación y capacidad de este, puede mitigar la variación de tensión de la fuente renovable en cuestión y los problemas relacionados a la calidad de energía, sin embargo, para un mejor aprovechamiento se lleva a cabo una optimización de la ubicación de este sistema de almacenamiento de energía, esto para poder maximizar las beneficios de esta implementación en la red eléctrica. Esta metodología reportada en distintos artículos científicos permite realizar la minimización de las pérdidas en el sistema. En [A. Alzahrani, et al, 2020] se habla de una reducción del 58.8% pérdidas de energía con una ubicación distribuida del almacenamiento de energía mientras que con una sola ubicación del sistema de almacenamiento es del 41.2%. De igual manera se hizo un análisis a un artículo de despacho económico de cargas, en el cuál se detalló de manera simplificada un ejemplo desarrollado en Matlab, minimizando el costo de la generación de potencia.


CONCLUSIONES

El uso de fuentes de energía renovables tiene un impacto positivo ambiental, sin embargo, trae consigo consecuencias que se han mencionado. Los análisis simplificados de ejemplos se pudieron ver de manera aplicada en artículos científicos, la ubicación óptima de sistemas de almacenamiento ayuda a la reducción de problemas asociados al uso de las fuentes de energía renovables y el beneficio económico como consecuencia de la solución de estos problemas.  Se pudo comprender estas bases y puntos clave teóricos a lo largo de la estancia, también sobre cómo afrontar si en un ámbito profesional se presentan este tipo de problemáticas. [A. Alzahrani, et al, 2020] A. Alzahrani, H. Alharthi and M. Khalid, "Optimal Battery Energy Storage Placement in Highly PV- Penetrated Distribution Networks," 2020 IEEE Power & Energy Society Innovative Smart Grid Technologies Conference (ISGT), Washington, DC, USA, 2020, pp. 1-5.
Chávez Castro Antonio, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato

SIMULACIóN DE UN ROBOT MóVIL PARA REALIZAR TAREAS DE NAVEGACIóN MEDIANTE EL USO DE TéCNICAS DE CONTROL RETROALIMENTADO


SIMULACIóN DE UN ROBOT MóVIL PARA REALIZAR TAREAS DE NAVEGACIóN MEDIANTE EL USO DE TéCNICAS DE CONTROL RETROALIMENTADO

Chávez Castro Antonio, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una de las tareas más estudiadas en la robótica es la navegación, la cual es utilizada para la exploración de diversos entornos, debido a que existen espacios confinados o ambientes peligrosos por diversos factores (radiación, residuos peligrosos, material explosivo, etcétera). Como es de esperarse, algunas tareas requieren de mayor cuidado y exactitud que otras, por lo que es arriesgado tanto para el robot como para el entorno probar estrategias implementándolas directamente en los sistemas reales, de modo que se obliga a realizar simulaciones en software para corregir condiciones, algoritmos, incluso cambiar o agregar sensores que sean necesarios y adecuados antes de confiar plenamente en el prototipo físico. Es necesario realizar diversas simulaciones computacionales mediante robots y entornos virtuales. Esto es una precaución que se toma para saber si la planeación de la consigna a ejecutar por el robot ha sido depurada adecuadamente. De esta manera, se reduce considerablemente el número de fallas, accidentes y daños al momento de ejecutar las primeras pruebas en el sistema robótico real sobre su entorno.



METODOLOGÍA

Fue necesario hacer uso de un software de programación de alto nivel, entre las diversas opciones que se ofrecen en el mundo de la programación, se eligió el software GNU Octave ya que tiene la ventaja de ser libre, gratuito y cuenta con una diversidad de herramientas que facilitan el desarrollo de cualquier tarea de programación para ingeniería. Dicho software, se utilizó para elaborar un simulador y permitir al usuario evaluar sus algoritmos en un robot virtual del tipo de manejo diferencial antes de implementarlos en un sistema robótico real, garantizando una mejor noción de la ejecución de las tareas a desempeñar. En este proyecto, se contempla la implementación de diversas primitivas de movimiento para ejecutar la navegación en diversos entornos, principalmente: movimiento en línea recta, rotación en sitio y movimiento en arco de circulo. Se procedió a realizar propuestas de entornos para el robot. Tras varios entornos creados, se seleccionaron únicamente 6 de ellos para incluirlos en el programa principal, de manera que, el usuario pueda seleccionar el entorno en el que se desea navegar. Como una necesidad básica en los sistemas robóticos, es necesario obtener retroalimentación del ambiente por medio del sensado para saber dónde se encuentran los límites del entorno y que el robot los contemple para evitar colisiones. El robot de manejo diferencial (DDR por sus siglas en inglés) se modeló como un disco de radio mayor que cero, esto nos permite considerar restricciones geometricas al interactuar con el ambiente. El robot cuenta con una marca frontal conocida como heading cuyo propósito es revelar su orientación, en este caso, se representó al heading como una línea desde el centro del disco hasta algún punto sobre su períferia. Además un punto a resaltar es que el robot estaría en constante movimiento en orientación con su heading. En la programación del simulador, se contempló el uso de funciones para dividir el problema en varias tareas, como: Construcción y selección del entorno a navegar, Construcción y posicionamiento del robot en el entorno, integrador númerico para simular el cambio de posición en la navegación, ejecución de primitiavas de movimiento, ejecución de perfiles para el seguimiento de velocidad, simulación de un sensor laser para la retroalimentación con el entorno. Inicialmente se creó una función la cual tenía por objetivo aplicar en el robot tres primitivas básicas de movimiento las cuales son: 1) Moviento en línea recta, 2) Rotación en sítio (girar sobre su propio eje central) y 3) Moviemiento en arco de círculo (el robot se desplaza de un punto a otro por medio de una curva sobre un punto de pivote). Dichas primitivas de movimiento son efecutados por medio de las variables de control, en este caso, velocidad lineal y velocidad angular. El objetivo de la simulación es apreciar la navegación del robot en un entorno aplicando tales movimientos básicos. Para dar la noción del cambio de posición en el desplazamiento del robot, se implementó un integrador númerico basado en el método de Euler dentro de una función (permitiendo el cambio de posición inicial a posición final en cada iteración) esto es posible, gracias a que se conoce el modelo cinemático del robot de manejo diferencial DDR, de donde se obtienen las velocidades utilizadas como la tasa de cambio de posición en la integración numérica de Euler. Posterior a ello fue fácil implementar las primitivas de movimiento de línea recta y movimiento en arco de círculo, esta primitiva de movimiento se utiliza principalmente para dar vuelta en las esquinas. Además de ello se añadió la primitiva de movimiento rotación en sítio. Este tipo de movimiento es útil cuando el robot detecta sobre su periferia más de un obsatáculo en contacto con él, algún ejemplo de ello podría ser que el robot tope con dos paredes o más del polígono por lo que es mejor realizar una rotación en sítio para ir hacia otra dirección. Finalmente, como parte esencial de cualquier sistema robótico, se implementó un telémetro láser para medición de distancia en un plano, el cual puede ser configurado para detectar obstáculos de 0 a 360 °. Con ello, es posible proporcionar información del entorno para retroalimentar al robot e indicar hacia qué dirección moverse y así decidir que primitivas de movimiento son las más optimas a ejecutar ante cada situación.


CONCLUSIONES

Durante la estancia virtual del verano se adquirieron conocimientos generales y específicos dentro de la robótica. Es posible desarrollar un propio simulador con cualquier lenguaje que proporcione herramientas gráficas y adecuar el simulador a las necesidades del sistema robótico a utilizar.  Es de vital importancia pasar por una etapa de simulación antes de implementar los algoritmos en un robot real, ya que esto nos permite evaluar previamente el algoritmo y hacer los ajustes necesarios antes de llevarlo al mundo real, de esta manera se evitan los riesgos en gran medida incluyendo los daños al propio robot y al entorno.
Chávez Méndez Dorismar, Instituto Tecnológico de Colima
Asesor: Dr. Ricardo Bonett Díaz, Universidad de Medellín

ANÁLISIS DEL COMPORTAMIENTO SÍSMICO DE EDIFICIOS DE MUROS DE CONCRETO REFORZADO BASADO EN MACRO PARÁMETROS.


ANÁLISIS DEL COMPORTAMIENTO SÍSMICO DE EDIFICIOS DE MUROS DE CONCRETO REFORZADO BASADO EN MACRO PARÁMETROS.

Chávez Méndez Dorismar, Instituto Tecnológico de Colima. Estudillo Camacho Brenda, Universidad Autónoma de Chiapas. Gómez Espinoza Uriel Ignacio, Universidad Autónoma de Chiapas. Martínez Bojorges Iván, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Bonett Díaz, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

La tendencia del desarrollo vertical en los grandes entornos urbanos motivado por la ausencia de espacio ha impulsado el uso de sistemas industrializados en el sector de la construcción en Colombia. Uno de los sistemas de mayor uso, es el sistema de muros vaciados de concreto reforzado, conocido también como muros industrializados o de corte. En la actualidad las propuestas arquitectónicas sugieren espacios libres de muros para generar sensaciones de amplitud, por lo que la implementación de muros cortantes proporciona resistencia y rigidez ante carga laterales. La optimización de espacios, así como la reducción de costos y algunos vacíos normativos a nivel de parámetros de control sobre el dimensionamiento de los elementos estructurales, ha promovido el uso de muros delgados y esbeltos, es decir, elementos estructurales altos y de poco espesor, en los cuales no es posible incluir estribos o ganchos de confinamiento. Los muros son subsistemas estructurales sólidos rígidos, que brindan estabilidad a la estructura de una edificación. Los muros de corte son paredes de concreto armado que absorben fuerzas laterales coplanares (sismo, viento) rigidizando la estructura con el propósito de reducir las deformaciones excesivas y por consiguiente los daños, que puedan afectar el comportamiento integral de la misma. En la presente investigación se realizó el análisis estructural de un edificio de 20 y 12 niveles localizados en la ciudad de Bucaramanga departamento de Santander (Colombia), zona de alta sismicidad. Los edificios se analizaron a partir de una metodología desarrollada por la Red Colombiana de Investigación en Ingeniería Sísmica, CEER, la cual involucra los principales macro parámetros que controlan el comportamiento sísmico. La problemática surge con base a la necesidad de realizar una evaluación conceptual rápida y eficiente a partir de las características geométricas de los edificios construidos con el sistema de muros de concreto reforzado localizados dentro del nido sísmico de Bucaramanga, con el fin de identificar casos críticos que puedan generar una catástrofe durante un determinado evento sísmico. Es por ello que el correcto análisis de los elementos que conforman la configuración estructural de los edificios permite conocer si la disposición estructural es favorable o desfavorable en términos del desempeño sísmico esperado.  



METODOLOGÍA

Para la evaluación se empleó una metodología simplificada desarrollada por la Red Colombiana de Investigación en Ingeniería Sísmica, CEER. Para determinar el funcionamiento de los muros de corte presentes en ambos edificios, se analizaron los siguientes parámetros: Densidad de muros: permite determinar el área existente de cada uno de los muros de corte en edificio, a mayor densidad de muros menor carga axial, si la densidad es mayor que 3% la configuración del edificio se considera favorable desde el punto de vista de rigidez lateral. Relación de esbeltez: el cálculo de la esbeltez de cada uno de los muros permite conocer qué muros son capaces de soportar cargas laterales y cuáles son más propensos a que se pandeen. Relación de aspecto influye en la capacidad de rotación inelástica del muro:  los indicadores muestran el tipo de cada uno de los muros (cortos, intermedios o largos) y su capacidad deformación lateral. Porcentaje de cortante sísmico: determina el valor porcentual de carga sísmica que soporta cada uno de los muros de los edificios. Detallado del acero de refuerzo de los muros principales: permite calificar el tipo de refuerzo que tiene el elemento y si cuenta o no con confinamiento. Para cada uno de los casos de estudio, se realizó un análisis de la distribución de los macro parámetros y a partir de unos rangos o intervalos definidos por la Red CEER, se determina el nivel de diseño o el comportamiento esperado de ambos casos de estudio. Los cálculos mencionados anteriormente se obtuvieron por medio de hojas de cálculo de Excel ya que facilita el manejo de los parámetros para determinar el análisis estructural.


CONCLUSIONES

El desarrollo de infraestructura por medio de muros cortantes permite una nueva visión al momento de tomar decisiones estructurales en México, ya que las edificaciones predominantes en el país son por medio de pórticos, así que el conocer diversas alternativas estructurales ofrece un estudio detallado sobre los cimientos y la estructura del edificio en base a la región en la que se localiza y el entorno inmediato que demanda. Los resultados obtenidos presentan una herramienta útil para determinar la configuración estructural del edificio, en donde se demostró el comportamiento estructural de cada uno de los muros presentes en ambos edificios. La investigación brinda una pauta para que en un futuro sean analizadas edificaciones por medio de macro parámetros, ya que es una manera rápida y eficiente en la toma de decisiones sobre configuración estructural. En caso de que los resultados obtenidos sean desfavorables se requerirá un segundo análisis más detallado, en donde se incorporen modelos numéricos, procesos de análisis no lineal, así como modelados en tercera dimensión para evaluar el comportamiento de cada edificio con simulaciones de eventos sísmicos.
Colula Aguayo Moises, Universidad Politécnica de Tecámac
Asesor: Mtro. Iván Ricardo Barajas Rosales, Universidad Politécnica de Tecámac

PROPUESTA DE SENSOR DE HUMEDAD CON EL COMPOSITE DE PVA OXIDO DE GRAFITO


PROPUESTA DE SENSOR DE HUMEDAD CON EL COMPOSITE DE PVA OXIDO DE GRAFITO

Colula Aguayo Moises, Universidad Politécnica de Tecámac. Asesor: Mtro. Iván Ricardo Barajas Rosales, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

El proponer un diseño como herramienta para la detección de humedad  controlada por arduino con microcontroladores que lo integran tiene como objetivo el sensor de humedad también con un módulo MQ-5 se puede tener sensibilidad al dióxido de carbono. Aunado al lenguaje C++ el cual estableció la comunicación de la PC a el arduino, los dispositivos que conforman el circuito tienen funciones específicas de trabajo, la elección de software (easy eda) fue de mucha ayuda para el diseño del sensor,  porque cumplían con especificaciones requeridas en el presente trabajo para un resultado óptimo cuando se realizó una simulación con el software. Una vez determinada la simulación, la elección del módulo MQ-5 fue la idónea por la naturaleza el trabajo, este puede detectar 3 tipos de gases (GLP, gas natural, gas carbono), entonces le va dar al sensor una detección más, la de dióxido de carbono.



METODOLOGÍA

El diseño del circuito electrónico (sensor de humedad) con el software easy eda y la programación con el arduino fueron eficientes en términos del desempeño del sensor se revisó el mismo software que no existieran fallos de conexión también se refino la programación para la manufactura futura del sensor. Trabajar en base a un cronograma semanal mejoro mi desempeño hacia el trabajo con éxito porque organizo mi trabajo de la siguiente forma:   1er. Semana: Investigar sobre los componentes electrónicos que se requerirán para desarrollar el trabajo de investigación.   2da. Semana: Utilizar el software esa-EDA y edra-MAX 3ra. Semana: Manejar el software easyEDA y edraw-MAX  para el diseño del sensor de humedad con el composite de PVA-oxido de grafito. 4ta. Semana: Estudiar el lenguaje C++ para programación del sensor de humedad y por su puesto cumpla con su función 5ta. Semana: Manejar el software Arduino con el que se comunicó con el circuito electrónico así mismo programarlo para una tarea específica. 6ta. Semana: Analizar el funcionamiento óptimo en base a las pruebas realizadas en el software ya mencionados


CONCLUSIONES

En conclusión el sensor de humedad será una herramienta perfecta que servirá como apoyo a otros proyectos, así mismo, la novedad y ventaja adicional de cumplir su función en la detección de CO2 al tener el módulo MQ-5 como componente de mejora. Ya bien sabido que el dióxido de carbono es el principal componente  causante del cambio climático global, por lo que hay que reducir su emisión a la atmósfera. En suma este trabajo dio como resultado un sensor de humedad y dióxido de carbono el cual PVA oxido de grafito será capaz de detectar ambos compuestos.
Contreras Sabrina, Instituto Tecnológico de Culiacán
Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa

DISEñO DE UN SISTEMA OUTDOOR PARA CRECIMIENTO DE MICROALGAS EN MAZATLáN SINALOA ALIMENTADO CON ENERGíA SOLAR FOTOVOLTAICA


DISEñO DE UN SISTEMA OUTDOOR PARA CRECIMIENTO DE MICROALGAS EN MAZATLáN SINALOA ALIMENTADO CON ENERGíA SOLAR FOTOVOLTAICA

Contreras Sabrina, Instituto Tecnológico de Culiacán. Garcia Pérez Juan Antonio, Instituto Politécnico Nacional. Torróntegui Chávez Geraldyne, Instituto Tecnológico de Culiacán. Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Teniendo como enfoque la Agenda 2030 para el Desarrollo Sostenible y sus objetivos de producción de energía limpia para combatir el cambio climático, las investigaciones y avances tecnológicos para la implementación de alternativas menos contaminantes se han vuelto una necesidad. Una de las principales causas del calentamiento global es la quema de combustibles fósiles por emisión de COX, debido en gran parte al uso de los petrolíferos (gasolinas, diésel) por lo que deben presentarse alternativas como el diésel de biomasa de tercera generación (microalgas) y el diésel fósil ultra bajo azufre (DUBA). La producción de Diesel a partir de microalgas ha llamado la atención debido a las características que tiene, principalmente bajo contenido de azufre, alta biodegradabilidad y debido a que existen muchas especies de microalgas con un contenido considerable de lípidos transesterificables y cuyo crecimiento celular permite condiciones extremas de temperaturas, iluminación y nutrientes. Particularmente en Sinaloa no se han desarrollado investigaciones a gran escala de diésel a partir de microalgas, solo a escala laboratorio en la Universidad Politécnica de Sinaloa (UPSIN), por lo que es necesario el desarrollo de proyectos que permitan  implementar sistemas de cultivo de microalgas que puedan desarrollarse bajo las condiciones climatológicas propias de la región (sistemas outdoor).



METODOLOGÍA

El objetivo del proyecto fue diseñar un sistema de cultivo para microalgas tipo outdoor alimentado con un sistema solar fotovoltaico autónomo para ser implementado en UPSIN, Mazatlán Sinaloa. Se empleo SolidWorks como software CAD para diseño y modelado en 2D y 3D. El sistema outdoor se conformó por un sistema biológico (fotobioreactores para crecimiento de microalgas) y por un sistema solar fotovoltaico autónomo que operará bajo las condiciones ambientales de Mazatlán y protegerá de la intemperie los fotobioreactores, equipos de monitoreo y baterías de ciclo profundo. Los fotobioreactores para el cultivo microalgal serán tubos de vidrio transparente tomados de colectores solares para agua caliente. Para el sistema solar fotovoltaico autónomo en Ing. en Energía UPSIN se dispone de paneles solares fotovoltaicos base Si policristalino y baterías de ciclo profundo. Se dimensionó para cubrir la potencia que requieren las luminarias para que el cultivo de microalgas se mantenga por las noches. 


CONCLUSIONES

El diseño del sistema biológico consta de 04 fotobioreactores tubulares con capacidad para 20 L sellados con tapón de polimetilmetacrilato con 03 orificios para insertar sensor de temperatura, sensor de pH y aire atmosférico filtrado. Se soportan verticalmente sobre una base de madera de 1.5x0.4 m2. La microalga de trabajo será una cepa Dunaliella tertiolecta porque se dispone de cultivos en el lab. de bioenergía UPSIN, el medio de cultivo será F/2 de Guillard, temperatura ambiental variable, luz suministrada por la radiación solar y por luminarias por las noches. Los fotobioreactores serán desmontables para su lavado y llenado. El sistema fotovoltaico estará orientado al sur con ángulo de inclinación igual a la latitud de Mazatlán (23.5°) consta de 02 paneles solares policristalinos 250 Wp, 36.97 V (Voc), 9.29 A (Isc) conectados en serie (para un voltaje de 74 V) un controlador de carga de 800 W, 150 V , 60 A y 02 baterías de ciclo profundo 115 Ah, 12 V conectadas en paralelo que suministran la energía eléctrica a 10 focos Led de 9.0 W, 12 V corriente directa que trabajaran en un espacio de 12 h. Para las protecciones correspondientes, interruptores termomagnéticos y cable AWG calibre 12 para las conexiones. El sistema final diseñado (denominado outdoor) estará en un terreno de UPSIN donde se reciba una cantidad considerable de irradiación solar, consta de una estructura de madera de 2.5 m de alto, 2.0 m de ancho (cimentada en el terreno) cubierta por una lámina de policarbonato transparente que permita por lo menos un 90% del aprovechamiento de la irradiancia solar para el crecimiento celular de la microalga diario. Permite el ingreso de personas para el cómodo monitoreo del crecimiento de la microalga y brinda protección meteorológica de todos los materiales. De esta manera, se aporta en primera instancia un sistema a escala piloto  bajo condiciones ambientales y aprovechando la radiación solar de la localidad de Mazatlán para el crecimiento de microalgas con potencial para la producción de biodiesel y de presentar factibilidad y viabilidad elevarlo a gran escala.
Contreras Sanabria Perla Lizbeth, Universidad de Guadalajara
Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo

UBICACIóN óPTIMA DEL ALMACENAMIENTO DE ENERGíA.


UBICACIóN óPTIMA DEL ALMACENAMIENTO DE ENERGíA.

Contreras Sanabria Perla Lizbeth, Universidad de Guadalajara. Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Se revisaron definiciones de calidad de energía y se trataron aspectos como el interés en la calidad del suministro de energía, los fenómenos que influyen en  la calidad de la energía, tales  como las interrupciones o las perturbaciones eléctricas, que incluyen sobretensiones, parpadeos, armónicos, por mencionar algunos, así como la importancia de la regulación en el suministro de energía ante distintas empresas comercializadoras de energía, que aunque actualmente en México no existe esta modalidad, se tiene previsto que sea una realidad. Para conocer las energías renovables indagamos sobre los tipos que hay, cómo funcionan y la eficiencia con la que funcionan, así como su presencia actual en México y el mundo, encontrando que las energías renovables actualmente se incrementan de manera importante en la generación de energía tanto a nivel global como nacional y existen zonas con mucho potencial de generación tanto de fuentes fotovoltaicas como eólicas, que son las que han estado tomando mayor importancia en los últimos años, como algunas otras fuentes de energía renovables, como la bioenergía, la geotérmica, la hidráulica, la nuclear, sin embargo, la mayoría de estas fuentes cuentan con un elemento en contra en común, que es la intermitencia en la generación, por lo que resulta complejo obtener un balance entre la generación y la demanda a suministrar, es por esto que nos dirigimos a estudiar una de las alternativas para que este aspecto tome mayor auge, que es el almacenamiento de energía. Posteriormente, se comenzó a revisar las distintas técnicas de optimización según el tipo de función y de restricciones que se tuvieran, esto tomando como bibliografía de referencia el libro: Formulación y Resolución de Modelos de Programación Matemática en Ingeniería y Ciencia, donde se revisaron distintos métodos tales como la programación lineal, la no lineal y programación entera-mixta, así como distintos ejemplos y ejercicios que trabajamos en el programa Matlab. Algunos de los ejercicios que se realizaron permitieron resolver problemáticas comunes de la vida real, buscando así un entendimiento completo del tema, posterior a la lectura y revisión de cada problema se llevaban hacia el programa de Matlab, en donde, gracias a las funciones como fmincon, linprog, intlinprog, de la caja de herramientas de optimización del mismo programa, se obtenían resultados para problemas de programación no lineal, programación lineal y programación entera-mixta, respectivamente. En cuestiones de almacenamiento se revisaron los tipos de tecnologías que se utilizan y cómo se utilizan, así como su costo y vida útil, que normalmente son los parámetros  que se toman en cuenta en la toma de decisiones de instalaciones de estos componentes.



METODOLOGÍA

Se revisaron distintos artículos sobre la instalación de sistemas de almacenamiento de energía en sistemas eléctricos ya establecidos, donde se estudia el efecto que tiene primero el almacenamiento de energía y posteriormente encontrar la ubicación óptima para obtener los mayores beneficios de estos sistemas. Esto con el objetivo de encontrar la metodología que se siguió en el desarrollo de cada uno de los problemas, corroborando los resultados con distintas simulaciones en el programa Matlab. Con el objetivo de conocer otras técnicas de optimización, se realizaron distintas investigaciones acompañadas de una plática brindada por la doctora, sobre algoritmos genéticos, una técnica que fundamenta su método en la teoría de evolución al realizar distintas mutaciones en el conjunto de datos, buscando así encontrar el grupo de datos más fuerte o más adecuando para las condiciones establecidas, por lo que todos los ejercicios que se realizaron con anterioridad con la caja de herramientas de optimización de Matlab, fueron trasladados hacia los algoritmos genéticos, logrando obtener los mismos resultados, corroborando su eficacia. Posteriormente, se tomó un caso de estudio en el que se buscaba optimizar el despacho económico considerando límites de generación, pero sin considerar las pérdidas, buscando minimizar el costo total. Esto siguiendo el planteamiento de la función objetivo que indica que para obtener el costo mínimo se requiere el análisis de la sumatoria del producto de cada una de las potencias por el costo económico que ocasiona  el generador para obtener esa potencia. Sujeto a la restricción de balance de potencias que habla de que la potengia demandada debe ser igual a la sumatoria decada una de las potencias generadas. El problema considera una demanda total de 850MW, así como tres sistemas de generación con diferentes potencias límites, y distintas ecuaciones de costo, las cuales se presentan a continuación. Unidad  Pmin(MW)  Pmax(MW)  Función de costos 1              150              600        C1(P1)=561.0+7.92P1+0.0015P12 2              100              400        C2(P2)=310.0+7.85P2+0.0019P22 3               50               200        C3(P3)=78.0+7.97P3+0.0048P32 En este caso se utilizó la técnica de optimización por medio de algoritmos genéticos, por lo que, una vez vaciados los datos en el programa, los resultados fueron los siguientes: X1 =393.9642 X2 =333.2202 X3 = 122.8325 Los cuales indican la distribución de generación para lograr la satisfacción de la demanda objetivo planteada en un principio. Mostrando un costo total de generación de: Ct=8.19e3


CONCLUSIONES

Al finalizar esta estancia virtual me doy cuenta de que se cumplió con el objetivo de conocer las técnicas de optimización, ya que era un tema desconocido para mí, estas técnicas muestran una gran variedad de opciones a resolver un problema, puesto que tiene una gran cantidad de áreas de aplicación, no sólo en los sistemas eléctricos, sino en general el área de ingeniería, así como áreas que evalúen distintos aspectos como contar con una variedad de distintos componentes que tienen distintos límites, en donde estos detalles influyen en la toma de decisiones.  
Corona Cruz Froylan, Universidad Politécnica de Tecámac
Asesor: Mtra. Refugio Antonio Bernal, Universidad Politécnica de Tecámac

DISEÑO DE SECTORES ECONÓMICOS PARA EL SISTEMA DE ESTANCIAS Y ESTADÍAS CON APLICACIÓN DE .NET Y SQL SERVER


DISEÑO DE SECTORES ECONÓMICOS PARA EL SISTEMA DE ESTANCIAS Y ESTADÍAS CON APLICACIÓN DE .NET Y SQL SERVER

Corona Cruz Froylan, Universidad Politécnica de Tecámac. Asesor: Mtra. Refugio Antonio Bernal, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Identificar de los Sectores económicos y empresas en los municipios del Estado de México, principalmente de Tecámac y municipios cercanos, tomando los datos del INEGI.  A partir de estas empresas y sectores se diseñará una base de datos que se usará para los proyectos de Estancias y Estadías en el sistema de la Universidad Politécnica de Tecámac. Actualmente en los proyectos de las Estancias no se consideran los sectores, es por eso que en este proyecto se realizará el diseño de la Base de Datos que nos permitirán agregarlos en el sistema.



METODOLOGÍA

La presente investigación muestra el proceso de registro de sectores económicos para el diseño de una base de datos que se usará en el módulo de Estancias y Estadías en el sistema de la Universidad Politécnica de Tecámac. Se realizó la investigación de conceptos como territorialidad, sectores económicos y sectores vulnerables. A partir del mapa del Estado de México, se identificaron los municipios más cercanos al municipio de Tecámac como Municipio de Apaxco, Municipio de Atenco, Municipio de Acolman, Municipio de Atizapán de Zaragoza, Municipio de Chiconcuac, Municipio de Chiautla, Municipio de Cuautitlán Izcalli, Municipio de Coyotepec, Municipio de Coacalco de Berriozábal, Municipio de Ecatepec de Morelos, Municipio de Huehuetoca, Municipio de Jaltenco, Municipio de Melchor Ocampo, Municipio de Nicolas Romero, Municipio de Naucalpan de Juárez, Municipio de San Martin de las pirámides, Municipio de Tecámac, Municipio de Tizayuca Hidalgo, Municipio de Tepotzotlán, Municipio de Teoloyucan, Municipio de Teotihuacan, Municipio de Tezoyuca, Municipio de Texcoco,Municipio de Temascalapa, Municipio de Zumpango, se realizó la revisión de los sectores económicos en el INEGI, se investigaron los sectores económicos principal mente del municipio de Tecámac, se elaboró una matriz de los sectores por municipio, se seleccionaron los sectores más vulnerables y se encontró que existen sectores de la sociedad, que debido a determinadas condiciones o características son más vulnerables y que sus derechos humanos sean violados. Los temas relacionados con estos grupos vulnerables en los sectores de trabajo son: Personas Migrantes, Personas con alguna discapacidad, Mujeres embarazadas, Adultos mayores y Niños menores de edad, entre otros. Realizando la investigación se encontraron tres sectores, en el sector primario donde se encuentran las actividades referentes a la transformación de los recursos naturales, el segundo sector es la transformación de la materia prima que son productos de consumo y el sector terciario ofrece servicios a personas, en éste ultimo sector se encuentra Tecámac. Se analizaron los datos y se creó un diccionario de datos, se diseñó y elaboró una base de datos con siete tablas como la de c_empresas que contiene los nombres de las empresas, la tabla SectorSubsector de los sectores y subsectores como 11 agricultura, ganadería, aprovechamiento forestal, pesca y caza, 21 minería, 22 electricidad, agua y suministro de gas por ductos al consumidor final, 23 construcción, 31 industrias manufactureras, 43 comercio al por mayor, 46 comercio al por menor, 48 transportes, correos y almacenamientos, 51 información en medios masivos, 52 servicios financieros y de seguros, 53 servicios inmobiliarios y de alquiler de bienes muebles e intangibles, 54 servicios profesionales, científicos y técnicos, 55 dirección de corporativos y empresas, 56 servicios de apoyo a los negocios y manejo de desechos y servicios de remediación, 61 servicios educativos, 62 servicios de salud y de asistencia, 71 servicios de esparcimiento culturales y deportivos, y otros servicios recreativos, 72 servicios de alojamiento temporal y de preparación de alimentos y bebidas, 81 otros servicios excepto actividades de gobierno, 93 actividades del Gobierno y de organismos internacionales y territoriales, 99 no especificado, tabla c_sector que contiene todos los sectores también contiene la tabla movimientos que enlaza a la tabla cSector con tiene el estatus de cada municipio, como a la tabla cEndidad con tiene todas las entidades de los municipios, también está la tabla cveMunicipio con tiene las claves de cada municipio que se encuentra registrado.  Se elaboró el sistema que cuenta con la captura de cada catálogo y tabla de la Base de Datos donde tenemos los Municipios, Entidades, claves, sectores, subsectores y empresas entre otros.


CONCLUSIONES

Al realizar el análisis de los Sectores Económicos de Tecámac y sus alrededores encontramos que se cuenta con escasa información de los sectores vulnerables ya que sólo se encontraron del Comercio al por mayoreo, de la Construcción, de Electricidad, agua y suministro de gas por ductos al consumidor final y de la Minería. Se diseñó la base de datos analizando todos los datos obtenidos en la investigación. Se elaboró el sistema con los datos analizados, que se tendrán que implementar en la Base de Datos para Estancias y Estadías de la Universidad Politécnica de Tecámac. Para contribuir al crecimiento de nuestro Municipio de Tecámac y sus alrededores es necesario considerar los sectores económicos reales en los proyectos de Estancias y Estadías de la UPT e impulsarlos a través de proyectos de los estudiantes.    
Corona Díaz Iris Alejandra, Instituto Politécnico Nacional
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

OBJETIVO 11 DE CIUDADES Y COMUNIDADES SOSTENIBLES PARA EL DESARROLLO SUSTENTABLE 2030 EN LA PLANEACIóN DE DESARROLLO MUNICIPAL: TAMPICO, TAMAULIPAS, MéXICO


OBJETIVO 11 DE CIUDADES Y COMUNIDADES SOSTENIBLES PARA EL DESARROLLO SUSTENTABLE 2030 EN LA PLANEACIóN DE DESARROLLO MUNICIPAL: TAMPICO, TAMAULIPAS, MéXICO

Corona Díaz Iris Alejandra, Instituto Politécnico Nacional. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Desde hace varias décadas han sido evidentes las afecciones que el desmesurado crecimiento poblacional ha traído consigo. La falta de una correcta planificación urbana ha generado estragos en los ámbitos social, económico y ambiental de las ciudades, por tal motivo, es necesario generar un enfoque de crecimiento urbano aplicando políticas e instrumentos de acción cuyas estrategias fomenten un desarrollo urbano sustentable, sustentado en la Prevención de la Contaminación al medio natural y social. 



METODOLOGÍA

La presente investigación tiene como Objetivo General: diagnosticar la sustentabilidad urbana en la ciudad de Tampico, Tamaulipas, por medio del acopio, lectura y análisis de información oficial, realizando una reflexión crítica- comparativa del Plan Municipal de Desarrollo (PMD) y el Plan Estatal de Desarrollo (PED), su alineación al objetivo número 11 de Ciudades y Comunidades Sostenibles, de los 17 Objetivos del Desarrollo Sustentable 2030, (ODS -2030). 


CONCLUSIONES

El diagnóstico evidencia el compromiso enunciado en el PMD de Tampico, Administración (2018 -2021) y del PED de Tamaulipas, Administración (2016 - 2022), en cumplir con las metas del ODS No.11, se percibe la vinculación y alineación con otros ODS - 2030 a través de Acciones y Estrategias. Conclusiones, en esta primera fase del diagnóstico y acorde a los tiempos de las administraciones, es correcto enfoque de los planes de desarrollo, municipal y estatal en su alineación y compromiso con el desarrollo sostenible; sin embargo, se hace relevante en una segunda fase proseguir la evaluación a mediano y largo de los objetivos trazados; cualificar su impacto en el medio natural y social, a finde detectar áreas de oportunidad para adecuación y continuidad de estos.
Coronado Torres Silverio, Universidad de Guadalajara
Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima

PLATAFORMAS PARA LA OFERTA DE SERVICIOS ONLINE


PLATAFORMAS PARA LA OFERTA DE SERVICIOS ONLINE

Coronado Torres Silverio, Universidad de Guadalajara. Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

La revolución que hemos estado viendo en los últimos años, en el área de la compraventa de productos, ha sido sorprendente, pues rápidamente, muchas de las empresas optaron por vender sus productos mediante plataformas online. Por otro lado, las empresas que venden servicios, a pesar de intentar adaptarse al nuevo modelo online, no lo han logrado en la misma magnitud, que las que solo venden productos. El problema radica en la falta de un modelo de negocio eficaz para la oferta de servicios online. Dentro de los principales problemas que podemos identificar en la venta de servicios online se encuentran los siguientes: Escases de plataformas disponibles que vendan servicios. Falta de un modelo de negocio eficaz. Desconfianza por parte de los clientes para adquirir servicios online. Problemas de comunicación con clientes. Aprovechando los recursos disponibles podemos adaptar este método de valuación a un modelo de negocio y crear una plataforma eficaz para vender nuestros servicios.



METODOLOGÍA

Esta investigación se realizó mediante la consulta de la literatura existente, buscando artículos científicos, relacionados al área del comercio, tecnología, páginas web, servicios inmobiliarios, metodología para valuación inmobiliaria, etc. La información recopilada se plasmó en un documento de texto.    


CONCLUSIONES

La digitalización nos ha llevado a tomar cambios en la manera en la que realizamos actividades en la vida diaria; el e-commerce, nos ha abierto muchas puertas, dando beneficios que no hubiéramos imaginado hace un par de décadas, aún así presentamos deficiencias en algunos casos actualmente, como lo es la oferta online de servicios. Sin embargo, hay mucho potencial de donde podemos guiarnos para encontrar un modelo factible a este problema.
Correa Hernández Enrique Allfadir, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION


MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION

Correa Hernández Enrique Allfadir, Instituto Tecnológico Superior de Ciudad Hidalgo. Cuarenta Castañeda Juan Jose, Instituto Politécnico Nacional. Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Simbron Mckay Valentin Augusto, Universidad de Guadalajara. Varelo Silgado Andrés, Universidad de Pamplona. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

1. Planteamiento del Problema Litiasis urinaria -formación de piedras renales- se ha tenido un aumento constante de la incidencia en muchos países desarrollados: Alrededor de 10% de la población en estas ciudades sufren al menos una vez en su vida las piedras renales y en las investigaciones han demostrado que la tasa de recurrencia es del 40% en 5 años . Esto representa un problema mayor para los sistemas nacionales de salud y por tanto se ha presentado un gran interés por el estudio o la identificación de las causas raíz de la formación de piedras en orden de mitigar la alta recurrencia de la enfermedad. Además, que la presencia de piedras urinarias específicas es un fuerte indicador para ciertos disturbios metabólicos que el paciente puede sufrir. Por tanto, el obtener una correcta identificación puede servir como un mecanismo pronóstico para evitar recaídas y utilizar tratamientos personalizados.Sin embargo, las prácticas médicas y clínicas actuales se basan en la experiencia de los clínicos y técnicos que utilizan métodos y procedimientos que conlleva a un diagnóstico tardado y que son altamente subjetivos o requieren un entrenamiento intensivo para realizar una correcta clasificación de los cálculos urinarios. El primer factor es especialmente gravoso, como las piedras renales tienen que ser removidas del paciente y posteriormente analizadas en el laboratorio, este proceso regularmente necesita el pulverizar la piedra, lo cual implica una importante pérdida de información para una correcta valoración de las dolencias del paciente.  



METODOLOGÍA

2. Método propuesto 2.1 Dataset El dataset utilizado fue creado a partir de 125 piedras renales adquiridas en prácticas in vivo y nombradas por el urólogo Dr. Vincent Estrade del Centre Hospitaliere de Bordeaux en Francia, en colaboración con el Centre de Recherche en Automatique de Nancy (CRAN) también en Francia. El acceso a este dataset fue a través de la colaboración del Dr. Gilberto Ochoa Ruiz con el CRAN.  Este dataset incluye 79 imágenes de superficie de las piedras, 46 imágenes de secciones transversales de las tres clases de piedras renales que tienen más incidencia en las poblaciones observadas. (Whewellite, Weddellite y ácido úrico) capturadas durante ureterorenoscopias reales. Se utilizaron los ureteroscopios URF-V para capturar estas imágenes. La superficie y las imágenes que fueron utilizadas están separadas en 2 sub-datasets durante la clasificación de entrenamiento y testeo. Son imágenes de 200 x200 pixeles que fueron recortadas de las fotografías originales para incrementar el número de las imágenes en los sub-datasets, Los parches solo contienen información de las piedras renales desde el fondo y esto no es visible en las imágenes recortadas 2.2 Textura: el software scikit-learn fue utilizado rotación y escala de patrones binarios locales invariantes de imágenes convertidas a escala de grises, los LBP fueron almacenados en un histograma 10-bin correspondiente a la primera parte del vector descriptor   2.3 Color: el espacio de color HSV(Hue-Tono, Saturation-Saturación, Value-Valor) fue usado para extraer información de color. ya que este es más cercano al ojo humano para percibir los colores. Este espacio es seleccionado porque el tono o color está en un solo canal mientras el brillo del color está separado.             2.4 Escalado de datos Los datos fueron escalados para una mejor operación de los métodos, aplicando la siguiente fórmula z=(x-promedio_datos)/(desvición_estandar_datos) z = datos escalados x= datos no escalados   2.5 Materiales y métodos Previo a la fase de clasificación, un dataset fue construido con características de color y textura fueron extraídas de las imágenes. Siete clasificadores supervisados fueron implementados y comparados para realizar la clasificación: Random Forest ensemble, XGBoost, MLP, Bagging, AdaBoost, SVM, Naive Bayes. 2.6 Separación de datos de entrenamiento y evaluación  Para separar los datos de entrenamiento y evaluación fueron tomados de acuerdo a la cantidad de muestras, es decir, teniendo en cuenta el subtotal de cada piedra Whewellite, Weddellite y ácido úrico.


CONCLUSIONES

3.  Diseño experimental:  Section Method/ Metric          Precisión       Recall         F1      Support Naive Bayes                  69%           71%          62%       158 SVM                             83%           86%          84%       158 AdaBoost                      83%           86%         83%        158 Bagging                         76%           76%        75%         157 MLP                              86%           91%        87%         158 XGBoost                        84%           88%        84%         158 Random Forest             87%            87%        86%         157   Surface Method/ Metric       Precisión       Recall      F1     Support Naive Bayes              48%             40%       36%       138 SVM                          76%             51%        50%       138 AdaBoost                  70%              48%        45%      138 Bagging                     77%              75%        75%      137 MLP                           80%                64%        63%      138 XGBoost                  79%                59%          56%     138 Random Forest      83%                 82%          83%    137     Method/ Av. Precision     Section     Surface      Student Naive Bayes                      62.65%       40.57%   Cuarenta Castañeda Juan Jose SVM                                   85.77%        59.42%   Dario Martinez Julio Joel AdaBoost                           84.81%         55.79%   Simbron Mckay Valentin Augusto Bagging                             75%               76%        Correa Hernández Enrique Allfadir MLP                                  88.60%            71.01%   Varelo Silgado Andrés XGBoost                           85.44%             68.11%   Franco Mora Marco Julio Random Forest                 87%                  82%     de la Lima López Julio Cesar     Conclusiones Con respecto a los modelos de clasificación usados en este proyecto, además de características de textura y color pueden ser exploradas en trabajos futuros buscando mejores resultados de clasificación.  Fue posible realizar pruebas con distintos métodos de clasificación de machine learning, realizando posteriormente una exhaustiva evaluación de los mismos, midiendo los valores promedio de precisión, recall, f1 y el support, donde es posible ratificar que Random Forest fue quien obtuvo un mejor rendimiento con respecto a los demás modelos. De igual forma se piensa que tuneando  los métodos es posible obtener resultados similares o incluso superiores a Random Forest como en el caso del sub-dataset de section donde el perceptrón multicapa arrojó el porcentaje de precisión más alto siendo 88.60%  .    
Correa Rojas Vianey Ernestina, Universidad Politécnica de Sinaloa
Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

LA CAPACITACIóN COMO ELEMENTO CLAVE DE LA IMPLEMENTACIóN Y EL SOSTENIMIENTO A LP DE LA METODOLOGíA 6 SIGMA


LA CAPACITACIóN COMO ELEMENTO CLAVE DE LA IMPLEMENTACIóN Y EL SOSTENIMIENTO A LP DE LA METODOLOGíA 6 SIGMA

Correa Rojas Vianey Ernestina, Universidad Politécnica de Sinaloa. Salazar Aguilar Karina, Tecnológico de Estudios Superiores de Valle de Bravo. Sánchez Osuna Dania Lorena, Universidad Politécnica de Sinaloa. Vanegas Ramírez Eva María, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La presente investigación se centró en conocer las buenas prácticas documentadas de la implementación de seis sigma en los sectores de industrial y de servicio, desde el punto de vista Nacional e Internacional, asimismo diseñar un instrumento que permita concentrar el uso de herramientas de la metodología en sus etapas y analizar la línea base inicial y el alcance de la misma al implementar la metodología seis sigma, todo ello en un muestreo de empresas. Por lo que, el problema que se abordó en la investigación fue atender la falta de instrumentos de dominio público para implementar la metodología 6 sigma en las empresas, de manera sencilla y práctica.



METODOLOGÍA

La metodología es de tipo cualitativa, ya que la intención fue conocer la difusión de la metodología seis sigma como estrategia competitiva de las empresas, contiene una revisión de 50 marcos teóricos de artículos científicos las buenas prácticas de calidad seis sigma documentadas a nivel nacional e internacional. Asimismo, investigar sobre el papel de la capacitación como estrategia clave en la implementación y sostenimiento a Largo Plazo de seis sigma. Posteriormente revisar un instrumento previo de análisis de la metodología seis sigma, para proponer un rediseño más funcional.


CONCLUSIONES

Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de la metodología seis sigma a nivel nacional e internacional. Asimismo, un instrumento rediseñado para analizar la implementación de la metodología y el desarrollo de las herramientas. Finalmente se obtuvo un borrador de un artículo de divulgación sobre el papel de la capacitación como estrategia clave en la implementación y sostenimiento a largo plazo de seis sigma.
Correa Sáenz Carlos Ulises, Instituto Tecnológico de Morelia
Asesor: Dra. Alien Blanco Flores, Tecnológico de Estudios Superiores de Tianguistenco

DEPOSICIóN DE NANOPARTíCULAS DE CDS Y AG2S PARA SU USO COMO ACTIVADORES DE LA ESFALERITA


DEPOSICIóN DE NANOPARTíCULAS DE CDS Y AG2S PARA SU USO COMO ACTIVADORES DE LA ESFALERITA

Correa Sáenz Carlos Ulises, Instituto Tecnológico de Morelia. Asesor: Dra. Alien Blanco Flores, Tecnológico de Estudios Superiores de Tianguistenco



PLANTEAMIENTO DEL PROBLEMA

El proyecto busca desarrollar un nuevo método de activación de esfalerita (ZnS), mediante el uso de la nanotecnología para la recuperación de mayor contenido de zinc a través del proceso de flotación. Se espera que la cantidad del metal que se recupere sea superior al que actualmente se obtiene mediante el proceso de activación convencional. Con la intención de lograr una adsorción más selectiva donde no estén involucradas las impurezas de los otros metales presentes en el mineral. En esta primera etapa se realizó de manera teórica en donde se abordaron temas de síntesis y deposición de nanopartículas de sulfuros metálicos en superficies de materiales. Con el fin de establecer las condiciones experimentales del proceso y ponerlo en práctica posteriormente.



METODOLOGÍA

En la semana 1 y 2 se realizó la introducción al proyecto, mediante una presentación de la asesora además acordar los horarios de las sesiones de trabajo y la forma en que se llevaría a cabo el desarrollo de los temas. En la semana 3, se desarrolló el tema de síntesis de nanopartículas, mediante artículos científicos se hizo una búsqueda de métodos de síntesis de nanopartículas para CdS y Ag2S, se hizo una presentación y después una retroalimentación por parte de la asesora, se compararon los métodos y se concluyó que el método de precipitación tenia ventajas para realizarse a escala industrial. Además, se hizo una tabla comparativa con los métodos de síntesis para ver los resultados de una manera más clara. En la semana 4, se desarrolló el tema de caracterización de nanopartículas de CdS y Ag2S, se hizo la búsqueda en la literatura y se realizó una presentación. Una vez expuestos los métodos de caracterización se compararon con el fin de buscar el método que tuviera factibilidad y viabilidad para el proyecto. La técnica elegida fue UV-Visible, ya que cumplía con los requisitos necesarios, además de ser el de costo más bajo. Finalmente se hizo una tabla comparativa con las técnicas de caracterización analizadas. En la semana 5, se desarrolló el tema de deposición de nanopartículas, el procedimiento fue el mismo que los anteriores, se propusieron una serie de métodos y se eligió el más fácil y menos costoso de realizar, la deposición hidroquímica fue el método que cumplía con los objetivos. En la semana 6 y 7, se desarrolló el tema de colectores por parte de la asesora y se realizaron las conclusiones finales del proyecto.


CONCLUSIONES

La información obtenida nos sirvió de hipótesis y nos brinda las bases para poder llevar a cabo la experimentación en la práctica de laboratorio, además, se alcanzó la comprensión y el desarrollo de los temas que fueron abordados durante la estancia de investigación esta información nos servirá en la práctica. 
Cortes Arellano Francisco Daniel, Universidad Mexiquense del Bicentenario
Asesor: Dra. Edith Osorio de la Rosa, Universidad de Quintana Roo

DISEñO DE GENERADOR HIDRáULICO ALIMENTADO MEDIANTE ENERGíA RENOVABLE


DISEñO DE GENERADOR HIDRáULICO ALIMENTADO MEDIANTE ENERGíA RENOVABLE

Cortes Arellano Francisco Daniel, Universidad Mexiquense del Bicentenario. Asesor: Dra. Edith Osorio de la Rosa, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

Se tiende a realizar un generador hidráulico a partir de la humedad que contiene el aire partiendo de la teoría del ciclo de refrigeración hasta las máquinas de condensación y su funcionamiento para aplicarlo al generador hidráulico



METODOLOGÍA

Capítulo 1 Componentes del generador hidráulico y ciclo de refrigeración.             El funcionamiento de un ciclo de refrigeración nos ayuda a eliminar o mantener la temperatura, con respecto a la temperatura del ambiente o bien de su alrededor. ​ Se realizó un análisis de cada una de las piezas para la realización del ciclo de refrigeración y cuales se podrían utilizar para el generador hidráulico además se hizo una cotización de cada una de ellas.  Capítulo 2 Diseño de ciclo de compresión mecánica simple para obtención de agua. Se realizo un análisis de la temperatura del Estado de México especialmente de Ecatepec, para poder tener un promedio de la humedad del aire y a su vez ver el rendimiento que tendría el generador hidráulico. Al igual checamos que maquinas condensadoras hay en el mercado y su funcionamiento, investigamos desde su historia hasta su funcionamiento y su sistema de condensación. Checamos las propiedades térmicas de los refrigerantes. Capítulo 3 Sistema renovable a utilizar en el generador de acuerdo a la región de aplicación. Se realizo una investigación de los paneles solares ya que se quiere alimentar de energía al generador hidráulico con un panel solar. Capítulo 4 Análisis de costos para el Sistema de generador hidráulico. El propósito de hacer este análisis de costos para el generador hidráulico es para saber qué tan rentable es y si este puede reducir sus costos. Analizaremos cada material a utilizar y lo compararemos con calidad y precio y se elegirá el que del mejor rendimiento para el generador hidráulico así mismo al final veremos el costo total de la realización de este y si es viable hacerlo. Analizaremos los costos de cada material a utilizar y los compararemos en costo con varios proveedores. Además, aprovechamos para definir el tipo de almacén que utilizaríamos para el diseño del generador hidráulico y la función logística y su distribución, se realizó un diseño de almacén y una cotización general con los materiales a utilizar siempre comparando calidad y precio.


CONCLUSIONES

Conclusión. Esta investigación vimos desde la teoría empezando desde cómo funciona el ciclo de refrigeración hasta como aplicarlo al generador hidráulico viendo la función de cada pieza que utiliza un refrigerador como el evaporador, condensador y el compresor. Partiendo de la teoría del ciclo de refrigeración realizamos cotizaciones de cada material que nos podría ayudar a realizar el generador hidráulico. La funcionalidad del generador es que a través del aire y su humedad que tenga que en diferentes partes del país cambia ya que el tiempo climático cambia constantemente, pero en promedio se tiene que para el estado de México especialmente en el municipio de Ecatepec cuenta con una humedad del aire de un 60 a 80%. Es entonces que el generador tiene el objetivo de extraer ese aire y condensarlo esto gracias a un ciclo parecido al del refrigerador es por eso su importancia de saber su teoría y así obtener agua potable, otro punto a considerar es que su funcionamiento es por energía solar para contaminar menos. Se analizaron maquinas condensadores que existen en el mercado, hay una maquina llamada des humificador y su función es extraer la humedad de interiores para evitar enfermedades como el asma o alergias. A demás se hizo un análisis del clima del Estado de México para medir la temperatura promedio y la humedad. Para medir la humedad especifica es necesario un aparato llamado higrómetro.  
Cortes Pinacho Yvette Paola, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

CONCRETO RECICLADO EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL EN NAYARIT


CONCRETO RECICLADO EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL EN NAYARIT

Cortes Pinacho Yvette Paola, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto es el segundo material más utilizado en el mundo, ya que es el más demandado en la industria de la construcción , pero es considerado un material altamente  contaminante, no sólo por su proceso de elaboración, sino también por los residuos que se generan cuando los edificaciones son demolidas o colapsan y  van a parar a basureros, en muchos casos clandestinos, o lugares baldíos, afectando la imagen urbana y la salud pública.   Alrededor del mundo ya se está aplicando el concreto reciclado como una alternativa para solucionar el problema de gestión de residuos y solventar la demanda de materia prima para elaboración de concreto. La mayoría de estos países son europeos y Estados Unidos de América. Sin embargo, después de diversas investigaciones, México no parece estar preparado para la implementación de concretos reciclados en sus obras.  La presente investigación busca conocer el estado del arte y la postura con respecto al tema de concretos reciclado en la región occidente de México, de manera particular la situación en Tepic, Nayarit.  



METODOLOGÍA

Para realizar esta investigación de tipo descriptivo que busca conocer el estado del concreto reciclado en cuanto la situación de los bancos de materiales, estudios que se han realizado, legislaciones acerca del RCD o CR, gestiones de RCD, conocimientos y aprobación de este material en el estado de Nayarit, especialmente en la ciudad de Tepic, se llevó a cabo el siguiente procedimiento.  En primer lugar, se eligió la zona de estudio del estado de Nayarit, en base a su población y el desarrollo de la industria de la construcción. La ciudad objeto de estudio es Tepic que cuenta con 413 608 habitantes, y en donde según el anuario estadístico y geográfico de Nayarit 2017, hasta el 15 de marzo de 2015, el 97.15% de las viviendas particulares están construidas de: tabique, ladrillo, block, piedra, cantera, cemento o concreto. Se realizó la búsqueda de literatura especializada, local, nacional, e internacional, principalmente de RCD con apoyo de una ficha con los siguientes campos: título, tipo de documento, año de publicación, enlace del documento, responsable, lugar de estudio, tipo de estudio, Uso del RCA en RAC, Tratamiento del RCA, % sustitución RCA, resultados y preguntas. Identificación de los bancos de materiales en la periferia de la ciudad de Tepic, con base en el inventario de bancos de materiales del estado de Nayarit y recopilación de datos de los bancos de agregados naturales utilizados en la construcción de obras de la zona de estudio, bajo los siguientes campos: ubicación, fecha de estudio, fecha de actualización, tipo de propietario, tipo de material, tratamiento, volumen x 1000 m3, usos probables, uso de explosivos, restricciones ecológicas, aspecto económico, distancia-centro de la población, distancia-límite de la traza urbana, croquis de localización, así como tipos de materiales que se producen y costo. Se identificaron un total de 8 bancos de materiales cercanos a la ciudad de Tepic, con una distancia promedio de 26.06 km al centro de la población y 19.71 km al límite de la mancha urbana. Solicitud de información sobre cantidad y ubicación de sitios autorizados para la disposición de los RCD, número y ubicación de centros de reciclaje de los RCD, número y ubicación de centros de acopio de los RCD a dependencias ambientales municipales y estatales. Algunas de estas solicitudes se hicieron al Secretario de Desarrollo Sustentable del Estado de Nayarit, Secretaría de infraestructura del Estado de Nayarit, y a la presidencia municipal de Tepic, de los cuales aún no se ha recibido respuesta.   Se realizó una encuesta sobre RCD a constructoras que incluye 6 secciones: datos de la empresa, generación, reutilización, reciclaje, disposición final y transportes. La encuesta fue enviada a 10 empresas constructoras de la ciudad de Tepic, con el objetivo de conocer las prácticas que se implementan en la gestión de RCD en las diferentes obras civiles del lugar.  Se realizó una encuesta de concretos reciclados al público en general, con la finalidad de conocer su opinión y conocimiento acerca de concretos reciclados en obras civiles en México, la cual fue completamente en línea.  Al terminar el proceso de recopilación de información, se analizarán los resultados, y se propondrán estrategias para el adecuado aprovechamiento de los RCD.  


CONCLUSIONES

De manera general, a nivel internacional se encontraron varias investigaciones que arrojan que el concreto reciclado es una buena alternativa de construcción para la conservación del medio ambiente. Sin embargo, en México es difícil encontrar artículos, o investigaciones acerca de la implementación de concretos reciclados en obras civiles. Con respecto a la aplicación de la encuesta a empresas constructoras de la ciudad de Tepic, no se ha tenido respuesta hasta el momento; mientras estuvo en proceso esta actividad se contactó a varias empresas vía telefónica, las cuales coincidieron en que en los últimos años ha disminuido considerablemente la industria de la construcción en este lugar. Por otro lado,  la encuesta aplicada al público en general, arroja que el 1% de los encuestados tiene residencia en Nayarit, de los cuales el 75% no tiene relación con la construcción y desconoce lo que es el concreto reciclado. Los que sí tienen conocimiento sobre el tema de concretos reciclados consideran que debería implementarse en obras de edificación residencial y que deberían existir bonos para los constructores que utilicen materiales reciclados en sus obras, estos resultados son a 6 días de la publicación de la encuesta.
Corzo Diaz Andrea Carolina, Fundación Universitaria del Área Andina
Asesor: Dra. Juana Alvarado Ibarra, Universidad de Sonora

BENEFICIOS DE LA CLINOPTILOLITA COLOMBIANA EN LA GERMINACIÓN DE MAIZ EN SUELO ARCILLOSOS.


BENEFICIOS DE LA CLINOPTILOLITA COLOMBIANA EN LA GERMINACIÓN DE MAIZ EN SUELO ARCILLOSOS.

Corzo Diaz Andrea Carolina, Fundación Universitaria del Área Andina. Asesor: Dra. Juana Alvarado Ibarra, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Considerando que el departamento del Cesar es uno de los que más aporta a la economía del país en cuento a los procesos extractivos que allí se realizan por medio de la gran minería a cielo abierto que se lleva a cabo en los diferentes municipios mineros del mismo; según los reportes de la Agencia Nacional de Minería (ANM) para el año 2019, el Cesar produjo en este primer trimestre del año un total de 13.363.415 toneladas de carbón, el 64% de la producción nacional, (ANM, 2019). Lo que indica que la minería de carbón a cielo abierto y a gran escala ha creado un escenario de convergencia entre la generación diaria de impactos sinérgicos y acumulativos sobre los recursos que sostienen la vida (degradación ambiental) transformando profundamente el entorno natural, según González, X., & Melo, D. (2015) en su publicación realizada Historizar el lugar para resistir el desplazamiento por minería de carbón: una aproximación teórica al caso de la comunidad de Boquerón en el Cesar mencionan que el extractivismo en el Cesar, especialmente en la minería de carbón a cielo abierto y a gran escala ha generado limitaciones debido al proceso progresivo de privatización y empresarizacion  de la tierra, el cual ha restringido el ejercicio de la pesca, la agricultura, la cacería y la recolección y debido a estas misma magnitudes de extracción se ha generado una reducción significativa de la fertilidad y la capacidad productiva y regenerativa de las capas superficiales del suelo, por lo que han sufrido fenómenos de erosión, deforestación, acidez excesiva e incluso desertificación, los cuales han disminuido la posibilidad de la actividad agrícola. Una de las situaciones por lo que se debe considerar que las modificaciones y los cambios que la exploración y explotaciones mineras le causa a este paisaje y a la cobertura del suelo de esa parte de la zona del Cesar, el suelo y la vegetación son removidos de las áreas de minado, causando efectos directos como la pérdida de tierras cultivables y efectos indirectos como el aumento de la erosión, (L., Muegue, D., César, J., González, A., Mesa, P. C. 2013).



METODOLOGÍA

Este proyecto se inició con la obtención de materiales: zeolita, fertilizante y semillas de maíz, los cuales se obtuvieron de forma comercial. El suelo por su parte se tomó a nivel doméstico dadas las condiciones de pandemia (Covid 19), este se clasificó por pruebas de sedimentación, luego se caracterizó mediante el triángulo textural, previo a esto, se pasó por tamiz de 3 mm de donde se obtuvieron 4.95 kg, ya que se retuvo en el tamiz 2.655 kg. Una vez la muestra cumpla con su proceso de secado y tamizado, se pesa con el fin de determinar el porcentaje de humedad que contenía en su estado natural. Así mismo se hizo el debido proceso a la zeolita (clinoptilolita) la cual se obtuvo por una empresa colombiana llamada ZEOCOL®, esta clinoptilolita fue sometida a una prueba de humedad la cual consistió en tomar 170gr del material secarlo a intemperie durante 12 horas en condiciones climáticas favorables con temperaturas aproximadas en un rango de 27 °C a 32 °C, para luego del secado pesarla nuevamente y determinar el porcentaje de humedad presente. Antes de realizar el proceso de germinación en suelo, se realizó una prueba de viabilidad seleccionando treinta semillas en la cual se tuvo en cuenta que las semillas tuvieran buena apariencia, que no presentara quiebres o deformaciones ya que de esta forma se garantizaba que las semillas que se pudieran escoger estuvieran de mejor calidad; estas se cubrieron con papel absorbente, dejándolas en vasos de germinación y aplicándole agua hasta que el papel estuviera completamente humedecido. El test de viabilidad tuvo una duración de 5 días, con un riego de 4ml de agua, cada 6 horas, de esta manera se hizo control sobre la cantidad de agua suministrada a cada semilla evitando encharcamiento y desarrollo de hongos y enfermedades teniendo efectos negativos durante el test. Finalmente, se hizo una preparación del suelo, en donde las mezclas fueron determinadas en el siguiente orden de materiales, (Suelo-Ciclo-Fertilizante), de la cual se definieron distintos tipos de combinaciones con el fin de identificar si la presencia de la zeolita generaba cambios en el suelo, los cuales influyan directamente en la germinación de las semillas del maíz durante el ensayo. La fertilidad del suelo se evaluó con los cambios visibles en los diez experimentos.


CONCLUSIONES

La clinoptilolita colombiana mejoró las propiedades del suelo en cuanto a la textura, la permeabilidad y la compactación del suelo, favoreciendo de manera significativa el comportamiento del mismo. sin embargo cabe resaltar que el proceso de adecuación del suelo es importante ya que se puede observar que los experimentos con más cambios distintivos son los ensayos F, G y J; a tal punto que se observó que las semillas presentes en estos ensayos tuvieron un desarrollo más avanzado en comparación con el resto del test, debido a la uniformidad, a la humedad y la oxigenación adecuada para cada una de ellas, ya que en las que presentaban bajos porcentajes de zeolita y fertilizante la semilla no respondió de la misma manera presentando bajo desarrollo en su proceso de germinación sin mostrar cambios en su comportamiento, por lo anterior se concluye que es posible reducir el tiempo de germinación de maíz al usar estas combinaciones de zeolita y fertilizante en suelos arcillosos. Por otro lado, cabe resaltar que estos resultados resultan bastante alentadores en materia del ODS 15, ya que haciendo uso de esta técnica es posible contrarrestar los impactos a los ecosistemas permitiendo readecuar o en su defecto rehabilitar los suelos que han presentado procesos de degradación afectando directamente la estabilidad del ecosistema.
Cruz Calvillo Brandon Alain, Instituto Tecnológico de Reynosa
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE ACTIVIDAD SíSMICA EN LA REPúBLICA MEXICANA


APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE ACTIVIDAD SíSMICA EN LA REPúBLICA MEXICANA

Alcaraz Rivera Francisco, Universidad Autónoma de Baja California. Álvarez Gutiérrez Aldo Aarón, Universidad de Guadalajara. Cruz Calvillo Brandon Alain, Instituto Tecnológico de Reynosa. Núñez López Lilian Carolina, Universidad de Guadalajara. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Los sismos son un fenómeno natural causado por movimientos bruscos producidos en la corteza terrestre los cuales pueden llegar a generar grandes desastres en la superficie de las zonas geográficas afectadas, llegando incluso a provocar muertes y daños irreversibles a la infraestructura de las ciudades. Por ello, es de suma importancia para la humanidad hacer un esfuerzo por comprender mejor estos procesos naturales e intentar idear diferentes técnicas para reducir y lidiar con las consecuencias que conllevan. Una manera eficaz de mantenerse preparados contra los terremotos es la capacidad de anticipar el evento para poder ejecutar con tiempo los protocolos de emergencia. En este proyecto de investigación, se propone implementar algoritmos de machine learning (aprendizaje automático) con el fin de analizar los registros de actividad sísmica en la República Mexicana y así intentar encontrar relaciones dentro del conjunto de datos que permitan predecir de forma certera la magnitud de un nuevo sismo. 



METODOLOGÍA

Con el fin de encontrar fuentes confiables para la obtención de registros sismológicos de la República Mexicana, se contemplaron diferentes fuentes para la obtención de los datos, de entre las cuales se buscaba aquellas que tuvieran el formato y cantidad de eventos suficientes para realizar su análisis. Dichos datos fueron recolectados del Servicio Sismológico Nacional de México, dependencia del Instituto de Geofísica de la Universidad Nacional Autónoma de México, el cual se encarga de monitorear y almacenar los registros sismológicos de la nación. De este sitio se descargó un archivo en formato csv, con los eventos registrados desde el 1 de Enero del 2010 hasta el 1 de Julio del 2020. Una vez que se contaba con los datos, se procedió a preprocesarlos. El procesamiento de datos hace uso de métodos y herramientas que nos permiten arreglar errores puntuales que se dan en el conjunto de datos que estamos tratando y que afectan negativamente pudiendo interferir en el aprendizaje automático. Muchos de los errores provienen de faltantes o huecos en nuestro dataset y de información que tiene poca relación con la variable que queremos predecir. Para evitar lo anterior mencionado, se descartaron las columnas del dataset que no contenían información útil y se emplearon técnicas matemáticas para sustituir la información faltante. Finalmente, se utilizó el nuevo dataset preprocesado para entrenar y probar los algoritmos de predicción. Se experimentó con varios algoritmos de machine learning: Knn, SVM, Árbol de decisión y Árbol de decisión en regresión. Para todos los algoritmos se asignó el 80% del dataset para entrenamiento y el 20% restante para pruebas.


CONCLUSIONES

Por medio de los algoritmos empleados durante el desarrollo de este proyecto se pudo obtener un porcentaje de certeza cercano al 90%, lo cual indica que los algoritmos lograron obtener una relación dentro del dataset que les permitió predecir satisfactoriamente la magnitud de los sismos con base a la ubicación de su origen geográfico. No obstante, la predicción y la ocurrencia de los sismos se considera un fenómeno no lineal altamente aleatorio, y hasta la fecha no se conoce un modelo matemático capaz de predecir con exactitud el instante ni la ubicación en que sucederán. Lo anterior lleva a considerar la posibilidad de que las predicciones de los algoritmos podrían estar sesgadas por las particularidades del dataset empleado. Esto abre nuevas oportunidades para poner a prueba los resultados obtenidos y seguir analizando la efectividad de los algoritmos sometiendolos a distintas condiciones experimentales en investigaciones futuras.
Cruz Cortes Adriana Elizabeth, Instituto Politécnico Nacional
Asesor: M.C. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez

DISEñO DE INTERFAZ DE UN GUANTE PARA ESTUDIOS BIOMECáNICOS USANDO UN AMBIENTE DE REALIDAD VIRTUAL


DISEñO DE INTERFAZ DE UN GUANTE PARA ESTUDIOS BIOMECáNICOS USANDO UN AMBIENTE DE REALIDAD VIRTUAL

Cruz Cortes Adriana Elizabeth, Instituto Politécnico Nacional. Asesor: M.C. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Las tendinopatías más conocidas son la de Quervain, el síndrome de túnel carpiano y los esguinces osteoligamentosos.   La lesión Tenosinovitis de Quervain se genera por el uso repetitivo más frecuente en la muñeca, que implica movimientos de agarre con desviación cubital de la muñeca, lo cual produce un engrosamiento en la vaina que recubre los tendones del extensor corto y del abductor largo del pulgar, ocasionando dolor al realizar movimientos con el pulgar, muñeca y al apretar el muño o sostener objetos. Se presenta con mayor frecuencia en mujeres entre los 30 y 50 años.    El síndrome del túnel carpiano es una neuropatía (lesión de un nervio periférico) que se produce por la compresión del nervio mediano a su paso por el túnel carpiano. El STC es una lesión común de la muñeca y de la mano que puede afectar el uso de todo el brazo. Afecta al 1-3% de la población general. La compresión del nervio produce entumecimiento, dolor y a veces debilidad de la mano, así mismo parestesias alrededor de la cara ventral de la mano y dedos, deterioro sensitivo y atrofia muscular. En el 50% de los pacientes con síndrome del túnel carpiano, la lesión es bilateral. Si los síntomas no son tratados, pueden aparecer lesiones a nivel nervioso y muscular.  Para el tratamiento de estas dos tendinopatías se comparte un tratamiento fisioterapéutico y un tratamiento de rehabilitación post quirúrgico en caso de ser necesario, en ambos casos  consta de modalidades de ejercicio como son los ejercicios pasivos de estiramiento, ejercicios isométricos y ejercicios de movilización activa. 



METODOLOGÍA

Se acondicionó un diseño de una mano en SolidWorks con un motor rotatorio en la articulación metacarpofalángicas e interfalángicas proximales de los dedos índice, medio, anular y meñique, teniendo así; dos por dedo y un último para reproducir los movimientos de las articulaciones carpometacarpianas. Con un total de nueve articulaciones para emular los movimientos más representativos de la mano.  Para inicializar las pruebas de la simulación de las nueve articulaciones de la mano se exportó el diseño en un archivo .xml con el Toolbox de Simscape en Matlab, se ajustaron las coordenadas al origen en las nueve articulaciones para obtener una posición de flexión de 90° de la muñeca en dirección palmar, con los dedos extendidos hacia el eje X y la base el brazo sobre el plano de trabajo X y Z, en dirección al eje Y. Ya acondicionando el diseño del simulador de la mano que emulará los movimientos del guante, se realizaron pruebas de movimiento introduciendo direcciones prueba en las nueve articulaciones. Se desarrolló un guante, seleccionando como instrumentación principal el sensor MPU6050, Arduino Uno, un guante de tela y el software Simulink de Matlab, se diseñó la estructura del guante y se montó la instrumentación. Entonces con el guante ensamblado se realizaron las pruebas de su funcionamiento. Para esto se utilizó el bloque MPU6050 de Arduino y realizó una comunicación exterior con el Arduino desde Simulink, estima a partir de dos métodos los diferentes ángulos en tiempo real; adquiriendo los valores de aceleración y velocidad angular. Se realiza un promedio de la estimación de los ángulos para obtener una correcta calibración de los sensores evaluando los resultados con respecto a puntos de referencia. El control de la simulación de la mano virtual a partir del guante se logró al promediar ciclos de movimiento para los dedos de diez pruebas para cada uno, se ingresan los datos promediados en un archivo .mat como datos timeseries y por último se diseña una interfaz con ciclos de movimiento de 40 segundos para rehabilitación como es la extensión de palma, flexión de 90° en las articulaciones metacarpofalángicas y  puño recto, estas tres con un movimiento de flexión y extensión en la articulación de la muñeca de 0 a 130°. Con una cuarta opción de colocar una posición específica del guante virtual. 


CONCLUSIONES

En el transcurso del verano delfín se obtuvieron los conocimientos teóricos del síndrome del Túnel del Carpo y la Tenosinovitis de Quervain logrando probar el concepto de un guante virtual a partir del uso e integración de instrumentación al desarrollar un sistema viable de evaluación y apoyo en la rehabilitación de pacientes que padecen estas tendinopatías logrando el movimiento angular de nueve articulaciones en la mano. Se considera que el prototipo obtenido se debe mejorar adicionando sensores de fuerza y un módulo inalámbrico para brindar comodidad y obtener la dinámica y cinemática de la mano para lograr una emulación completa en un sistema de rehabilitación en pacientes con estas patologías.
Cruz Diaz Rafael, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

DISEÑO DE SISTEMA DE ESCAPE DE UN MOTOR DE COMBUSTIÓN INTERNA BASADO EN EL CÁLCULO DE TRANSFERENCIA DE CALOR Y ELEMENTO FINITO


DISEÑO DE SISTEMA DE ESCAPE DE UN MOTOR DE COMBUSTIÓN INTERNA BASADO EN EL CÁLCULO DE TRANSFERENCIA DE CALOR Y ELEMENTO FINITO

Cruz Diaz Rafael, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Cuando los sistemas electrónicos están colocados demasiado cerca de fuentes de calor de alta temperatura, como el colector de escape en un vehículo, puede producirse un sobrecalentamiento y por ende una falla que pueda afectar el funcionamiento requerido por parte de los sistemas electrónicos. La simulación transitoria y estacionaria de las transferencias de calor a través del método del elemento finito se ha convertido en una herramienta de suma importancia dentro del ámbito ingenieril asistiendo al usuario para determinar el comportamiento del sistema que se esté estudiando, el método del elemento finito (MEF en español o FEM en inglés) es un método numérico para la resolución de ecuaciones diferenciales, utilizado en diversos problemas de ingeniería y física por lo que a través de este método se ha de llevar a cabo un estudio térmico para determinar las temperaturas de un sistema de escape basado en trasferencia de calor a través de la tubería del mismo para reducir las temperaturas en el exterior del sistema así como reducir el gradiente de temperatura emitido hacia el exterior.



METODOLOGÍA

El trabajo propuesto consiste en estudiar los mecanismos de transferencia de calor que describen el comportamiento de un sistema y ver la relación en las derivadas Qcond y Qconv de manera combinada ya que al estudiar el modelo de sistema de escape ideal propuesto se podrá identificar los parámetros de diseño que se pueden modificar para reducir la emisión térmica que en este caso corresponden a r1, r2, r3 y r4, se tomaran en cuenta las distintas temperaturas que alcanza el gas dentro del sistema de escape a diferentes velocidades en un vehículo con volumen útil de 2.0, al simular el comportamiento en software de elemento finito basándose en los estudios térmicos correspondientes en la  tubería de pared simple y tubería de doble pared con capsula o espacio de aire como aislante térmico se deberán de tomar en cuenta los coeficientes de transferencia de calor tanto el de conducción como el de convección denominados k y h para el material respectivo asimismo se hará énfasis en que el aire al variar la temperatura este presenta un k distinto para cada incremento de temperatura en condiciones estacionarias, finalmente se llegara a interpretar los resultados obtenidos para así poder corroborar una mejora que pueda notarse en comparación al modelo estándar de un escape vehicular.


CONCLUSIONES

El presente trabajo mostró los cálculos efectuados referentes a la transferencia de calor en un sistema de escape para un motor de combustión interna, además de la validación de un diseño de simulación referente al uso del método del elemento finito para la transferencia de calor en el entorno de SolidWorks, se mostró la comparación entre dos distintos modelos de configuración en la tubería de extensión previa al catalizador de un sistema de escape, para esto se variaron las condiciones de dimensión y distribución de espacio en cuanto se refiere al estudio de dichos diseños propuestos. Como resultado de la investigación de la transferencia de calor presentada es posible concluir que existe una relación directa y lineal entre el grosor de material y la diferencia de temperatura que existe en un sistema de escape convencional, esta relación nos permite reducir la temperatura en el exterior del escape en base al coeficiente de conductividad térmica del material del que se esté tratando como en este caso con el acero AISI 304, otra conclusión que se puede rescatar en base a este estudio es que el aire sirve como un excelente aislante térmico para reducir el gradiente de temperatura al exterior de manera radial además de que al variar el espacio entre los tubos concéntricos del sistema de escape podemos notar una concentración de la energía térmica en el primer tubo concéntrico y una diferencia de temperatura muy elevada entre la temperatura de la pared interna de la tubería y la pared externa del arreglo de doble pared, por lo que bajo este estudio es mejor optar por una tubería de doble pared cuando se necesite una reducción de la temperatura  desde el interior hacia el exterior de nuestro sistema de escape sin importar demasiado el grosor del material con el que este elaborado.
Cruz Domínguez Hersain, Universidad Autónoma de Guerrero
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

GASTOS DE DISEñO DEL RíO GRANDE DE MORELIA Y AFLUENTES


GASTOS DE DISEñO DEL RíO GRANDE DE MORELIA Y AFLUENTES

Cruz Domínguez Hersain, Universidad Autónoma de Guerrero. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Al ser el agua un recurso indispensable para la supervivencia del ser humano, muchas ciudades han sido fundadas cerca de cuerpos de agua, sin embargo, fenómenos naturales como las inundaciones, ocasionan problemas que pueden afectar tanto a la integridad de quienes ahí habitan, como en las actividades económicas. Como es el caso de Morelia, Michoacán. Para la mitigación de daños ocasionados por los fenómenos naturales inundación se tienen varias opciones, entre ellas la construcción de obras hidráulicas que controlen y contengan los gastos que superan la capacidad de desalojo del cauce principal. Para el diseño de obra hidráulicas es importante determinar los gastos de diseño para diferentes periodos de retorno, que servirán para determinar su capacidad y dimensiones de la infraestructura de protección y control.



METODOLOGÍA

A partir de modelos de elevación digital, obtenidos de la página de INEGI, y utilizando un software de Sistemas de Información Geográfica (GIS), se obtuvieron las siguientes características de la zona de estudio: área, pendiente de la corriente principal, longitud de la corriente principal, tiempo de concentración, numero de escurrimiento, y coeficiente de escurrimiento. Posteriormente se seleccionaron las estaciones meteorológicas cercanas a la zona de estudio, para extraer y gestionar los datos de precipitación, esto es pruebas de consistencia, donde se evalúa su homogeneidad, independencia y tendencia, normalmente existen vacíos en los datos, por lo que fue necesario, también hacer un llenado con datos de otra estación con la que tenga un alto grado de correlación utilizando el método de regresión lineal.  Después se obtuvieron las tablas de precipitaciones máximas diarias mensuales y anuales. Utilizando las series de precipitaciones máximas anuales y el software HIDROESTA 2, se obtiene la función de distribución que mejor ajusta, siendo las funciones: normal, log normal de 2 parámetros, log normal de 3 parámetros, gamma de 2 parámetros, gamma de 3 parámetros, log Pearson tipo III, Gumbel y log Gumbel, las que se pueden evaluar con el programa. Se determina la precipitación máxima diaria probable para un periodo de retorno de 10 años. Con ese dato de entrada se calcula la ecuación IdT utilizando el criterio de Frederich Bell. Ecuación IdT útil para determinar la lluvia de diseño de la zona en estudio. Con las características geomorfológica obtenidas de la zona de estudio y la ecuación Idt se procede a la obtención de gastos máximos, se emplearon los siguientes métodos: método racional, método de Chow y el método del hidrograma unitario triangula (HUT)


CONCLUSIONES

Durante el tiempo de la estancia del verano se adquirieron conocimientos sobre hidrología superficial, lo cuales se aplicaron para la obtención de gastos máximos de la cuenca del Río Grande, para diferentes periodos de retorno. Hasta ahora se han logrado obtener los gastos máximos para 10 subcuencas de las 13 en que se divide la cuenca del Río Grande en Morelia, Michoacán. Al obtenerse las características de cada subcuenca, se obtuvieron pendientes menores a 2 %, números de escurrimiento entre 67.08 y 85.10 y parámetros K entre 0.24 y 30. Se encontró, que las estaciones que tienen influencia en las cuencas son las siguientes: 16022, 16028, 16055, 16080, 16081, 16114, 16120, 16247, 16254, 16254, 16512 y 16513. De los análisis de consistencia De los gastos obtenidos se puede identificar que la cuenca con mayor aporte a la zona de estudio es la cuenca número 6 correspondiente al río chiquito.
Cruz Garcia Isabel Alejandra, Universidad Autónoma de Guerrero
Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo

HOTEL ECO-TURÍSTICO


HOTEL ECO-TURÍSTICO

Aguirre Chavez Andrea Guadalupe, Universidad de Sonora. Arévalo D Elia Uziel Mizraim, Consejo Quintanarroense de Ciencia y Tecnología. Bueno Gutiérrez Mayra Saraí, Universidad Autónoma de Guerrero. Cruz Garcia Isabel Alejandra, Universidad Autónoma de Guerrero. Miranda Cayetano Yazmin Alejandra, Universidad Autónoma de Guerrero. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como objetivo el implementar la madera como material principal en la edificación arquitectónica. Dando una solución tanto estructural como de diseño. Un hotel ecoturístico busca un ambiente armonioso que integre áreas de relajación, deportivas, de descanso, de sanación espiritual y talleres de recreación que fomenten el desarrollo sustentable, haciendo uso eficiente y racional de los recursos naturales. Su enfoque principal es hacia el desarrollo turístico el cual busca la relación del usuario con el medio ambiente.



METODOLOGÍA

a través  -Estudio de la zona -Entorno natural (Clima, topografía, flora, fauna) -Contexto construido (Tipologías, estilos) -Contexto social (Habitantes, alfuencia turística, cultura) -Normatividad Análisis  -Diagramas -Zonificación -Programa arquitectónico Síntesis -Planos -Perspectivas


CONCLUSIONES

Debido a las condiciones medioambientales que se viven en la actualidad, se han buscado nuevas formas para poder reducir nuestro impacto ecológico, es por ello que en el sector turístico ha surgido el término hotel ecoturístico el cual deberá propiciar un ambiente armonioso de relajación y recreación, este se enfoca al desarrollo y realce del turístico porque busca relacionar al usuario con el medio ambiente. Es por ello que este proyecto se desarrollará en una zona que tiene un potencial para diseñar este tipo de espacios, asi como se propone el uso de madera y sus sistemas constructivos para el plantemiento del proyecto. 
Cruz Garcia Ivan Alberto, Instituto Politécnico Nacional
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL


IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL

Aguilar Ordaz Ramiro, Instituto Politécnico Nacional. Cruz Garcia Ivan Alberto, Instituto Politécnico Nacional. Gálvez Parra Kevin, Instituto Tecnológico de Culiacán. Gutiérrez Zazueta Héctor Manuel, Instituto Tecnológico de Culiacán. Partida Pérez Rauel, Universidad Tecnológica de Nayarit. Pérez Rios Yotziri Paloma, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

Se plantea como objetivo general la identificación de personas desaparecidas mediante inteligencia artificial. Coadyubando con técnicas de bases de datos y programación.



METODOLOGÍA

La metodología aplicada consta de seis puntos fundamentales descritos a continuación:  El experto en seguridad ingresará la información de la persona en cuestión dentro del sistema. El sistema procesa la información lo que hará que se eliminen elementos no deseados. El sistema clasificará la información en función de sus puntos de referencia, por ejemplo, la longitud de la línea de la mandíbula y la distancia entre los ojos con una precisión de por lo menos 95%. El sistema realizará una búsqueda coincidente a través de la base de datos. El sistema envía la alerta a autoridades. El sistema guarda registro de evento en base de datos.


CONCLUSIONES

Como parte de los resultados del Verano Cientifíco 2020, se enlistan los siguientes: Se construyó y entrenó el modelo inteligente. Montar un servidor que contenga la base de conocimiento y el modelo inteligente. Se construyó un sistema de notificaciones. Se realizaron las pruebas que garantizan la correcta funcionalidad del sistema.
Cruz Lara Luis Ernesto, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ANÁLISIS COSTO-BENEFICIO DE LA IMPLEMENTACIÓN DE PET RECICLADO MOLIDO EN UN CONCRETO HIDRÁULICO CONVENCIONAL DE RELACIÓN AGUA/CEMENTO BAJA.


ANÁLISIS COSTO-BENEFICIO DE LA IMPLEMENTACIÓN DE PET RECICLADO MOLIDO EN UN CONCRETO HIDRÁULICO CONVENCIONAL DE RELACIÓN AGUA/CEMENTO BAJA.

Cruz Lara Luis Ernesto, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Uno de los materiales más utilizados en las obras civiles es el concreto hidráulico, el cual se presenta en una gran variedad de elementos constructivos, dependiendo de los requisitos de la estructura. De acuerdo a la norma N·CMT·2·02·005/04, el concreto hidráulico es una combinación de cemento Portland, agregados pétreos, agua y en ocasiones aditivos, para formar una mezcla moldeable que al fraguar forma un elemento rígido y resistente. La relación agua/cemento (a/c) es el valor característico más importante de la tecnología del concreto hidráulico. De ella dependen la resistencia y la durabilidad, así como los coeficientes de retracción y de fluencia. Una relación agua/cemento baja, conduce a un concreto de mayor resistencia que una relación agua/cemento alta. En los últimos años se han realizado investigaciones sobre el uso de desechos sólidos en el concreto, cada uno de los estudios plantean un efecto específico dependiente del material utilizado y su proporción. Para la elaboración de un concreto hidráulico con PET molido se utiliza todo tipo de plásticos, que son triturados en un molino diseñado para este fin, para luego ser mezclados con el cemento, los agregados pétreos, agua, y eventualmente aditivos. Al desarrollar mezclas de concreto convencionales adicionando plásticos de reciclaje tipo PET (tereftalato de polietileno), se ha comprobado que se permite obtener beneficios económicos y ambientales (Gustavo, 2019), es por ello que en la presente investigación se realizó un estudio para verificar los beneficios que se obtienen al incluir PET en forma molida en el concreto, a partir de un análisis de precios unitarios de los materiales constituyentes. El análisis del costo-beneficio es un proceso que, de manera general, se refiere a la evaluación de un determinado proyecto, o esquema para tomar decisiones de cualquier tipo; ello involucra, de manera explícita o implícita, determinar el total de costos y beneficios de todas las alternativas para seleccionar la mejor o más rentable.



METODOLOGÍA

  El desarrollo de la investigación constó de dos partes fundamentales para su realización: Un proceso de investigación llevado a cabo mediante buscadores académicos confiables y métodos enseñados a través de 33 conferencias impartidas por el laboratorio de materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil (UMSNH). Un análisis costo-beneficio de la implementación del PET a partir de la comparación del costo total de un metro cubico (m3) de concreto en tres escenarios: un concreto convencional, un concreto con adición del 1% de PET molido respecto a la masa del cemento y un concreto con malla electrosoldada. La dosificación o cálculo de las cantidades de material necesarias para 1m3 de concreto convencional, se realizó mediante el Método de diseño ACI 201, considerando una relación agua/cemento baja de 0.40, un revenimiento de 7.5 cm y las características físicas de los materiales, proporcionadas por el coordinador de la investigación y cuyos valores son los siguientes: Cemento= MVSS=1,490 kg/m3, Densidad= 3.10 gr/cm3. Arena= MVSS=1,244 kg/m3, MVSV=1,363 kg/m3, Densidad = 2.10 gr/cm3, MF= 2.55 adim, absorción=7.5%. Grava= MVSS=1,441 kg/m3, MVSV=1,601 kg/m3, Densidad = 2.71 gr/cm3, TM= ¾ in, absorción=2%. De esta manera se encontraron las cantidades necesarias de cada material, analizando su precio unitario referente a la región sur del estado de México, como a continuación se presentan: Cemento Portland: 512.5 kg/m³, PU = $3,000/t (CPC 30 RRS). Total = $1,537.5 Arena: 444.1 kg/m³, PU = $385.7/m³. Total = $88.1 Grava: 1011.9 kg/m³, PU = $385.7/m³. Total = $146.9 Agua: 261.6 kg/m³, PU = $19.9/m³. Total = $4.08 Al hacer el análisis del costo total de los materiales para el primer escenario de concreto, el costo es de $1776.74 (*Mil Setecientos Setenta y Seis pesos con Setenta y Cuatro Centavos Mxn*) En el segundo escenario, se calculó la cantidad de material necesario para el 1% de PET molido respecto a la cantidad de cemento producto del diseño, la cual resultó es de 5.125 kg de PET molido. Al investigar el precio unitario, en distintas recicladoras que generan PET de calidad, se obtuvo el precio de un kilogramo de PET molido fino que es igual a $10.5 (SoloStocks, 2015), que multiplicado por la cantidad de PET, resulta un costo del material de $53.8125. Es entonces que, al agregar el costo del PET molido al costo total del concreto en el primer escenario, se obtiene un costo total de $1830.55 (*Mil Ochocientos Treinta pesos con Cincuenta y Cinco Centavos Mxn*) Por último, el análisis del costo total del material del concreto con malla electrosoldada de 6x6/10-10, suponiendo su uso en un pavimento de 10 cm de espesor, se inició con el cálculo de la cantidad de malla en kilogramos que necesitamos para 1 m3 de concreto hidráulico, resultando un valor de 9.8 kg/m³, PU= $21546.39/t, Total= $211.15. El costo total del concreto con la malla electrosoldada es de $1,987.9 (* Mil Novecientos Ochenta y Siete pesos con Nueve centavos*).


CONCLUSIONES

  Como se puede observar en el apartado anterior, cada escenario presenta un costo total distinto, en base al precio de los materiales que la componen.  Por su parte, el concreto con adición de PET molido incrementó su costo total $53.8125 por arriba del costo total del concreto convencional, agregando el 1% de PET. Cabe mencionar que, cada uno de los costos unitarios de los materiales de construcción es distintos en cada región del país, dicho dato es un factor importante en el costo total. Al realizar un análisis en comparación del costo-beneficio del concreto con PET molido y el concreto con malla electrosoldada, se determinó que la diferencia de costos es de $157.3375, siendo el concreto con PET molido el del costo menor, beneficiando en lo económico y suponiendo que si existiera un comportamiento mecánico del material apto. Los costos por tonelada de PET molido son de $10,500, mientras que el valor de la tonelada de malla electrosoldada es de $21,546.39; por lo que resulta más económico utilizar el PET molido en grandes volúmenes de concreto y con relaciones a/c bajas.
Cruz Rascon Francisco, Universidad de Sonora
Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León

SIMULACIóN DE ALGORITMOS DE PROTECCIóN DIFERENCIAL CON ATP


SIMULACIóN DE ALGORITMOS DE PROTECCIóN DIFERENCIAL CON ATP

Cruz Rascon Francisco, Universidad de Sonora. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Los transformadores de potencia son parte del equipo primario del sistema eléctrico de potencia y son de suma importancia para transmitir energía a través de grandes distancias sin sufrir grandes pérdidas de energía. Estos pueden sufrir fallas eléctricas o cortos circuitos que pueden afectan la calidad y continuidad de la energía eléctrica distribuida, fallas severas incluso pueden destruir por completo el funcionamiento del transformador.   Para proteger el transformador y la distribución de energía se utilizan sistemas de protección. Entre estos sistemas el más utilizado es el relevador de protección diferencial. Este basa su operación en la diferencia entre la corriente de entrada y de salida del transformador de potencia, al ocurrir una falla la diferencia entre estas corrientes toma valores muy elevados, haciendo que el relevador entre en operación aislando la parte del sistema donde ocurrió la falla.   Sin embargo, la protección diferencial puede ser imprecisa ante las corrientes de energización. Por ello es necesario utilizar elementos computacionales para implementar algoritmos más complejos, pero de mayor confiabilidad y rapidez de detección. Durante la estancia en el verano de investigación se implementaron y simularon algoritmos de protección basados en la energía de las señales con ayuda del software ATP.



METODOLOGÍA

Se utilizó el software Alternative Transient Program (ATP), el cual permite la simulación digital de fenómenos transitorios de naturaleza electromagnética. Se utilizó este software ya que permite simular con exactitud sistemas eléctricos de potencia polifásicos y cuenta con una serie de programas complementarios que facilitan el uso de la herramienta, como editor gráfico y aplicaciones para visualización de los resultados obtenidos.   Una vez instalado el software ATP y sus complementos se empezó dibujando el circuito del sistema que se requiere simular en el programa complementario ATPDraw. El circuito modelado consiste en un sistema de tres autotransformadores monofásicos reductores de voltaje con resistencia de 1Ω en los devanados primario y secundario. Contiene una fuente trifásica de 240kV conectada al lado primario de los autotransformadores y una fuente trifásica de 60kV conectada al lado secundario de los autotransformadores que sirve para ver aportaciones de corriente de falla de cualquier terminal del autotransformador. Los autotransformadores están conectados entre ellos en conexión delta-estrella para formar un sistema de potencia trifásico. La carga asociada al voltaje del secundario es de 1800Ω y las terminales de las fuentes son de 1Ω para que no influyan en los resultados de la simulación. El circuito contiene sensores de corriente de línea en las terminales primarias del autotransformador y sensores de corriente de fase en las terminales secundarias del autotransformador que son las corrientes que se utilizaron para realizar las simulaciones.   Después de modelar el circuito, se simularon cuatro fallas en el circuito. Se simulo una falla a tierra en la fase A del primario del autotransformador, una falla de fase A a fase B en el primario del autotransformador, una falla a tierra en la fase A del secundario del autotransformador y una falla de fase A a fase B en el secundario del autotransformador. Las fallas antes mencionadas comienzan en el segundo 0.02 de la simulación, mientras que la simulación total dura 0.1 segundos.   Después, se implementó un algoritmo de protección diferencial. El algoritmo que se basa en las siguientes ecuaciones. IOP > k * IRET + Imin  (1) IOP = |IS1 - IS2|  (2) IRET = |IS1 + IS2|  (3) Donde la IOP o corriente de operación es la diferencia de las corrientes primaria y secundaria en RMS, en estado estable esta suma debe ser prácticamente cero. La IRET o corriente de retención es la suma de las corrientes primaria y secundaria en RMS. La Imin y la k son constantes para aumentar o disminuir la sensibilidad de la protección diferencial según sea necesario. Cuando la corriente de operación es mayor a la magnitud del lado derecho de la ecuación (1) la protección diferencial entra en operación   El algoritmo se implementó con una subrutina Transients Analysis of Control Systems (TACS) que simula un computador análogo en forma de bloques de control. Este se implementó en las tres fases del circuito. Se obtuvieron los valores RMS en tiempo real de la entrada y salida de corriente del autotransformador. Los valores antes mencionados se sumaron para obtener la corriente de operación y se restaron para obtener la corriente de retención. Después de esto la corriente de retención se multiplico por la constante k y a esta se le sumo la Imin para obtener el lado derecho de la ecuación (1). De esta manera se obtuvieron ambos valores de la desigualdad (1) y se compararon de manera que la protección diferencial solo se disparará en el momento que sucede alguna falla.


CONCLUSIONES

Mediante las simulaciones se determinó que las constantes más confiables probadas fueron k=0.1 e Imin=2300. La k algo pequeña, lo que indica que la protección diferencial implementada debe ser muy sensible. Y el valor un tanto alto de la Imin es debido a la variación de las corrientes iniciales. Estos valores pueden hacerse más confiables y rápidos si se hacen más simulaciones y pruebas.   El algoritmo de protección diferencial implementado funciona correctamente para el circuito modelado ya que determina el momento de la falla con rapidez y confiabilidad. Los resultados de la simulación muestran que la protección diferencial solo se activa cuando sucede una falla eléctrica para todas las fallas simuladas. La protección diferencial opera aproximadamente una milésima de segundo después de la falla eléctrica para las cuatro fallas que se simularon.
Cruz Rodríguez Ramon, Universidad Tecnológica de Nayarit
Asesor: Mg. Hugo Hernández Palma, Corporación Universitaria Latinoamericana

MODELOS DE TOMA DECISIONES INVERSIÓN


MODELOS DE TOMA DECISIONES INVERSIÓN

Cruz Rodríguez Ramon, Universidad Tecnológica de Nayarit. González Martínez Karla Lizbeth, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Mg. Hugo Hernández Palma, Corporación Universitaria Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

Uno de los temas más relevantes en la discusión sobre la sostenibilidad se relaciona con la reducción de la huella ambiental; especialmente por parte del sector energético, que es considerado como uno de los que genera un mayor aporte a la emisión de gases contaminantes y residuos. De este modo la búsqueda de energías alternativas resulta ser una de las propuestas con mayor relevancia en la actualidad; razón por la cual el presente proyecto se enfoca en las áreas que urgentemente necesitan la aplicación de una energía renovable, haciendo un especial énfasis en el sector salud como eje fundamental de la calidad de vida de los seres humanos.



METODOLOGÍA

El objetivo planteado para ello es el de analizar las diversas propuestas provenientes de fuentes de información científica que estudien la aplicación y el desarrollo de proyectos de energía solar fotovoltaica en sistemas hospitalarios y que contribuya al impacto económico, ambiental y social; aportando a la gestión dentro del sector energético regional, nacional y global. La investigación es de tipo no experimental,  y  transeccional; en cuanto a la amplitud de la investigación será una investigación comparativa, se hará comparación entre los métodos de análisis financieros tradicionales de valoración y el método de opciones reales; donde las fuentes de recolección de datos serán de fuente mixta (de campo y documental), dichas fuentes documentales serán de tipo primario, tales como: publicaciones periódicas, artículos en revistas, documentos oficiales, informes técnicos, normas, tesis, y fuentes documentales de tipo secundario, como: bibliografías, catálogos, boletines de sumarios, índices de citas o índices de impactos, dicha revisión se realizara en un rango de los últimos cinco años y se tomarán en cuenta las bases de datos de alto nivel como Scopus, WOS, Scielo o Google Académico.


CONCLUSIONES

Con esta revisión se espera obtener en primera instancia una línea de tiempo que permita comprender la evolución y el desarrollo de la implementación de sistemas de energía fotovoltaica, haciendo un especial énfasis en el sector salud, así como también un análisis comparativo entre los métodos tradicionales y el método de opciones reales para la puesta en marcha de dichos proyectos. Se concluye que, la importancia de esta investigación radica en la propuesta metodológica y construcción de instrumentos que viabilicen el desarrollo de proyectos de energía solar fotovoltaica, que contribuyendo al impacto económico, ambiental y social. Palabras clave: sistemas energéticos renovables, método de opciones reales, energía fotovoltaica.
Cuarenta Castañeda Juan Jose, Instituto Politécnico Nacional
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION


MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION

Correa Hernández Enrique Allfadir, Instituto Tecnológico Superior de Ciudad Hidalgo. Cuarenta Castañeda Juan Jose, Instituto Politécnico Nacional. Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Simbron Mckay Valentin Augusto, Universidad de Guadalajara. Varelo Silgado Andrés, Universidad de Pamplona. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

1. Planteamiento del Problema Litiasis urinaria -formación de piedras renales- se ha tenido un aumento constante de la incidencia en muchos países desarrollados: Alrededor de 10% de la población en estas ciudades sufren al menos una vez en su vida las piedras renales y en las investigaciones han demostrado que la tasa de recurrencia es del 40% en 5 años . Esto representa un problema mayor para los sistemas nacionales de salud y por tanto se ha presentado un gran interés por el estudio o la identificación de las causas raíz de la formación de piedras en orden de mitigar la alta recurrencia de la enfermedad. Además, que la presencia de piedras urinarias específicas es un fuerte indicador para ciertos disturbios metabólicos que el paciente puede sufrir. Por tanto, el obtener una correcta identificación puede servir como un mecanismo pronóstico para evitar recaídas y utilizar tratamientos personalizados.Sin embargo, las prácticas médicas y clínicas actuales se basan en la experiencia de los clínicos y técnicos que utilizan métodos y procedimientos que conlleva a un diagnóstico tardado y que son altamente subjetivos o requieren un entrenamiento intensivo para realizar una correcta clasificación de los cálculos urinarios. El primer factor es especialmente gravoso, como las piedras renales tienen que ser removidas del paciente y posteriormente analizadas en el laboratorio, este proceso regularmente necesita el pulverizar la piedra, lo cual implica una importante pérdida de información para una correcta valoración de las dolencias del paciente.  



METODOLOGÍA

2. Método propuesto 2.1 Dataset El dataset utilizado fue creado a partir de 125 piedras renales adquiridas en prácticas in vivo y nombradas por el urólogo Dr. Vincent Estrade del Centre Hospitaliere de Bordeaux en Francia, en colaboración con el Centre de Recherche en Automatique de Nancy (CRAN) también en Francia. El acceso a este dataset fue a través de la colaboración del Dr. Gilberto Ochoa Ruiz con el CRAN.  Este dataset incluye 79 imágenes de superficie de las piedras, 46 imágenes de secciones transversales de las tres clases de piedras renales que tienen más incidencia en las poblaciones observadas. (Whewellite, Weddellite y ácido úrico) capturadas durante ureterorenoscopias reales. Se utilizaron los ureteroscopios URF-V para capturar estas imágenes. La superficie y las imágenes que fueron utilizadas están separadas en 2 sub-datasets durante la clasificación de entrenamiento y testeo. Son imágenes de 200 x200 pixeles que fueron recortadas de las fotografías originales para incrementar el número de las imágenes en los sub-datasets, Los parches solo contienen información de las piedras renales desde el fondo y esto no es visible en las imágenes recortadas 2.2 Textura: el software scikit-learn fue utilizado rotación y escala de patrones binarios locales invariantes de imágenes convertidas a escala de grises, los LBP fueron almacenados en un histograma 10-bin correspondiente a la primera parte del vector descriptor   2.3 Color: el espacio de color HSV(Hue-Tono, Saturation-Saturación, Value-Valor) fue usado para extraer información de color. ya que este es más cercano al ojo humano para percibir los colores. Este espacio es seleccionado porque el tono o color está en un solo canal mientras el brillo del color está separado.             2.4 Escalado de datos Los datos fueron escalados para una mejor operación de los métodos, aplicando la siguiente fórmula z=(x-promedio_datos)/(desvición_estandar_datos) z = datos escalados x= datos no escalados   2.5 Materiales y métodos Previo a la fase de clasificación, un dataset fue construido con características de color y textura fueron extraídas de las imágenes. Siete clasificadores supervisados fueron implementados y comparados para realizar la clasificación: Random Forest ensemble, XGBoost, MLP, Bagging, AdaBoost, SVM, Naive Bayes. 2.6 Separación de datos de entrenamiento y evaluación  Para separar los datos de entrenamiento y evaluación fueron tomados de acuerdo a la cantidad de muestras, es decir, teniendo en cuenta el subtotal de cada piedra Whewellite, Weddellite y ácido úrico.


CONCLUSIONES

3.  Diseño experimental:  Section Method/ Metric          Precisión       Recall         F1      Support Naive Bayes                  69%           71%          62%       158 SVM                             83%           86%          84%       158 AdaBoost                      83%           86%         83%        158 Bagging                         76%           76%        75%         157 MLP                              86%           91%        87%         158 XGBoost                        84%           88%        84%         158 Random Forest             87%            87%        86%         157   Surface Method/ Metric       Precisión       Recall      F1     Support Naive Bayes              48%             40%       36%       138 SVM                          76%             51%        50%       138 AdaBoost                  70%              48%        45%      138 Bagging                     77%              75%        75%      137 MLP                           80%                64%        63%      138 XGBoost                  79%                59%          56%     138 Random Forest      83%                 82%          83%    137     Method/ Av. Precision     Section     Surface      Student Naive Bayes                      62.65%       40.57%   Cuarenta Castañeda Juan Jose SVM                                   85.77%        59.42%   Dario Martinez Julio Joel AdaBoost                           84.81%         55.79%   Simbron Mckay Valentin Augusto Bagging                             75%               76%        Correa Hernández Enrique Allfadir MLP                                  88.60%            71.01%   Varelo Silgado Andrés XGBoost                           85.44%             68.11%   Franco Mora Marco Julio Random Forest                 87%                  82%     de la Lima López Julio Cesar     Conclusiones Con respecto a los modelos de clasificación usados en este proyecto, además de características de textura y color pueden ser exploradas en trabajos futuros buscando mejores resultados de clasificación.  Fue posible realizar pruebas con distintos métodos de clasificación de machine learning, realizando posteriormente una exhaustiva evaluación de los mismos, midiendo los valores promedio de precisión, recall, f1 y el support, donde es posible ratificar que Random Forest fue quien obtuvo un mejor rendimiento con respecto a los demás modelos. De igual forma se piensa que tuneando  los métodos es posible obtener resultados similares o incluso superiores a Random Forest como en el caso del sub-dataset de section donde el perceptrón multicapa arrojó el porcentaje de precisión más alto siendo 88.60%  .    
Cuevas Padilla Eva Sarahi, Instituto Tecnológico de Tepic
Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana

USO DE RESIDUOS DE CONCRETO EN LA CONSTRUCCIÓN: REVISIÓN DE ESTADO DEL ARTE.


USO DE RESIDUOS DE CONCRETO EN LA CONSTRUCCIÓN: REVISIÓN DE ESTADO DEL ARTE.

Cuevas Padilla Eva Sarahi, Instituto Tecnológico de Tepic. Villa Burruel Eva Giselle, Universidad de Sonora. Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Promover la sostenibilidad en la industria de la construcción por medio de una revisión bibliográfica del aprovechamiento de residuos de concreto.



METODOLOGÍA

Definir los objetivos de investigación Recibir capacitaciones sobre búsqueda en bases de datos, citación y conceptos técnicos Analizar cómo se estructuran y escriben los artículos de revisión de estado del arte Consulta en bases de datos y fuentes documentales primarias, especialmente artículos de revistas científicas indexadas Organización y selección de información Análisis de información recolectada Entrevistas con expertos Ejecución de seminarios sobre el tema abordado Inicio de la redacción del documento Generar interpretaciones y posturas críticas en torno al tema Culminación del documento escrito en un formato de revista o congreso técnico


CONCLUSIONES

Debido al elevado impacto ambietal de la industria de la construcción se deben promover estrategias para aportar a la sostenibilidad. Una de ellas es el aprovechamiento de residuos de construcción y demolición, especialmente, los provenientes del concreto. Estos tienen un gran potencial pues pueden ser transformados y utilizados como agregados reciclados para la producción de morteros, concretos, pavimentos o mejoramiento de suelos. De esta forma, se disminuiría la extracción de recursos naturales no renovables y la generación de gases efecto invernadero. Principales Resultados Los residuos de concreto son una opción viable como sustituto de los agregados en el concreto, donde las propiedades mecánicas se mantienen cuando se realiza una incorporación de hasta del 20%. Estos residuos pueden ser incorporados en la fabricación del cemento. Finalmente, los agregados reciclados de concreto se caracterizan por tener una elevada porosidad. Sin embargo, su textura superficial y la posibilidad de contener material cementante sin hidratar, los hacen aptos para el uso en pavimentos, morteros y concretos.
Cuxin Puc Saury Araine, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Mg. Ángela María Jiménez Gallego, Universidad Católica de Manizales

CARACTERIZACIÓN DE VIVIENDAS RURALES DE BACALAR, MÉXICO Y MANIZALES, COLOMBIA


CARACTERIZACIÓN DE VIVIENDAS RURALES DE BACALAR, MÉXICO Y MANIZALES, COLOMBIA

Cuxin Puc Saury Araine, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Mg. Ángela María Jiménez Gallego, Universidad Católica de Manizales



PLANTEAMIENTO DEL PROBLEMA

La historia de un país o una región queda plasmada en su arquitectura, esta hablará sobre sus costumbres, tradiciones y sistemas constructivos. Sin embargo, a lo largo de los años su arquitectura va cambiando y modificándose de acuerdo a las necesidades y los recursos económicos de la población. Lo anterior, no sólo ocurre en algunas regiones o países, pasa por lo regular en todos lados, tal es el caso de Bacalar, México y Manizales, Colombia (Sánchez, 2006). Actualmente, en las comunidades del municipio de Bacalar y Manizales permanece el uso de las viviendas rurales, sin embargo, han sido modificadas de acuerdo a las necesidades de los pobladores y, sobre todo, a su economía. A través de las generaciones estas técnicas constructivas que se han caracterizado por la adaptación a su entorno y por la búsqueda del confort térmico de los moradores han sido modificadas por lo que de ahí surge la problemática que consiste en el abandono de estas técnicas es por ello que durante el verano de investigación se realiza la identificación y el análisis de cada una de las tipologías de estas viviendas, resaltando las estrategias utilizadas para su construcción, y sobre todo las técnicas usadas para conseguir el confort térmico en sus espacios, permitirá realizar la caracterización de cada una de ellas. De este modo, podría ser usado para la elaboración de programas de viviendas sociales por parte del gobierno de cada municipio. Logrando que la población siga conservando la arquitectura prehispánica que en su tiempo fue llevada a cabo por los antiguos pobladores, rescatando las técnicas más efectivas para el bienestar de los habitantes.



METODOLOGÍA

Para este trabajo se recurrió al método de investigación cualitativa; por ser un fenómeno social que tiene objetivo el comprender las cualidades interrelacionadas que permite caracterizar a un determinado fenómeno. El proceso de investigación consistió en la búsqueda de fuentes bibliográficas a través de bases de datos como; Scopus, ScieELO, Corporación Universitaria Americana, Google Académico, Elsevier, World Wide Scince, DOAJ, TIB. Haciendo uso de operadores booleanos para ampliar, limitar y definir la búsqueda de investigaciones relacionadas a viviendas rurales. En esta búsqueda se seleccionó 30 artículos enfocados a la caracterización y descripción de viviendas campesinas en los municipios de Manizales y Bacalar. Se realizó un primer filtro de clasificación de fuentes que trataran sobre la vivienda en Manizales y otras sobre Bacalar, ya que no se halló información que las relacionara en conjunto o que las comparara una de la otra. El segundo filtro consistió en descartar aquellas fuentes que no correspondían a la época prehispánica, debido a que la caracterización y análisis tipológico sólo se realizaría a las viviendas construidas en la época prehispánica en ambos municipios. Como parte del filtro se suprimió aquellas investigaciones que no se ajustara a la zona de estudio previamente establecidas. Así que no fue considerada aquellos trabajos que no englobaran a la península de Yucatán, en el caso de Bacalar y para Manizales, todo aquel que no estaba basada en las viviendas de dichos municipios. El resultado de esta selección de información permitió el análisis e identificación de cualidades que diversos autores realizaron a los prototipos de viviendas campesinas de ambas regiones. De este modo, se estableció parámetros que los pobladores prehispánicos empleaban en sus viviendas y que les permitió alcanzar el confort térmico de sus espacios. Una vez identificado estos parámetros arquitectónicos dentro de la adaptabilidad de su sitio, posteriormente se llevó a cabo la caracterización de estos parámetros. Una vez que se elaboró la caracterización se prosiguió con la formulación de un cuadro comparativo en donde los parámetros arquitectónicos fueron los objetos de comparación entre la vivienda rural de Bacalar y Manizales. La información seleccionada con anterioridad fue de vital importancia para el proceso de recopilación de fuentes que permitieran el llenado de dicho cuadro y finalmente obtener como resultado un análisis comparativo tipológico entre dos viviendas.


CONCLUSIONES

Durante la estancia de verano se obtuvo la información necesaria para la delimitación de aquellos parámetros que los habitantes de Bacalar y Manizales en la época prehispánica tomaron en cuenta para el diseño y construcción de sus viviendas, las cuales se caracterizaban por proporcionar al morador el confort térmico ya que estaban adaptadas conforme a su entorno.  Además de poder identificar estos parámetros nos proporcionó el tiempo para conocer como estos parámetros eran transformados en técnicas de construcción que finalmente eran aplicados en sus espacios. Y de esta manera concluir con un análisis comparativo tipológico entre las dos viviendas ubicados en dos contextos totalmente diferentes entre sí. En definitiva, la sostenibilidad implica garantizar a la población viviendas seguras y, sobre todo, el mejoramiento de las comunidades rurales. Por lo que este proyecto pretende aportar a los municipios de Bacalar y Manizales ubicados en diferentes países, como comunidades campesinas, una herramienta de consulta con información que permita al habitante comprender y conservar lo que generaciones anteriores lograron llevar a cabo, rescatando las técnicas a fin de que las pongan en práctica, y siendo necesario la modificación no tan radical de estas o los materiales con la intención de que las adapten a sus necesidades, actividades cotidianas y sobre todo, a su economía, sin perder vista los aportes de los antiguos pobladores de dichas regiones.
Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION


MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION

Correa Hernández Enrique Allfadir, Instituto Tecnológico Superior de Ciudad Hidalgo. Cuarenta Castañeda Juan Jose, Instituto Politécnico Nacional. Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Simbron Mckay Valentin Augusto, Universidad de Guadalajara. Varelo Silgado Andrés, Universidad de Pamplona. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

1. Planteamiento del Problema Litiasis urinaria -formación de piedras renales- se ha tenido un aumento constante de la incidencia en muchos países desarrollados: Alrededor de 10% de la población en estas ciudades sufren al menos una vez en su vida las piedras renales y en las investigaciones han demostrado que la tasa de recurrencia es del 40% en 5 años . Esto representa un problema mayor para los sistemas nacionales de salud y por tanto se ha presentado un gran interés por el estudio o la identificación de las causas raíz de la formación de piedras en orden de mitigar la alta recurrencia de la enfermedad. Además, que la presencia de piedras urinarias específicas es un fuerte indicador para ciertos disturbios metabólicos que el paciente puede sufrir. Por tanto, el obtener una correcta identificación puede servir como un mecanismo pronóstico para evitar recaídas y utilizar tratamientos personalizados.Sin embargo, las prácticas médicas y clínicas actuales se basan en la experiencia de los clínicos y técnicos que utilizan métodos y procedimientos que conlleva a un diagnóstico tardado y que son altamente subjetivos o requieren un entrenamiento intensivo para realizar una correcta clasificación de los cálculos urinarios. El primer factor es especialmente gravoso, como las piedras renales tienen que ser removidas del paciente y posteriormente analizadas en el laboratorio, este proceso regularmente necesita el pulverizar la piedra, lo cual implica una importante pérdida de información para una correcta valoración de las dolencias del paciente.  



METODOLOGÍA

2. Método propuesto 2.1 Dataset El dataset utilizado fue creado a partir de 125 piedras renales adquiridas en prácticas in vivo y nombradas por el urólogo Dr. Vincent Estrade del Centre Hospitaliere de Bordeaux en Francia, en colaboración con el Centre de Recherche en Automatique de Nancy (CRAN) también en Francia. El acceso a este dataset fue a través de la colaboración del Dr. Gilberto Ochoa Ruiz con el CRAN.  Este dataset incluye 79 imágenes de superficie de las piedras, 46 imágenes de secciones transversales de las tres clases de piedras renales que tienen más incidencia en las poblaciones observadas. (Whewellite, Weddellite y ácido úrico) capturadas durante ureterorenoscopias reales. Se utilizaron los ureteroscopios URF-V para capturar estas imágenes. La superficie y las imágenes que fueron utilizadas están separadas en 2 sub-datasets durante la clasificación de entrenamiento y testeo. Son imágenes de 200 x200 pixeles que fueron recortadas de las fotografías originales para incrementar el número de las imágenes en los sub-datasets, Los parches solo contienen información de las piedras renales desde el fondo y esto no es visible en las imágenes recortadas 2.2 Textura: el software scikit-learn fue utilizado rotación y escala de patrones binarios locales invariantes de imágenes convertidas a escala de grises, los LBP fueron almacenados en un histograma 10-bin correspondiente a la primera parte del vector descriptor   2.3 Color: el espacio de color HSV(Hue-Tono, Saturation-Saturación, Value-Valor) fue usado para extraer información de color. ya que este es más cercano al ojo humano para percibir los colores. Este espacio es seleccionado porque el tono o color está en un solo canal mientras el brillo del color está separado.             2.4 Escalado de datos Los datos fueron escalados para una mejor operación de los métodos, aplicando la siguiente fórmula z=(x-promedio_datos)/(desvición_estandar_datos) z = datos escalados x= datos no escalados   2.5 Materiales y métodos Previo a la fase de clasificación, un dataset fue construido con características de color y textura fueron extraídas de las imágenes. Siete clasificadores supervisados fueron implementados y comparados para realizar la clasificación: Random Forest ensemble, XGBoost, MLP, Bagging, AdaBoost, SVM, Naive Bayes. 2.6 Separación de datos de entrenamiento y evaluación  Para separar los datos de entrenamiento y evaluación fueron tomados de acuerdo a la cantidad de muestras, es decir, teniendo en cuenta el subtotal de cada piedra Whewellite, Weddellite y ácido úrico.


CONCLUSIONES

3.  Diseño experimental:  Section Method/ Metric          Precisión       Recall         F1      Support Naive Bayes                  69%           71%          62%       158 SVM                             83%           86%          84%       158 AdaBoost                      83%           86%         83%        158 Bagging                         76%           76%        75%         157 MLP                              86%           91%        87%         158 XGBoost                        84%           88%        84%         158 Random Forest             87%            87%        86%         157   Surface Method/ Metric       Precisión       Recall      F1     Support Naive Bayes              48%             40%       36%       138 SVM                          76%             51%        50%       138 AdaBoost                  70%              48%        45%      138 Bagging                     77%              75%        75%      137 MLP                           80%                64%        63%      138 XGBoost                  79%                59%          56%     138 Random Forest      83%                 82%          83%    137     Method/ Av. Precision     Section     Surface      Student Naive Bayes                      62.65%       40.57%   Cuarenta Castañeda Juan Jose SVM                                   85.77%        59.42%   Dario Martinez Julio Joel AdaBoost                           84.81%         55.79%   Simbron Mckay Valentin Augusto Bagging                             75%               76%        Correa Hernández Enrique Allfadir MLP                                  88.60%            71.01%   Varelo Silgado Andrés XGBoost                           85.44%             68.11%   Franco Mora Marco Julio Random Forest                 87%                  82%     de la Lima López Julio Cesar     Conclusiones Con respecto a los modelos de clasificación usados en este proyecto, además de características de textura y color pueden ser exploradas en trabajos futuros buscando mejores resultados de clasificación.  Fue posible realizar pruebas con distintos métodos de clasificación de machine learning, realizando posteriormente una exhaustiva evaluación de los mismos, midiendo los valores promedio de precisión, recall, f1 y el support, donde es posible ratificar que Random Forest fue quien obtuvo un mejor rendimiento con respecto a los demás modelos. De igual forma se piensa que tuneando  los métodos es posible obtener resultados similares o incluso superiores a Random Forest como en el caso del sub-dataset de section donde el perceptrón multicapa arrojó el porcentaje de precisión más alto siendo 88.60%  .    
Dávila Longino Brian Francisco, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DESARROLLO VIRTUAL MEDIANTE UN ROBOMASTER S1 PARA REALIDAD AUMENTADA EN EL MARCO DE MECATRóNICA EDUCATIVA


DESARROLLO VIRTUAL MEDIANTE UN ROBOMASTER S1 PARA REALIDAD AUMENTADA EN EL MARCO DE MECATRóNICA EDUCATIVA

Dávila Longino Brian Francisco, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La industria ha ascendido a lo que hoy se conoce como Industria 4.0, la cual implica el uso de tecnologías modernas para obtener un nuevo desempeño en las actividades de producción. Una de estas herramientas es la realidad aumentada. Esta última, representa una acción o proceso real en un entorno virtual a través de un computador o dispositivo electrónico móvil, que proyecta esa serie de acciones para hacer entrenamientos, capacitaciones o prácticas. En el caso de las industrias, los ejemplos anteriores son aplicados. Ya que, esto permite capacitar al personal para iniciar con sus actividades, prever diferentes situaciones de riesgo que pudieran poner en peligro al personal, realizar pruebas de funcionamiento o diagnosticar  fallas en la producción, lo cual crearía perdidas a la empresa en cuestión. 



METODOLOGÍA

En primer lugar se llevo a cabo la Investigación en base al modelo existente Robo Master S1. A continuación, se trabajo segun las necesidades especificas de acuerdo al proyecto de elaboración de mecatronica educativa cuyo enfoque se centraria en la realidad aumentada. Una vez concretado eso, se llevo a cabo el diseño CAD en solid works del dispositivo. Posteriormente, se exporto al software Unity para el proyecto virtual. A su vez en esta parte se desarrollo la escritura del codigo en la plataforma Visual estudio para la manupulación de los controles de movimineto. Tras concluirse el codigo, se desarrollo la interface en Unity para la aplicación de la realidad aumentada con respecto al usuario. Finalmente se exporto todo el producto al dispositivo movil android para su conclusión, donde el usuario puede hacer uso de dicha herramienta virtual.                              


CONCLUSIONES

La realidad aumentada está teniendo un auge importante en la industria 4.0, en donde cada vez la manufactura entra en una dinámica de colaboración del ser humano con la máquina, es por ellos de la importancia de poder tener un conocimiento más profundo en tiempo real de los procesos que se puedan estar realizando. Implementando la metodología de la mecatrónica educativa a sistemas de realidad aumentada incrementa la experiencia que viven los estudiantes de ingeniería para facilitar el aprendizaje obtenido en las aulas
de Jesus Consuelo Cinthia Lizeth, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

DESARROLLO E IMPLEMENTACIóN DE UNA ASISTENTE DE VOZ CON APLICACIONES EN LASER CLADDING


DESARROLLO E IMPLEMENTACIóN DE UNA ASISTENTE DE VOZ CON APLICACIONES EN LASER CLADDING

de Jesus Consuelo Cinthia Lizeth, Tecnológico de Estudios Superiores de Valle de Bravo. Jiménez Avila Carlos Alan, Instituto Tecnológico de Querétaro. Montemayor Vasquez Maria Fernanda, Tecnológico de Estudios Superiores de Villa Guerrero. Sol Altúzar Antonio Alejandro, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La manufactura aditiva (MA) es una tecnología disruptiva en México. La impresión volumétrica de componentes metálicos personalizados la vuelve muy atractiva para sectores industriales. Gracias a esto, se pueden concebir aplicaciones tan variadas que pueden abarcar desde el sector metal-mecánico hasta la bioingeniería médica. Hoy en día, el Consorcio Nacional en Manufactura Aditiva (CONMAD) cuenta con diversas tecnologías de la familia de Deposición Directa de Energía, entre ellas la conocida como Laser Cladding, el cual permite añadir material capa por capa hasta construir o reparar un volumen. La tecnología de Laser Cladding requiere una configuración inicial especifica de parámetros de impresión. Dicha configuración está en función del material a imprimir y las características funcionales que se buscan en la pieza (por ejemplo, más resistencia a la corrosión). Es decir, existe un universo de parámetros de configuración, llamados ventanas de proceso, que deben ser conocidos o calculados previamente por el usuario. Por lo cual, surge la necesidad de crear un repositorio digital con toda esta información para que así pueda ser consultada posteriormente por los usuarios. Una idea para dar solución es el uso de un asistente de voz. Este asistente podrá ser consultado previo al depósito garantizar la configuración adecuada de la celda de Cladding. Logrando así mantener condiciones de impresión, repetibilidad y la calidad adecuada de componentes.



METODOLOGÍA

Los asistentes de voz con inteligencia artificial (IA) han experimentado un crecimiento sin precedentes. Centrándose en las interacciones de voz, combinamos los fundamentos teóricos y prácticos de un asistente de voz para lograr una comunicación usuario-asistente. Para la comunicación usuario-asistente se usó una bocina Smart Echo Dot de Amazon de 3 generación y la asistente de voz de Amazon llamada Alexa. Para el entorno MA, se utilizó una estación de celda de Laser Cladding conformada por un Láser TruDisk 6002 de TRUMPF de estado sólido de alto rendimiento para la soldadura, un manipulador ABB IRB6620-120 de 6 GDL, un alimentador de polvos por vibración Medicoat Flowmotion Duo de dos tolvas y un cabezal de impresión coaxial de 3 puertos TRUMPF BEO D70 para Laser Metal Deposition (LMD). Se revisó el estado del arte para familiarizarse con los tópicos relacionados con la Manufactura Aditiva y gracias a esto, se logró tener una mejor compresión de lo que se iba a realizar a lo largo de las siete semanas en el desarrollo del proyecto. La metodología está compuesta por 4 etapas: Base de datos: La base de datos está compuesta por los parámetros que usa una celda de Laser Cladding y los parámetros de distintos materiales que se utilizan en la TruDisk 6002 de acuerdo a los proveedores que maneja CIDESI. Para agilizar el trabajo, decidimos usar los servicios de Amazon Web Services (AWS), por lo cual se revisó el estado del arte del servicio AWS y del lenguaje de programación Python. AWS maneja distintos servicios de base de datos, se realizó una tabla comparativa de los servicios de AWS teniendo en cuenta los pros y contras de cada servicio, se tomó la decisión de usar el servicio Amazon RDS de AWS. En RDS se creó una instancia (entorno en la nube con los recursos informáticos y de almacenamiento que especifique) y una base de datos con el motor de MySQL y se usó el cliente de MySQL Workbench para trabajar en la base de datos hecha en RDS. Amazon Lambda Function Se aprendió y probó el Software Development Kit (SDK) del Alexa Voice Services (AVS) y su integración con AWS Lambda Function para generar el código de programación que permitió enlazar la base de datos con Lambda. De esta manera se estableció la comunicación entre usuario y asistente. El AVS permite añadir control de voz inteligente a cualquier producto usando habilidades diseñadas por terceros en Alexa bajo el nombre de Skill. Modelo de interacción de voz Se diseñó el modelo de interacción de voz en la plataforma de Alexa Developer Console para crear una Skill personalizada con programación en Python usando las API de AVS. Para el funcionamiento de la Skill, se agregaron los siguientes elementos: Intents, utterances, variables, invocation name, slots, endpoint, automatic speech recognition (ASR). Skill de Alexa Se desarrollaron las distintas fases para entablar una comunicación entre AWS Lambda y la Skill de Alexa en donde se evaluó el funcionamiento del modelo, la respuesta del mismo y el tiempo de despliegue. Se usó la función Beta (con duración de 90 dias activa) de la Skill de Alexa para desplegar nuestra Skill a dispositivos inteligentes Echo Dot para realizar la comunicación entre usuario y asistente. La diferencia entre una Skill publicada y una beta es que la beta tiene una etiqueta dev y aún no pasa el proceso de certificación que se requiere para desplegarla a la tienda de Alexa. La certificación de la Skill excede el tiempo establecido para el proyecto, por lo cual se quedó en espera y por el momento la función Beta es la única válida para funcionar en los dispositivos Echo Dot. .


CONCLUSIONES

Se aprendió a crear una Skill en el entorno de Alexa Developer Console y como resultado se obtuvo una Skill para el asistente de voz Alexa para aplicaciones en Laser Cladding. Por otra parte, encontramos limitaciones como: el uso de los servicios de AWS usando la capa gratuita y sus costos fuera de esa capa porque se cotizan en USD, además de que el soporte técnico es muy limitado para usuarios principiantes. Hasta donde se conoce, este es uno de los primeros estudios en el campo de asistentes de voz aplicados en manufactura aditiva puesto que, en la actualidad no existe una aplicación similar en la industria. Para futuras investigaciones, se recomienda obtener más datos generales sobre los diversos materiales que se trabajan dentro del CONMAD y pulir esta aplicación para tener una visión más amplia ya que el entorno de Alexa Developer Console cambia constantemente porque se actualiza constantemente.
de la Cruz Piña Lizeth, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Eugenia Arrieta Rodríguez, Universidad del Sinú

MODELO PREDICTIVO BASADA EN DEEP LEARNING PARA LA DETECCIóN DE HIPERTENSIóN DE PACIENTES EN LA CIUDAD DE CARTAGENA.


MODELO PREDICTIVO BASADA EN DEEP LEARNING PARA LA DETECCIóN DE HIPERTENSIóN DE PACIENTES EN LA CIUDAD DE CARTAGENA.

de la Cruz Piña Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Eugenia Arrieta Rodríguez, Universidad del Sinú



PLANTEAMIENTO DEL PROBLEMA

El proceso de ciencia de datos y las técnicas de aprendizaje automático hacen posible analizar los datos, extraer sus características, evaluar el riesgo, identificar factores de riesgo relacionados con la ocurrencia de enfermedades, como es el caso de la hipertensión. Convirtiéndose en una herramienta de apoyo en el proceso de atención y aportando en la toma de decisiones clínicas y administrativas.  Lograr construir un modelo de clasificación implica la extracción de los datos originales; entendimiento de los datos; limpieza de los datos; el análisis exhaustivo de las variables y su relación; filtrado de variables, modelado y validación, en este trabajo se presenta un avance del proceso de construcción de un modelo de clasificación de riesgo de hipertensión.



METODOLOGÍA

La metodología Cross Industry Standard Process for Data Mining (CRIPS-DM) se utiliza para determinar cuáles son las variables de mayor relevancia e incidencia con respecto a la variable de respuesta. Como avance de este trabajo se presenta las fases de entendimiento, comprensión de los datos,exploración de datos y filtrado de variables. La principal herramienta de trabajo fue Google Colaboratory un entorno gratuito de Jupyter Notebook que no requiere configuración y que se ejecuta completamente en la nube. Utilizando Jupyter un entorno interactivo que permite desarrollar código Python de manera dinámica. Estos funcionan a manera de acuadernos, los cuadernos de Colab son cuadernos de Jupyter alojados en Colab. Como primer punto se realizó la extracción de los datos originales teniendo como base un documento de Excel este documento contiene datos aplicados a pacientes en la ciudad de Cartagena donde se obtuvo un control del registro de cada paciente, su edad, estrato, estado civil, síntomas, enfermedades, características físicas, entre otros; posteriormente se hizo un estudio de cada uno de ellos para poder tener más claro un entendimiento de los datos;  después se realizó un análisis de datos donde se determinó qué tipo de errores e inconsistencias deben ser eliminados llevando así la limpieza de datos para tener por ultimo un análisis de las variables y su relación. Las variables que se encontraron con mayor relevancia fueron las que se mencionan a continuación como la edad ya que la hipertensión suele ser más común en personas mayores de 60 años, con la edad, la presión arterial puede incrementar de forma paulatina. Dentro de la altura y peso se puede presentar la hipertensión ya que la obesidad o sobrepeso representan un factor de riesgo clave. También el consumo de alcohol y tabaco pues el consumo de grandes cantidades de alcohol de forma regular puede incrementar la presión arterial de una persona, al igual que el tabaco. El riesgo vitalicio es el mismo para hombres y mujeres, pero los hombres son más propensos a sufrirla a una edad más temprana. La frecuencia suele ser superior en las mujeres mayores. En las enfermedades de salud existentes como pueden ser cardiovasculares, la diabetes, la enfermedad renal crónica y los niveles de colesterol elevados pueden derivar en hipertensión, sobre todo cuando la gente envejece. Las variables filtradas al final fueron edad, tabaquismo, consumo licor, obesidad, peso, talla, IMC, tensión arterial, estado nutricional, soplos, enfermedad renal, nefropatía diabética, diabetes mellitus diagnosticada, diagnostico principal. Considerando cada una de estas se realizó un análisis estadístico de datos utilizando dos paquetes principales de Jupyter las cueles fueron Pandasy Numpy. Dentro de pandas se utilizó la estructura de DataFrame y posteriormente se cargaron los datos y librerías necesarias para poder realizar un reporte y resumen estadístico.


CONCLUSIONES

En conclusión, se encontró la investigación acerca de Hipertensión factores de riesgo asociados a las enfermedades cardiovasculares en adultos en la cual un transversal descriptivo de base poblacional, desarrollado con individuos adultos seleccionados se les midió peso, talla, IMC, edad, tabaquismo, consumo licor, obesidad, tensión arterial, estado nutricional, soplos, enfermedad renal, nefropatía diabética, diabetes mellitus diagnosticada utilizando como método para el análisis de los datos. Dando como resultado 46,816% de los sujetos refirieron ser hipertensos, con prevalencia mayor en edad de 60 y 70 años. 
de la Rosa Arce Gisela Itzamar, Universidad Autónoma de Occidente
Asesor: Dra. Galdy Hernández Zárate, Colegio de Postgraduados

USO DE CELDAS COMBUSTIBLES MICROBIANAS PARA EL TRATAMIENTO DE AGUAS RESIDUALES ACUíCOLAS Y LA COGENERACIóN DE ENERGíA


USO DE CELDAS COMBUSTIBLES MICROBIANAS PARA EL TRATAMIENTO DE AGUAS RESIDUALES ACUíCOLAS Y LA COGENERACIóN DE ENERGíA

de la Rosa Arce Gisela Itzamar, Universidad Autónoma de Occidente. Asesor: Dra. Galdy Hernández Zárate, Colegio de Postgraduados



PLANTEAMIENTO DEL PROBLEMA

La acuicultura es una tecnología de producción orientada al cultivo de especies acuáticas, que comprende peces, moluscos, crustáceos y plantas. Se realiza alrededor de mundo y requiere la intervención humana para incrementar su producción (FAO 2003). De acuerdo con el Centro de Estudios para el Desarrollo Rural Sustentable y la Soberanía Alimentaria (CEDRSSA, 2015), China es líder mundial en solitario, seguido por Indonesia e India; y en esta misma lista, México ocupa el vigésimo lugar.  En el siglo XXI, la acuicultura continúa siendo el sector productivo de mayor crecimiento en el mundo; sin embargo, como cualquier otra actividad productiva, consume recursos (tierra, agua, semillas y piensos) (Troell et al. 2013). Las aguas residuales de esta industria se caracterizan por ser ricas en materia orgánica (alimentos ricos en proteínas y heces), nitrógeno amoniacal y antibióticos (Sun et al., 2020), mismos que de no ser tratados adecuadamente, causan el deterioro de los sistemas de cultivo y un efecto tóxico en los organismos cultivados (Sajana et al, 2013). Estos desechos, una vez liberados de las granjas ocasionan efectos negativos a los ecosistemas e incluso en la salud humana, ya que reducen la calidad del agua (diminución del oxígeno disuelto y eutrofización), generan gases tóxicos o de efecto invernadero, y promueven la aparición de organismos parásitos (Troell et al. 2013, Ibrahim et al. 2019). Espinoza y Bermúdez (2012), señalan que el grado de impacto ambiental está directamente relacionado con el sistema de producción implementado (extensivo, semi-intensivo o intensivo), siendo los sistemas intensivos los que generan una mayor cantidad de desechos. En este sentido, la acuicultura debe tratar de reducir al mínimo los efectos negativos de sus actividades productivas, y asegurar cultivos sostenibles o al menos responsables, a través de sistemas seguros para el ambiente, que garanticen, además, organismos sanos y una alta producción (Little et al. 2016). Algunas estrategias que se han propuesto para el tratamiento de los efluentes acuícolas son, los humedales artificiales, los estanques de tratamiento de tierra o el intercambio de agua; sin embargo, estos sistemas, al igual que muchas otras tecnologías que emplean tratamientos fisicoquímicos o tecnologías convencionales de tratamiento biológico, presentan inconvenientes de baja eficiencia-costo, alto consumo de energía (sistemas de bombeo y aireación), gastos en la adquisición de tierra o la generación de una gran cantidad de lodo (Sajana T. K. et al. 2014a; Sun et al., 2020). En cultivos intensivos, los Sistemas de Recirculación en Acuicultura (SRA) han sido ampliamente utilizados, debido a que muestran ciertas ventajas, como un consumo menor agua y una mejora en la gestión de desechos, mediante la recirculación y reutilización de nutrientes a través de biofiltros (Zou et al. 2018). Sin embargo, la acumulación de nitrógeno juega un factor significativo en el deterioro del agua en los SRA (Sander et al. 2018). En años recientes, ha surgido una tecnología prometedora y más eficiente para la remediación in situ de efluentes de acuícolas. Se refiere al uso de Celdas de Combustible Microbianas (CCM) tecnología que se basa en el uso microorganismos electrogénicos para degradar contaminantes orgánicos e inorgánicos presentes en aguas residuales y simultáneamente convertirlos en electricidad (Sajana et al. 2013; Xu et al. 2015). Como parte de las actividades del Programa Verano de la Investigación Científica y Tecnológica del Pacífico 2020, se realizó una revisión bibliográfica sobre diferentes tipos de CCM que han sido propuestas para el tratamiento y generación de energía en sistemas acuaculturales. Se describe, además, la eficiencia de remoción de contaminantes y los rendimientos en términos de producción de energía, para cada celda, tomando en cuenta las condiciones bajo las cuales se operaron (tipo de sustrato, pH y distancia de electrodos).



METODOLOGÍA

Con el propósito de reunir las publicaciones de interés, se realizó una búsqueda sistemática para seleccionar los artículos científicos por medio de las bases de datos Scopus (Elsevier) y Google Académico. En el proceso de búsqueda se utilizaron las palabras claves aquaculture y microbial fuel cell; obteniéndose un total de 14 artículos. La base de datos bibliométrica se analizó con el software VOSviewer ver 1.6.1.5 para identificar las co-ocurrencias o apariciones conjunta de dos términos, lo que permite identificar la estructura conceptual y la temática del dominio científico. Esta revisión bibliográfica se hizo con la intención de conocer el estado del arte actual con respecto al uso potencial de las celdas combustibles microbianas para el tratamiento de aguas residuales de la acuicultura y la cogeneración de electricidad.


CONCLUSIONES

En este trabajo, se realizó una revisión bibliografía sobre el uso de nuevas tecnologías que permitirán a futuro desarrollar sistemas de acuicultura más eficientes y con un mínimo impacto al ambiente. En este sentido, las CCM resultan una tecnológica innovadora que juega un papel fundamental para hacer frente a los desafíos de la intensificación sostenible de la acuicultura. A la fecha, se requieren de más investigación, debido a que muchos de los datos obtenidos provienen de estudios realizados con aguas residuales sintéticas bajo condiciones de laboratorio. Sin embargo, se ha comprobado que el uso de las CCM en acuicultura, resulta una tecnología eficiente para la eliminación de compuestos orgánicos (heces y alimento no consumido) e inorgánicos (NAT y nitritos) mediante la generación de electricidad. A pesar de que estos dispositivos todavía tienen la limitante de no generan mucha electricidad, no excluye su aplicación para el tratamiento de aguas residuales, y la energía generada podría utilizarse para alimentar sensores que monitorean los sistemas de tratamiento (p. ej. electrodos de temperatura y pH) o como análogos del sistema de aireación de los cultivos.
de la Torre Cruz Salma Galilea, Instituto Politécnico Nacional
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

APP PARA PERSONAS CON DISCAPACIDAD AUDITIVA


APP PARA PERSONAS CON DISCAPACIDAD AUDITIVA

de la Torre Cruz Salma Galilea, Instituto Politécnico Nacional. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La discapacidad auditiva se puede entender como la falta, disminución o pérdida de la capacidad para oír en algún lugar del aparato auditivo y no se aprecia porque no tiene características físicas que la demuestren. Las causas de esta discapacidad pueden ser congénita, hereditaria o genética, esta última es la más importante y es poco probable prevenirla. La discapacidad auditiva también se llega a adquirir por problemas de partos anormales, causa fetal o materna, por otitis media y meningitis bacteriana, que producen un lento deterioro en la audición o por ruidos de alta intensidad. De 5 millones 739 mil 270 personas con discapacidad que viven en México, 12.1% son sordas, es decir 694,451 habitantes del país padecen deficiencia auditiva, de acuerdo con cifras del Censo de Población y Vivienda más reciente, realizado por el Instituto Nacional de Estadística y Geografía (INEGI). Uno de los problemas que se presenta con las personas que viven con esta discapacidad llegan a enfrentan graves problemas para desenvolverse en la sociedad, debido a que es difícil detectar una fuente de sonido, identificar un sonido o continuar con una conversación. Por lo que en este verano de investigación se desarrollará una aplicación Speech-To-Text, esto para facilitar a las personas llevar a cabo una conversación y que todos se sientan incluidos en la misma.



METODOLOGÍA

Para este proyecto era necesario tener conocimientos de programación, por lo que un mes antes de comenzar con el verano de investigación, el investigador me recomendó comenzar a trabajar con Android Studio, para poder realizar de manera eficaz el proyecto y poder tener un conocimiento más amplio del funcionamiento de Android Studio, por lo que comencé un curso por medio de videos en internet para poder aprender a programar en Java, y posteriormente aplicar mis conocimientos de programación en Android Studio. La primera semana del verano de investigación se comenzó con la definición del proyecto en el que se trabajaría, pues entre varios temas a escoger decidí trabajar con el desarrollo de una aplicación para ayudar a personas con una discapacidad auditiva, en esa misma semana se llevó a cabo una investigación acerca de la discapacidad auditiva, recabando algunos datos que fueron utilizados en el planteamiento del problema. En la primera etapa del desarrollo de la aplicación Speech-To-Text, realicé una lectura del libro titulado Android Programming for Beginners del autor John Horton, el cual me fue compartido por el investigador además de otros proyectos que podían ser de utilidad para comenzar a desarrollar la aplicación. En la segunda etapa del proyecto, comencé con a revisar los diferente proyectos que ya tenían un panorama más claro de lo que se tenía que realizar para programar el funcionamiento de la aplicación, por lo que recabé diferentes partes en el aspecto de la programación que me serían útiles para poder realizar la aplicación Speech-To-Text, además de conocer cada una de las partes por la que la aplicación funciona de una manera más detallada y en caso de encontrar errores poder corregirlos, o realizar mejoras a la aplicación. La tercera etapa de la aplicación fue la realización del diseño de la aplicación al estar en un dispositivo móvil, por lo que para realizar esta parte estuve investigando la parte de diseño en Android Studio, pues quería diseñar una interfaz sencilla y fácil de comprender para cualquier persona que pudiera llegarla a emplear, por lo que esto se pudo lograr gracias a la investigación realizada previamente. Previo a la etapa final del proyecto se presentaron problemas en el archivo de la aplicación, pues se perdió la parte de programación y el diseño de la aplicación, debido a que no se pudieron recuperar esas partes del archivo, tuve que volver a realizar las partes que ya no se encontraban en el documento por lo que esto tomó una semana más, retrasando la realización de pruebas que se tenía prevista en esa semana, además de presentarse algunos errores de compilación, que también tuvieron que ser corregidos en la misma semana. En la etapa final de la aplicación se realizaron las pruebas de la misma pero en un dispositivo móvil, por lo que los resultados de la primera prueba no fueron los esperados, pues al momento de abrir la aplicación en el dispositivo móvil, la aplicación no se podía abrir. En la segunda prueba, la aplicación si se podía abrir y su funcionamiento era el correcto, pero en la parte del diseño había problemas visuales. La tercera y última prueba fueron exitosas, pues en esta prueba la aplicación se abrió correctamente, la función de la aplicación fue la correcta y el diseño de la misma era el adecuado, por lo que la tercera prueba fue la que me dio pauta para poder dar por terminado el proyecto.


CONCLUSIONES

Gracias a este verano de investigación virtual, pude adquirir conocimientos de programación en Java enfocados al programa para la creación de aplicaciones llamado Android Studio. En el aspecto de la aplicación desarrollada en este verano, creo que puede llegar a ayudar a que las personas puedan tener una conversación con alguna persona que tenga una discapacidad auditiva, pues este era uno de los problemas que se planteó en este resumen, por lo que esta aplicación cumple con el objetivo de que se pueda realizar una conversación inclusiva con cualquier persona o grupo social.
de Leon Moreno Fernando, Instituto Tecnológico Superior de Las Choapas
Asesor: Mtra. Xochitl Clemente Parra, Universidad Tecnológica de La Selva

PROTOTIPO DE PLATAFORMA WEB PARA EL USO DE LA GAMIFICACIóN EN ESTUDIANTES DE EDUCACIóN SUPERIOR


PROTOTIPO DE PLATAFORMA WEB PARA EL USO DE LA GAMIFICACIóN EN ESTUDIANTES DE EDUCACIóN SUPERIOR

de Leon Moreno Fernando, Instituto Tecnológico Superior de Las Choapas. Asesor: Mtra. Xochitl Clemente Parra, Universidad Tecnológica de La Selva



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con los resolutivos de la conferencia mundial sobre la educación superior de la unesco (2009), los principales retos de este nivel educativo en el siglo XXI se centran en la comprensión de los complejos problemas de las sociedades y en su capacidad para hacerles frente. La educación superior en México está comprometida con el desarrollo de las destrezas y habilidades que permitan a los profesionales gestionar la calidad de la producción y los servicios que se necesitan para competir a nivel mundial.   La mayor problemática que se presenta, es que la mayoría de los estudiantes no cuentan con las herramientas suficientes para analizar correctamente los problemas y así poderle dar la mejor solución, por ello mediante la gamificación se implementarán actividades que ayuden al estudiante a desarrollar un aprendizaje rápido y apropiado.   Para ello es necesario, crear un sitio web, el cual contará con diferentes juegos, actividades y materiales que ayuden al estudiante a obtener los conocimientos mediante el juego.    



METODOLOGÍA

Se inició con el análisis del sitio Web, esto es lo mas importante ya que a partir de aquí permitió aclarar y definir de manera básica las expectativas en torno a la aplicación Web e interacción que se va a generar, para esto comenzamos a darle respuesta a un grupo de interrogantes: ¿Para qué se necesita el sitio Web? ¿Qué es lo que buscaran los usuarios en el sitio web? ¿Qué servicios interactivos se integrarán en el sitio Web? A partir de las preguntas se plantearon los objetivos a lo queríamos llegar con el prototipo, esto nos ayudó para poder medir la efectividad de las acciones que se desarrollen. Establecimos tres puntos primordiales para la selección, los cuales son: definir los usuarios, lo que los usuarios esperan de la visita y por último que se pretende comunicar a través del sitio Web, también podemos denominarlos selección de usuarios, expectativas del usuario y expectativas de nosotros como desarrolladores. Una vez concluida la selección de objetivos procedimos a seleccionar los usuarios, en este caso utilizamos dos tipos de usuarios: Usuario alumno. Usuario administrador. La aplicación Web contará con dos usuarios, el usuario alumno que consta de los siguientes beneficios, el jugador tiene que lograr avanzar por tres niveles el cual cada uno de los niveles habrá nuevas actividades y nuevos retos. Al avatar se le podrá hacer ciertas modificaciones para hacerse lo más parecido al estudiante. Se personalizará el color de ojos, rostro, cabello y etc. El jugador será recompensado con puntos o medallas que destaquen sus logros obtenidos detal manera que logre obtener avance en las actividades propuestas, las actividades serán apoyadas con materiales didácticos como lo son; narración, textos, videos,hipervínculos entre otros. El usuario administrador es el encargado de asignar las actividades y logros que obtendrá el jugador. La audiencia o población es la que se pretende alcanzar o influir con el sitio Web es a Universitarios; esto esta estrechamente vinculado con la naturaleza del sitio debido a que de lo que teníamos hasta esta etapa se empezaron a delimitar: Criterios de diseño del contenido. Lenguaje. Estética. Entre otros. Una vez realizado todo lo anterior delimitaremos los requerimientos técnicos para el sitio Web, seleccionamos la estructura y planeamos el orden para que el sitio este bien organizado. Antes de pasar a la programación seleccionamos el software; es decir, el sistema operativo, servidor, editorás para el diseño Web, lenguajes de programación, animaciones y otros componentes. El hardware es de vital eficiencia para nuestra aplicación, el equipo servidor, la capacidad de respuesta, terminales entre otros. Una vez que tenga el diseño, es importante estructurar la navegación, a partir de la pagina principal se vinculan mediante enlaces al resto de las páginas. Finalmente, se realiza la documentación de la propuesta del sitio.


CONCLUSIONES

Durante la estancia de verano logre adquirir conocimientos teóricos de la gamificación y la importancia que conlleva desarrollar prototipos, estos son de gran importancia en la investigación debido a que en esta fase es donde se pone a prueba la funcionalidad del sitio web o aplicación y puedes verificar cómo tus ideas en papel y bocetos se trasladan a la realidad, a un modelo interactivo. Puedo decir que gracias a los prototipos podemos descubrir los errores y las posibles mejoras que puedes realizar a tu aplicación o sitio web.
de los Santos Ramos Constantino, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Ernesto García Sánchez, Instituto Tecnológico Superior de Guanajuato

PRUEBAS DE CLASIFICACIÓN DE TEXTURAS CAPTURADAS FUERA DEL LABORATORIO MEDIANTE OPERADORES LBP


PRUEBAS DE CLASIFICACIÓN DE TEXTURAS CAPTURADAS FUERA DEL LABORATORIO MEDIANTE OPERADORES LBP

de los Santos Ramos Constantino, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Ernesto García Sánchez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El campo de la visión artificial suele apoyarse del área del procesamiento de imágenes, y dentro del procesamiento de imágenes un problema de especial interés es el tratamiento de las imágenes de textura. La textura visual es una característica de muchos objetos, pero trabajar con ella resulta retador por los problemas que presenta, como lo son los diversos grados de variación (desde texturas muy ordenadas hasta aquellas que presentan grandes variaciones), efectos de perspectiva, escalamientos y mucho más. En este trabajo se propone la identificación de objetos mediante la textura visual, sin embargo, a diferencia de otros trabajos que han realizado este tipo de estudio capturando las imágenes de textura en condiciones de laboratorio, el problema a abordar es la identificación de imágenes de textura capturadas en condiciones fuera de laboratorio.



METODOLOGÍA

Para implementar el clasificador se usó el lenguaje de programación Python. Para resolver el problema se procedió a desarrollar funciones para recibir imágenes a color, que fueron convertidas a imágenes en escala de grises, y a partir de éstas últimas obtener su representación como vectores de patrones locales binarios (LBP, por Local Binary Pattern). Cada vector LBP tiene la información de la probabilidad de ocurrencia de patrones encontrados en la imagen mediante una ventana de inspección. Esta representación de la imagen es usada por el sistema de clasificación. Para probar el sistema de clasificación se eligieron objetos, presentes en el entorno en los que se observó textura, tales como muro, pasto sintético, tela estampada, entre otros. Las imágenes de textura de los objetos fueron capturadas desde un plano frontal, no especificando una distancia ni iluminación exactas. A partir de las fotografías se seleccionaron dos conjuntos de muestras de imágenes de textura, uno para generar la base de conocimiento del sistema y otro para la realización de pruebas de reconocimiento de las texturas de los objetos. Así, durante el aprendizaje el clasificador extrajo los vectores LBP de imágenes de textura de diferentes objetos que luego fueron almacenados en una matriz. Posteriormente cada imagen de prueba fue procesada por el sistema y éste comparó el vector LBP de la imagen de prueba con cada uno de los vectores de la matriz de conocimiento, asociando la imagen de prueba a la clase con la cual sus vectores LBP tuvieron la menor diferencia. Finalmente, el clasificador emitió un resultado numérico que indica el número de clase de objeto resultado de la clasificación, y una etiqueta que indicó el objeto al cual pertenece la textura clasificada.


CONCLUSIONES

Se implementó un sistema de clasificación de imágenes de textura capturadas en condiciones no controladas en forma estricta. Los resultados de la prueba de clasificación con las imágenes utilizadas fueron totalmente satisfactorios, aunque aún falta realizar pruebas extensivas con un número mayor de texturas de objetos, esto muestra el potencial de la LBP para desarrollar aplicaciones avanzadas, de reconocimiento de objetos texturizados, como lo sería un módulo de reconocimiento basado en visión de un robot de servicio, entre otros.
del Ángel Castillo César Humberto, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

GESTIóN AMBIENTAL PARA LA AGENDA DEL DESARROLLO SUSTENTABLE 2030: PLAN ESTATAL DE DESARROLLO DE TAMAULIPAS, MéXICO”


GESTIóN AMBIENTAL PARA LA AGENDA DEL DESARROLLO SUSTENTABLE 2030: PLAN ESTATAL DE DESARROLLO DE TAMAULIPAS, MéXICO”

del Ángel Castillo César Humberto, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La gestión ambiental debe estar orientada, a la regulación de conductas y fenómenos que tienen que ver con la generación de condiciones materiales que permitan el desarrollo de la vida en todas sus formas, con la intención de satisfacer las necesidades de las generaciones presentes sin comprometer las de las generaciones futuras. Ello debe implicar, además, la revisión y adecuación casi permanente de los marcos jurídicos e institucionales, La transversalidad de las políticas públicas contribuye al cumplimiento del mandato contenido en la Ley de Planeación, el cual establece la obligación de las dependencias de la Administración Pública Federal /APF), de coordinar sus planes y programas en pro del desarrollo sustentable del país. En la Cumbre para el Desarrollo sostenible, que se llevó a cabo en septiembre de 2015 los estados miembros de la ONU aprobaron la Agenda 2030 para el Desarrollo Sostenible, que incluye un conjunto de 17 Objetivos de Desarrollo sostenible (ODS) para poner fin a la pobreza, luchar contra la desigualdad y la injusticia, y hacer frente al cambio climático. Objetivo General: Identificar la gestión ambiental y su alineación estratégica en energía y medio ambiente del Plan Estatal de Desarrollo de Tamaulipas, (PED - Tamaulipas), administración 2016 - 2022, respecto al objetivo 12.- Consumo Responsable y Producción, perteneciente a la Agenda del Desarrollo Sustentable 2030, a fin de evaluar la Sustentabilidad Ambiental en la Gestión Integral de los Residuos Sólidos Urbanos



METODOLOGÍA

A lo largo de las siete semanas de duración de la estancia de investigación virtual por motivos de la Pandemia, en el diseño de la estrategia del diagnóstico a realizar en la línea de investigación Se enuncia a continuación, fundamentado en tres grandes rubros: •             Utilización y Apoyo de Tecnologías de Información, por medio de la planeación y organización de reuniones virtuales en Zoom, por parte del Asesor - Investigador en Temáticas de: a).- Concepto  y Tipos de Investigación, b).- Estructura de Protocolos, c).- Medioambiente y Desarrollo Sustentable, d).-Gestión Ambiental, e).- Planeación Ambiental y f).- Objetivos del Desarrollo Sustentable 2030; así como comunicación directa vía llamada telefónica al celular del Asesor - Investigador, mensajes vía WhatsApp, intercambio de información por medio de correos electrónicos institucionales, entre otros. •             Se facilito por parte del Asesor - Investigador información en documentos PDF, de las Temáticas para lectura, análisis y exposición por parte del estudiante, respecto a la conceptualización de la línea de investigación a desarrollar. •             Planteamiento de la Estructura y conformación para su análisis de los apartados a desarrollar en el Informe del Diagnóstico Ambiental •             Acopio, análisis y reflexión en los apartados de introducción, antecedentes y descripción de los rasgos físicos, biológicos y socioeconómicos de la zona en estudio, vinculada a la línea de investigación por realizar. •             Acopio y análisis de Información estadística especializada en la línea de investigación para redacción e integración del Informe. •             Estudio comparativo de las Estrategias y Líneas de acción del Plan de Desarrollo Municipal, con respecto al Objetivo número 12.- denominado: Consumo Responsable y Producción, que forma parte de los 17 Objetivos del Desarrollo Sustentable 2030.  


CONCLUSIONES

Para esta primera fase del diagnóstico del PED , se enuncian los siguientes resultados: se identificaron el objetivo 3.5.1 de impulsar políticas sustentables de protección y conservación del medio ambiente y el aprovechamiento de los recursos naturales, con la Estrategia de mantener el equilibrio del medio ambiente, impulsando políticas y acciones que fomenten la disminución de contaminantes y el desarrollo sustentable y dos líneas de acción vinculadas con Residuos Sólidos, siendo la primera la número 3.5.1.9.-  el de impulsar la elaboración de programas municipales para la prevención y gestión integral de los residuos sólidos urbanos, y la segunda la número 3.5.1.10.-  de promover la construcción de centros para el manejo integral de residuos sólidos que incorporen la mejor tecnología y las experiencias internacionales; así mismo la corresponsabilidad en el marco jurídico federal, estatal y municipal, y los Instrumentos de política Ambiental respecto al Estado y el Municipio en Impacto Ambiental, Ordenamiento Ecológico del Territorio, Educación Ambiental y Participación Comunitaria. Presentando las siguientes Conclusiones, en función de las  siete semanas de duración en la estancia de investigación virtual , en esta primera fase del diagnóstico, se identificaron, analizaron y caracterizaron los componentes del PED respecto a los objetivos trazados, quedando pendiente evaluar la Sustentabilidad Ambiental en la Gestión Integral de los Residuos Sólidos Urbanos, considerada hasta el momento como una segunda fase;  Manifestando el interés por parte del estudiante, de continuar con el Proyecto como Tesis de Licenciatura, siendo parte de su  Proceso de Titulación y Ratificando el Asesoramiento del Tutor de Investigación en la Estancia Virtual de Verano de Investigación, Edición XXV del Programa Delfín  2020.
del Pilar Reyes Miriam Yaneth, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

PROTECCIóN CATóDICA DE ESTRUCTURAS DE CONCRETO REFORZADO USANDO áNODOS GALVáNICOS DE ZINC.


PROTECCIóN CATóDICA DE ESTRUCTURAS DE CONCRETO REFORZADO USANDO áNODOS GALVáNICOS DE ZINC.

del Pilar Reyes Miriam Yaneth, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El hormigón reforzado como elemento estructural consta del uso de concreto que en su interior llevara barras o mallas de acero, llamadas también armaduras, que bajo la apariencia pétrea que posee, durante mucho tiempo se pensó que su durabilidad era infinita, sin embargo, al estar expuesta a las condiciones naturales y agentes agresivos, se ha demostrado que sufre de una degradación paulatina físico- química, llamada CORROSIÓN. A lo largo de los años se ha estudiado el fenómeno de corrosión y la manera de poder minimizarla para aumentar la durabilidad y funcionalidad correspondiente, dando lugar a los métodos de protección y control de corrosión, que se basan en eliminar alguno de los cuatro elementos que conforman la celda de corrosión. En particular nos enfocaremos a la protección por ánodos de sacrificio, que implica la conexión eléctrica entre el refuerzo y un material más activo que el acero, el cual actuaría como el ánodo.



METODOLOGÍA

El hormigón armado es utilizado como elemento estructural debido a las características que sus propiedades presentan, es decir, su resistencia mecánica. Se caracteriza por ser una mezcla de agregados (finos, gruesos), cemento, acero y agua. Al entrar en contacto el agua con el cemento se endurece al producir la hidratación del aglutinante. Bajo estas condiciones el concreto es un sólido compacto y denso, pero también poroso. Esto se debe a que después del fraguado, la parte del agua que no se utilizó para la hidratación se evapora y en consecuencia se crea una red de poros, que hace a la estructura más susceptible a que cuando este en el exterior los agentes agresivos puedan entrar incluso hasta la armadura. La corrosión en estructuras de concreto reforzado es el deterioro masivo del acero y del concreto. Para que la corrosión tome lugar en alguna estructura se necesita de la formación de una celda electroquímica, la cual consiste en cuatro elementos principales: Ánodo: Fe = Fe2+ + 2e-  Reacción de oxidación. Cátodo:  O2 + 2H2O + 4e-  = 4OH- Reacción de reducción. Conductor eléctrico: Contacto eléctrico ánodo/cátodo (Armadura). Conductor iónico (electrólito): Hormigón. Los principales agentes que propician mayormente a la corrosión son: Carbonación: Reacción del dióxido de carbono de la atmósfera con las sustancias alcalinas de la solución. Presencia de iones cloruro: Al alcanzar el acero de refuerzo rompen localmente la capa pasiva. Parcialmente o en su totalidad el avance de la corrosión y del desgaste, se da principalmente por la falta de mantenimiento y control de la infraestructura, lo que provoca un daño irreversible en casos extremos. De lo contrario, la calidad y la duración de las reparaciones de estructuras de hormigón armado dependen de la correcta evaluación y de un acertado diagnóstico del problema, basados en adecuados procedimientos de inspección. La protección catódica es una técnica de prevención, control y reparación que consta de un sistema donde se utilizan materiales más electronegativos que la estructura que deseemos proteger y estos se sacrifican en lugar de la estructura protegida, se basan en la entrega de electrones debido a la energía que estos metales tienen dentro de una serie galvánica de corrosión. Los materiales anódicos más comunes son: el aluminio, el magnesio y el zinc. El zinc es el denominado pionero de protección catódica, ya que, tiene un valor relativamente elevado de su potencial de disolución, que le confiere un alto rendimiento de corriente. Cuando se hace uso de ánodos galvánicos de zinc, la celda de corrosión se forma artificialmente en donde nosotros mediante una implementación conectamos la masa anódica de los ánodos con la estructura para que estos cedan a través del electrolito la carga que necesitan para protegerse.  Este proceso tiene diversas ventajas tal es el caso de que no se necesita una fuente de corriente, ni de un regulador de voltaje, no provoca problemas de interferencia, permite obtener una distribución de corriente uniforme, además de que se puede aumentar el número de ánodos, con el sistema en operación. En cuanto a manteniendo, en vista de que el sistema es relativamente sencillo, las únicas tareas de mantenimiento para el correcto funcionamiento son las del reemplazo de los ánodos de sacrificio luego de cumplir su ciclo de vida útil y la revisión en el estado de cables y estados de medición. A pesar de los años que este método ha sido utilizado existen varias desventajas como lo son la reacción álcali-sílice, daño en el acero por absorción de hidrógeno y la reducción de la adherencia entre el acero y el concreto.


CONCLUSIONES

La protección de estructuras de concreto reforzado utilizando ánodos galvánicos de Zinc, fue creado para poder controlar y minimizar a la corrosión, presenta grandes expectativas y alcances muy comprometedores en el mundo de la innovación tecnológica de la construcción, pues es una problemática que afecta en la actualidad nuestro día a día. Pienso que, al trabajar mayor mente con este proyecto, se pueden seguir desarrollando diversas mejoras e innovando cada vez más para poder detallar mayores especificaciones para una ejecución exitosa. La estancia del programa en su nueva modalidad virtual, me ha dejado conocimientos sobre corrosión, y su desarrollo en una celda electroquímica, causas y consecuencias dentro de la construcción de infraestructura. A pesar de no haber realizado la estancia presencial, el compromiso que tuvo nuestro asesor fue el mismo, ya que nos inculco la cultura de siempre querer investigar, conocer y aprender estrategias de desarrollo y solución a problemáticas actuales. Lo cual nos ayuda a prepararnos cada vez más para nuestro campo laboral y profesional, actuando siempre con ética.
Delgadillo Lopez Juan Ignacio, Universidad Autónoma de Nayarit
Asesor: Dr. Dixon Salcedo Morillo, Universidad de la Costa

ANáLISIS Y EVALUACIóN DE HERRAMIENTAS DE ESTIMACIóN DE ANCHO DE BANDA DISPONIBLE MíNIMAMENTE INTRUSIVAS


ANáLISIS Y EVALUACIóN DE HERRAMIENTAS DE ESTIMACIóN DE ANCHO DE BANDA DISPONIBLE MíNIMAMENTE INTRUSIVAS

Delgadillo Lopez Juan Ignacio, Universidad Autónoma de Nayarit. Asesor: Dr. Dixon Salcedo Morillo, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El crecimiento de la demanda del tráfico en Internet y la necesidad de ofrecer servicios para alcanzar mejor rendimiento en las aplicaciones; han crecido simultáneamente con las infraestructuras cableadas e inalámbricas de telecomunicaciones. Igualmente, se han generado métricas para evaluar y administrar servicios de red. La estimación del Ancho de Banda Disponible (ab_disp) ha tomado gran importancia; debido a que es una métrica importante para la optimización del Calidad del Servicio (QoS), específicamente en protocolos de enrutamiento en redes Internet. Lo anterior, Esto justifica los esfuerzos en realizar mejores estudios comparativos del comportamiento de las herramientas de estimación de ab_disp. Por otra parte, los estudios no muestran un análisis real de los efectos que causa el rendimiento del flujo del tráfico en una infraestructura de red segmentos troncales inalámbricos, como la capacidad real del enlace, perdida de paquetes, latencia real, entre otras. En consecuencia, surge la necesidad de tener estudios para conocer el estado real del tráfico de datos.  Este proyecto pretende evaluar el rendimiento de las herramientas de estimación de ancho de banda disponible mínimamente intrusivas, en redes de alta velocidad; con el objetivo de conocer su comportamiento respecto a nivel de intrusión (overhead), precisión (error relativo), tiempo de estimación. Lo anterior, permite que la comunidad científica del área de calidad de servicio en redes de computadores tenga información actualizada de las herramientas evaluadas; y así, aportar a esta área de conocimiento.  



METODOLOGÍA

En esta investigación se implementó una metodología experimental, en donde se observó, manipuló, controló  y llevó un registro de las variables que intervienen en la evaluación del ab_disp. Por lo tanto, para el desarrollo de la investigación se utilizó una infraestructura especializada de red (testbed); en donde se evaluaron las herramientas de estimación de ab_disp. Para lograr lo anterior, inicialmente se instaló un generador de tráfico sintético de paquetes. Luego, se instalaron las herramientas de estimación en el testbed. A continuación, se diseñaron y se ejecutaron los experimentos. Por último, se tabularon y se analizaron los resultados obtenidos de las evaluaciones realizadas; lo que permitió obtener las conclusiones.  


CONCLUSIONES

El desarrollo de este trabajo permitió avanzar en dos aspectos. El primero, se enfocó en el conocimiento de las herramientas de las herramientas de estimación de ab_disp, de tipo activas; que permitieron conocer el comportamiento de las herramientas en diferentes escenarios. El segundo aspecto, estuvo enmarcado por el diseño, configuración, e implementación de un testbed de red especializado; donde se evaluaron las principales herramientas de estimación, tales como Pathload, Traceband y Trace-TCP. Finalmente, se pudo comprobar que las herramientas mencionadas tienen dificultades en la precisión cuando se trabaja en entornos de redes de alta velocidad (de 1.0 Gbps o superiores). Por lo tanto, esta investigación abre la puerta a futuros trabajos, que permita diseñar e implementar mejores herramientas que soporten enlaces de mejor rendimiento.  
Delgado Vega Brenda del Rosario, Instituto Tecnológico Superior de Guanajuato
Asesor: M.C. Ismael Urbina Salas, Instituto Tecnológico Superior de Guanajuato

IMPRESORA 3D CON TECNOLOGíA IOT


IMPRESORA 3D CON TECNOLOGíA IOT

Delgado Vega Brenda del Rosario, Instituto Tecnológico Superior de Guanajuato. Sampayo Sebastian Berenice, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Ismael Urbina Salas, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente la manufactura de piezas por medio de impresoras 3D se ha vuelto muy habitual, debido a la gran velocidad para obtener las piezas, que además vienen con una buena calidad y a un bajo costo. Permitiendo agilizar el periodo de producción, ya que minimizan el tiempo de trabajo en cualquier área (mecánica, eléctrica, electrónica, etc.). El proyecto titulado Impresora 3D con tecnología ioT, se fundamenta en la construcción de una impresora 3D de modelo artesanal con componentes electrónicos obtenidos de aparatos electrónicos en mal estado, el cual tiene como objetivo diseñar un objeto en cualquier programa CAD (Diseño Asistido por Computador) e imprimir el diseño en la realidad por medio de la impresora 3D y así obtener un objeto tridimensional.



METODOLOGÍA

Para el cumplimiento del objetivo, antes descrito, se prosiguió a realizar las piezas de acrílico manualmente, esto para la elaboración de la estructura de la impresora 3D, así mismo como su ensamblaje y las pruebas de la programación de los controladores para su correcto funcionamiento. Esto con el fin de que sea capaz de producir un diseño 3D creado con el ordenador en un modelo 3D físico (real).


CONCLUSIONES

El presente proyecto de investigación busca tener tanto un impacto social como un impacto ambiental en donde se desarrollará y aplicará ya que se incentivará a utilizar residuos de plásticos convertidos en filamentos para impresora 3D por medio del desarrollo de una máquina de inyección de plástico, cuya función consista en que por medio de un molino se destruya y se empuje el plástico mediante un torno, para posteriormente disolverlo y deslizarlo por una boquilla que hace que el plástico salga como un filamento muy delgado el cual es el material imprimible de la impresora 3D.
Díaz Aguilar Octavio, Universidad Autónoma de Tamaulipas
Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas

TRADUCTOR LENGUAJE DE SEñAS MEXICANO


TRADUCTOR LENGUAJE DE SEñAS MEXICANO

Díaz Aguilar Octavio, Universidad Autónoma de Tamaulipas. Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Como seres humanos tenemos la necesidad de comunicarnos es por ello que el presente proyecto tiene la finalidad de darle voz a los que no la tienen, para ello se tiene la necesidad de un software que nos ayude a interpretar el lenguaje de señas mexicano a texto y viceversa. Las características con las que se cuenta, es una interfaz intuitiva y sencilla de usar, con esto lograr que mayor cantidad de personas tengan la capacidad de utilizar y que no requieran de una gran explicación para poder ejecutarlo.



METODOLOGÍA

La manera en que se realizó el proyecto fue probando diversas maneras de asignar la correspondiente señal según letra que se encuentre en la palabra o frase introducida, esto primero se hizo mediante diccionarios y posteriormente con condicionales. De las propuestas de mejora que se tienen en cuenta, es asignar una seña por palabra, ya que traducir una frase letra por letra es bastante tardado y en casos se entrelazan las palabras, también se tiene pensado trasladar el proyecto de un software de ordenador hacía una app móvil.


CONCLUSIONES

Se obtuvieron las bases necesarias para hacer que el proyecto despegara, toda la información recopilada tiene la finalidad de que se apoye a las personas sordomudas y a las personas convencionales a que se puedan comunicar entre sí, el producto final llamado ‘Traductor de Lenguaje de Señas Mexicano’ el cual ocupa 359 KB de espacio y un aproximado de 15 MB de memoria RAM. El objetivo que se tiene es convertir el proyecto en una aplicación móvil para que se pueda usar en el día a día y sea más accesible ya que no todos cuentan con un ordenador.
Díaz Angel Benazir, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla

MODELADO DE PROPIEDADES ESTRUCTURALES, ELECTRóNICAS Y MECáNICAS DE NANO-MATERIALES.


MODELADO DE PROPIEDADES ESTRUCTURALES, ELECTRóNICAS Y MECáNICAS DE NANO-MATERIALES.

Díaz Angel Benazir, Benemérita Universidad Autónoma de Puebla. Rivera Peralta Diana, Benemérita Universidad Autónoma de Puebla. Valdivieso Salinas Heber, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La ciencia e ingeniería de los materiales se encarga de la estructura y composición de los mismos para controlar sus propiedades a través de la síntesis (cómo se fabrican) y el procesamiento (cómo se transforman).  Los materiales pueden diferenciarse por su naturaleza, orgánica o inorgánica logrando así su clasificación en metales, cerámicas y vidrios, polímeros, semiconductores y materiales compuestos. De acuerdo a su funcionalidad tenemos otra clasificación: aquellos que se utilizan en la industria aeroespacial como los compuestos de carbono, los utilizados en la electrónica como el cobre, etc. Las propiedades que a cada uno le corresponden hace que sean los adecuados para uno u otro campo, su estructura habla por sí misma para decidir si es totalmente resistente, cómo absorbe la energía, si el peso es el óptimo, qué tan bien reaccionan a los efectos adversos y algo importante: qué tan factible es llevar a cabo ese proyecto ¿será lo suficientemente bueno económicamente tanto en producción como en ganancia? Dependerá de cada uno de los ingenieros encargados del proyecto buscar y crear los mejores materiales. Para poder producir estos materiales se utilizan programas de simulación, en este proyecto fue Forcite Plus.  



METODOLOGÍA

Previamente a utilizar el programa se realizaron lecturas para conocer la forma en la que este trabajaba y, en general, la forma en la que se trabaja en ingeniería de materiales:  En la primera lectura se dieron a conocer los métodos de mecánica molecular los cuales están basados en la mecánica clásica, en donde se representa a los átomos como dos esferas que se tocan, unidas por resortes para simular los enlaces que existen entre estos lo cual obedece a la ley de Hooke. Podemos representar el potencial debido al alargamiento (Valarg) en una gráfica, y = Energía, x = posición: dos átomos que se encuentran lo suficientemente separados no van a tener ningún tipo de enlace, pero van a atraerse, del lado contrario hay tanto acercamiento que provoca repulsión entre los átomos. Ambos casos nos llevarán, con el paso del tiempo, a una oscilación hasta alcanzar la distancia mínima entre los dos A partir de esto surgen los campos de fuerza representados con la siguiente ecuación:  V= Valarg + Vdef + Voop + Vlor + Vcruz + Vvdw + Velec En donde Valarg: es alargamiento del enlace, Vdef: deformación del ángulo de enlace, Voop: deformación fuera del plano, Vlor: rotación interna alrededor de un enlace, Vcruz: términos cruzados, Vvdw: atracciones y repulsiones de Van der  Waals y Velec: interacciones electrostáticas. Los parámetros de los programas de Molecular Mechanics se refieren a los valores que toman las constantes de fuerza y los valores geométricos al equilibrio. La calidad del campo de fuerza o la precisión de sus predicciones depende tanto de las funciones que describen la energía como de sus parámetros. Para que un campo de fuerza sea útil y proporcione resultados confiables, es necesario que los parámetros de fuerza sean transferibles completamente de una molécula a otra.  En la lectura correspondiente al programa se detalló que Forcite Plus es un conjunto de herramientas para realizar simulaciones clásicas utilizando mecánica molecular. Permite calcular la energía, optimizar la geometría, estudiar la evolución temporal de una estructura que contiene miles de átomos. Las herramientas y tareas de análisis permiten la predicción de propiedades dependientes del tiempo, como la difusión, calcular propiedades mecánicas como el Módulo de Young, predecir la densidad de energía cohesiva y los parámetros de solubilidad, y sondear información estructural. Permite al investigador estudiar problemas como la compatibilidad molecular entre polímeros y moléculas pequeñas, otros polímeros y superficies. Las tareas, permiten la búsqueda de sitios de baja energía y la optimización previa de una estructura antes de realizar cálculos de mecánica cuántica más precisos   Posterior a estas lecturas se eligieron moléculas con las cuales haríamos la optimización geométrica, se calibró el programa y se prosiguió a buscar las moléculas para registrar los resultados.  


CONCLUSIONES

IMIDAZOL: En el campo de fuerza experimental la distancia entre dos átomos de hidrógeno fue de 6.547. En el campo de fuerza universal fue de 6.544Å, con Compass27 6.632 Å y con Dreiding 6.482Å. Lo que nos dice que el campo de fuerza óptimo para esta molécula es el Universal, el más cercano a la cifra arrojada por el campo de fuerza experimental.  ÁCIDO BENZOICO: Experimental 3.214 Å, Universal 3.027Å, Compass 27 3.243Å y en Dreding 3.315Å.  El que más se aproxima al modelo experimental es el campo de fuerza Compass27 que permite la predicción precisa y simultánea de propiedades de fase gaseosa y propiedades de fase condensa. GLICINA: Universal 3,669 Å, Dreiding 3,602 Å, Compass 27: 3,529 Å y Cvff 4,177 Å. El campo a utilizar sería Compass27 lo cual derivaría a resultados con un mínimo margen de error y más cercanos a la realidad. COPROLACTAM:  Experimental 2.992Å, Universal 3.367Å, Dreiding 3.849Å, Compass 27: 3.306Å y Cvff 3.495Å. Los mejores resultados se obtuvieron con Compass27. En este verano fuimos espectadores de cuán importante es el elegir de manera acertada cada una de las moléculas a usar en el desarrollo de materiales, la investigación del doctor llamó nuestra atención debido a que con esto es capaz de cambiar la vida de cada una de las personas que necesita una prótesis y hacer que funcionen como aquello que perdieron, que resistan, que se adapten, que cumplan con las expectativas. Probablemente en la comodidad de consumidor se ignora el proceso antes de que las cosas estén en nuestras manos  de esta forma éste verano ha logrado despertar el instinto por lograr algo que vaya más allá de lo que tenemos en frente, sin duda ha sido una experiencia gratificante para entender que las pequeñas cosas hacen la diferencia.
Díaz Avila Adriana, Instituto Politécnico Nacional
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

EXTRACCIÓN Y CLASIFICACIÓN DE DATOS PARA INTERFACES CEREBRO COMPUTADORA (BCI) MEDIANTE SEÑALES P300 Y EEG.


EXTRACCIÓN Y CLASIFICACIÓN DE DATOS PARA INTERFACES CEREBRO COMPUTADORA (BCI) MEDIANTE SEÑALES P300 Y EEG.

Díaz Avila Adriana, Instituto Politécnico Nacional. Lugo Acedo Luz Marey, Universidad Autónoma de Baja California. Xicale Deaquino Rodrigo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Existen distintos potenciales relacionados con eventos, que son respuestas electrofisiológicas estereotipadas a un estímulo internas o externas. En el artículo Comparison of Classification Methods for P300 Brain-Computer Interface on Disabled Subjects (2011) se habla de una onda en específico denominada P300, la cual consiste en un componente de señal positiva mejorada con una latencia de unos 300 ms después del inicio del estímulo que permite una comunicación. Estos eventos P300 vinculan la posibilidad de controlar una interfaz cerebro-computadora, que proporciona canales musculares de comunicación, particularmente para individuos con severos problemas neuromusculares (Krusienski et al., 2010; Manyakov et al., 2011). El objetivo principal de estas interfaces es de crear dispositivos que mejoren la calidad de vida de pacientes con deficiencias neurológicas (Krucoff et al., 2016). Estudios han demostrado que un BCI basado en eventos P300,que se entrena con una cantidad limitada de datos, puede funcionar como un dispositivo efectivo de comunicación, gracias a la posibilidad de controlar un BCI con un electro encefalograma. Para entrenar un algoritmo, hay que alimentarlo con datos registrados con un EEG al ser expuesto el sujeto a estímulos externos para registrar la onda P300 extrayendo y clasificándolos para que eventualmente la máquina lo realice autonomamente, con el objetivo de ayudar en la rehabilitación o la asistencia de una persona con lesiones neurológicas (Krusienski et al., 2010; Manyakov et al., 2011; Krucoff et al., 2016). De esta manera, nos enfocamos en encontrar los métodos de extracción y clasificación de los datos registrados en un EEG que sean más efectivos y precisos con el fin de crear BCI con mejor funcionamiento.



METODOLOGÍA

La EEG es detectada mientras a un paciente se le muestran dos tipos de eventos visuales con uno ocurriendo con menor frecuencia que el otro. Estos dos tipos de estímulos son: flecha y carita feliz. La onda P300 aparece cuando el sujeto hace el conteo del estímulo solicitado. Después estos datos serán los que alimenten al BCI; la primera fase es ingresar el EEG al BCI siendo esto una matriz de datos. Después se definirá su condición a la cual pertenece (Target o non-Target). Estudio 1. Se proporcionó un archivo de datos de una sesión de un paciente con el tipo de estímulo happy face. El modelo de entrenamiento de Machine learning se divide en una secuencia de pasos: Preprocesamiento. Se modifican los datos para ser utilizables para el resto del programa. Se le realiza un filtrado pasa-banda de 4-44 hz, se recorta el tiempo que dura cada training de 0-0.8s, se realizan los vectores que separan los impulsos target de los no target, y se hace una selección aleatoria del 80% de los datos para el entrenamiento del algoritmo, y el resto se usará para la prueba. Esta prueba no balancea los datos target y no target, para pruebas posteriores sí se balancearon. Extracción de características. Para laextracción de los datos se probaron 3 maneras distintas: promediación, decimación (factores 3 y 10) y correlación canónica. Modelos de clasificación. En este corresponde entrenar el algoritmo con los datos generados por el EEG, haciendo la clasificación de los mismos con los siguientes modelos: LDA 1, LDA 2, SWLDA, SVML, SVMG, SVMR y KNN.  Se repite 100 veces el algoritmo desde la selección del conjunto de entrenamiento de prueba, con un método de extracción de características y otro de clasificación seleccionado con el conjunto de prueba y se arrojan métricas de precisión de porcentajes mínimos, máximos, media de porcentajes y la desviación estándar de: exactitud, verdadero positivo, verdadero negativo  y falso positivo para medir el rendimiento de la combinación del modelo de extracción y el modelo de clasificación. Estudio 2. Se escogieron la mejor combinación de métodos de extracción de características y modelo de clasificación del estudio 1. Combinaciones a implementar: SVML con DEC3 y LDA2 con DEC10 usando los datos de la primera sesión del participante 8 la cual contiene los entrenamientos 4,5,6,7,8 y 9. Se graficó el comportamiento de cada entrenamiento con su respectiva combinación de método de extracción y modelo para determinar cuál entrenamiento clasifica mejor el target y el no target.


CONCLUSIONES

Para el Estudio 1, la mejor combinación fue SVML-DEC3 3 ya que para un sistema sin balanceo, se ajusta a una aproximación más pronta en la clasificación, sin embargo, para fines de procesamiento rápido no se recomienda aunque no descartamos la utilización de la combinación LDA2-DEC10 ya que de igual manera para las métricas referentes a TPR y TNR fueron altas con respecto a la clasificación y en comparación a la rapidez del procesamiento es eficaz para sistemas críticos. De acuerdo a los resultados del Estudio 1 el sistema 2 fue entrenado con las combinaciones: SVML-DEC3 y LDA2-DEC10, obteniendo lo siguiente: Al entrenar el sistema con LDA2- DEC10 en balanceo, el entrenamiento 2 favoreció con mayor eficacia la clasificación de target y no-target, teniendo las siguientes métricas: ACC: 78.5 % TPR:72% TNR:72% FPR: 28%. Lo cual significa que el sistema con el entrenamiento 2, clasificó de una manera equilibrada las dos clases de nuestro interés. De igual manera para el sistema sin balanceo usando la misma combinación favorece el entrenamiento 2 de la sesión 1 del participante 8, teniendo en cuenta un total de 6 entrenamientos en la sesión. Se observa una caída paulatina del 4% en la tasa de TPR por cada sesión que se realiza a partir del entrenamiento 2 y un incremento del 1.5%  en la métrica TNR. Entrenando el sistema con el método de extracción de características DEC3 en combinación con SVML, se obtuvo como resultado el entrenamiento 2 capaz de dar mejor clasificación entre target y no target, teniendo como diferencia principal con respecto a los demás entrenamientos una tasa alta de TPR y TNR con un porcentaje de 71% con diferencias mínimas en las dos métricas.
Diaz Cab Gerardo Mauricio, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)

CALENDARIZACIóN óPTIMA DE TORNEOS DEPORTIVOS EMPLEANDO ALGORITMOS METAHEURíSTICOS AVANZADOS


CALENDARIZACIóN óPTIMA DE TORNEOS DEPORTIVOS EMPLEANDO ALGORITMOS METAHEURíSTICOS AVANZADOS

Diaz Cab Gerardo Mauricio, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

El problema consiste en que, si modelamos un torneo deportivo con la teoría de grafos, podemos considerar un torneo con k equipos, n jugadores y m juegos como un grafo k-partito completo de n vértices y m aristas. El problema sería en que los juegos se programen de tal manera que se maximice el tiempo entre los juegos que involucran a un mismo jugador para que el jugador pueda descansar el mayor tiempo posible. Un ejemplo sería un grafo 3-partito completo de  n=9 vértices y m=27 aristas, este grafo permite representar n=9 jugadores organizados en k=3 equipos para un torneo con m=27 juegos. Este problema se conoce como el Problema de Maximización del Antibandwidth en Aristas (EAMP) que consiste en encontrar un etiquetado para las aristas de un grafo tal que la mínima diferencia entre aristas adyacentes sea máxima. El objetivo de este trabajo de investigación es proponer un algoritmo metaheurístico aproximado capaz de resolver el problema de maximización del Antibandwidth en aristas y basado en la metaheurística de tipo método de trayectoria llamada Búsqueda Local Iterada Iterated Local Search (ILS). 



METODOLOGÍA

El algoritmo propuesto para esta investigación está basado en la metaheurística de Búsqueda Local Iterada ILS, este aplica la búsqueda local a una solución inicial hasta encontrar un óptimo local, luego perturba la solución y reinicia la búsqueda local. El algoritmo 1 es el pseudocódigo del ILS propuesto para solucionar el problema EAMP. Algoritmo 1. ILS S0← Genera una solución inicial() Ŝ ←Búsqueda Local (S0) Mientras no se cumplan las condiciones Hacer         s'←Perturbación(Ŝ,Fuerza)         Ŝ' ←Búsqueda Local (s')         Ŝ ←Aplicar criterio de aceptación(Ŝ,Ŝ') fin Mientras Experimentación Para la experimentación del algoritmo propuesto basado en ILS se compararon los resultados obtenidos con respecto a otro algoritmo basado en Hill Climbing que también resuelve el problema de EAMP. Criterios de comparación. En primer lugar, el mejor Edge Antibandwidth encontrado. El tiempo de cómputo consumido CPU Time de los algoritmos para cada instancia del problema. Instancias de prueba. Las instancias de prueba para comparar los algoritmos fueron 10 grafos de cuatro tipos, 3 bipartitos, 3 de tipo K-partite, el grafo Petersen y 3 creados de manera aleatoria. Experimentación. Para la experimentación se ejecutó 10 veces cada grafo en cada algoritmo, las ejecuciones se realizaron para el HillClimbing con un parámetro de MaxIterations (MI) de 10,000 y el algoritmo basado en ILS con los parámetros maxILS 25 y maxLS 400 que dan un total de 10,000 iteraciones de igual forma. En los resultados se resaltan el promedio del Antibandwidth, el promedio de tiempo de cómputo, el mejor resultado obtenido y la desviación estándar para cada uno de los grafos corridos en cada uno de los dos algoritmos.  


CONCLUSIONES

Resultados En general se observó que los resultados del algoritmo ISL respecto a los del algoritmo HillClimbing son mejores, ya que se muestra de manera general mejores resultados en el promedio de EA y en Mejor EA encontrado considerablemente. Pero por otro lado se obtuvo un ligero aumento de tiempo de cómputo en el algoritmo ILS más que en el algoritmo HillClimbing, lo que puede ser compensado en algunos casos con mejores resultados encontrados, pero en otros no, ya que encuentra los mismos resultados que el HillClimbing denotando así que en cuanto a resultados nunca fueron de peor calidad los del ILS porque en algunos grafos logró igualar al HillClimbing y en la mayoría logró ser mejor. Ahora de manera específica para cada conjunto de grafos, tenemos que para los grafos bipartitos solo se tuvo mejora en la solución para el grafo Bipartite5x5 ya que el ILS logró encontrar hasta 4 con un tiempo ligeramente mayor que con el HillClimbing. Por otro lado, para los grafos multipartitos se obtuvieron soluciones mejores, para el grafo MultipartiteK3N3 se obtuvo 3 con el ILS con un ligero aumento de tiempo de cómputo mientras que HillClimbing solo encontraba 2, para el grafo MultipartiteK3N4 se mejoró mucho el resultado ya que se obtuvo un 4 con respecto al HillClimbing que solo encontraba 1 pero claro con un poquito más de tiempo de cómputo y el último grafo Multipartito es el MultipartiteK4N4 el cual es el más grande de nuestras instancias de prueba en cuando a aristas pero el algoritmo ILS logro obtener un promedio de EA de 5 e incluso logró mejorar el tiempo de cómputo lo cual es una buena señal ya que el algoritmo HillClimbing para este grafo no encuentra ni 2 en más de 20,000 iteraciones. Para el grafo Petersen se logró igualar al HillClimbing en cuanto a EA, pero tuvo ligeramente más tiempo de cómputo. Y por último están nuestros grafos aleatorios, el primero es el RandomN10P50, en este, se mejoró el resultado de promedio de EA pasando de 2.4 a 3, para el RandomN15P30 se mejoró de igual forma el promedio de EA en 3 ya que para el HillClimbing era de 2.4 y por último para el grafo RandomN20P20 se obtuvo un promedio de EA de 5.5 lo que está arriba del 4.6 del HillClimbing y se encontró hasta 6 mientras que el HillClimbing solo obtiene hasta 5. Conclusión Para concluir con este verano de investigación quiero recalcar que me interesó mucho ver cómo la informática ayuda a resolver problemas de diferentes áreas de nuestro entorno y tener la experiencia de participar en un trabajo de investigación formal del que me llevo mucho conocimiento. Además de fomentar mi gusto por la investigación y por las ganas de seguir aprendiendo sobre nuevas áreas en las que yo no sabía cómo podría servir la informática. En este caso destaco que me llamó mucho la atención, la importancia de los métodos metaheurísticos para solucionar problemas, ya que yo no sabia mucho de estos métodos y mientras investigaba acerca, me interesaba más por la línea de investigación que escogí. Por último destaco que se logró el objetivo ya que obtuvimos un algoritmo que proporciona mejores resultados que con el que fue comparado además de que se aportó al estado del arte del problema. 
Diaz Cruz Jhoana Michelle, Universidad Mexiquense del Bicentenario
Asesor: Dr. Jesus Gerardo Cruz Alvarez, Universidad Autónoma de Nuevo León

EL IMPACTO DE LEAN MAUFACTURING Y LA INDUSTRIA 4.0 EN LA PRODUCTIVIDAD EN LA CADENA AUTOMOTRIZ


EL IMPACTO DE LEAN MAUFACTURING Y LA INDUSTRIA 4.0 EN LA PRODUCTIVIDAD EN LA CADENA AUTOMOTRIZ

Diaz Cruz Jhoana Michelle, Universidad Mexiquense del Bicentenario. Grajales Sanchez Neffer Yinari, Universidad La Gran Colombia. Asesor: Dr. Jesus Gerardo Cruz Alvarez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de este artículo tiene como objetivo determinar las herramientas lean manufacturing que en conjunto con las tecnologías industria 4.0 automatizan la producción y maximizan la productividad laboral. Por eso pretendemos averiguar ¿cuáles son las herramientas de lean manufacturing tecnologías de industria 4.0 que maximizan la productividad laboral? Estamos en la transición de una industria física (Revolución 3.0) a una digital (Revolución 4.0), en la cual es necesaria la globalización de las herramientas mediante la digitalización de estas, esto conlleva a un cambio en la forma en la que el factor humano realiza sus actividades y en la preparación específica que se necesitara.



METODOLOGÍA

La metodología que se usó para la realización de este artículo de investigación fue mediante la búsqueda de artículos en base de datos como, Mendeley, Scielo, Gale Onefile, Oxford academic, y Scopus. Además de la búsqueda en revistas de artículos científicos como, Interntional Jounal of Production Research, Total Quality Managemet & Business Excellence, Iternational Journal of Advance Manufacturing Technology, Forbes, Efficient manufacturing, Power and Energy Magazine, GRD Journals-Global Research and DeveloMent, Economics & Management Innovations, Elservier BV, Esmerald Insigh. Los parámetros de búsqueda fueron los siguientes: -Artículos científicos entre los años 2015 y 2020 -Búsqueda en español e ingles -Palabras claves utilizadas para la búsqueda: Industria 4.0, Revolución 4.0, Manufactura Esbelta, Industria Automotriz, Industry 4.0 Lean Manufacturing, Revolution 4.0 y Automotive Industry Para mejor cumplimiento con el objetivo se entrevistó a 4 profesionales relacionados con el tema, la entrevista se realizó en dos partes, la primera fue desarrollada mediante una matriz que el entrevistado debía diligenciar y la segunda mediante preguntas abiertas.


CONCLUSIONES

Las herramientas de Lean Manufacturing e Industria 4.0 han demostrado ser estrategias muy importantes para las empresas a nivel mundial debido a su impacto positivo en la industria. Por un lado, Lean Manufacturing obtiene mejores resultados con menos recursos y la industria 4.0 mediante el uso de altas tecnologías contribuye a la mejora de procesos de una empresa adaptándola a procesos de manufactura avanzada. Sin embargo, al ser entrelazadas aumentan su nivel de impacto positivo: facilitan el trabajo, automatizan los procesos repetitivos y limitan los errores en las empresas manufactureras. Algunos empresarios son excéntricos respecto a la implementación de la Industria 4.0, y una de las razones puede ser por los costos, dado que la mano de obra de México es muy económica a comparación con otros países y no hay la suficiente colaboración entre el Gobierno, la educación y las organizaciones privadas. También se piensa que si se implementarán las tecnologías de la industria 4.0 en conjunto con la filosofía lean manufacturing se obtendrían resultados diferentes y más favorables a una escala sin precedentes, puesto que, las tecnologías de la industria 4.0 son eso, tecnologías, pero realmente las filosofías de lean manufacturing vienen a darle una dirección orientada a mejorar la productividad como no se había visto en revoluciones pasadas.
Diaz Echavarria Fernando Azael, Universidad Autónoma de Tamaulipas
Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas

ADMINISTRACIóN INTELIGENTE DE APOYOS SOCIALES MEDIANTE EL ANáLISIS DE DATASETS CON REDES NEURONALES.


ADMINISTRACIóN INTELIGENTE DE APOYOS SOCIALES MEDIANTE EL ANáLISIS DE DATASETS CON REDES NEURONALES.

Diaz Echavarria Fernando Azael, Universidad Autónoma de Tamaulipas. Puente Escamilla Hector Omar, Universidad Autónoma de Tamaulipas. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Enfocándose en las familias afectadas económicamente muchos de los gobiernos a nivel global han ofrecido apoyos a los sectores que más se han visto afectados por esta pandemia dado los despidos masivos de la industria, o bien, los cierres en los diferentes tipos de negocios ya sean informales, restaurantes o de cualquier otra índole, todos han sido afectados económicamente impactando así no solo en la economía del país, sino en el sustento de los hogares y en las personas.  El fin de este proyecto es el de crear un código que mediante técnicas de ciencia de datos se haga uso de una Red Neuronal para realizar una administración inteligente de los recursos que un gobierno pueda destinar a un sector de la población. Por ello, para efectos prácticos, se centrará en esta ocasión la implementación de una red neuronal para la gestión de recursos de una manera inteligente dando como prioridad a la localidad. Esta Red Neuronal es alimentada por los conjuntos de datos que proporcionan diferentes instituciones encargadas del análisis social a nivel nacional como lo son INEGI o CONEVAL. El desarrollo del proyecto se basó enteramente en ciencia de datos, la cual es la ciencia destinada al estudio de los datos, que en los últimos años ha consistido en el análisis de grandes cantidades de datos y que conforme avanza el tiempo, el volumen de estos no hará más que crecer exponencialmente.



METODOLOGÍA

En primera instancia, se tomará en cuenta la problemática y se plantearon preguntas relevantes acerca de está con el fin de definir claramente el objetivo que se quiere obtener. Una vez definido la problemática y el objetivo que se quiere contrarrestar, el siguiente paso en obtener datos para poder llegar a esos objetivos de manera objetiva y eficiente. Se decidió consultar fuentes de información confiables y objetivas, que reúnan información de manera masiva, con el fin de plantar un modelo bastante acertado, así que se eligieron los datos de fuentes como INEGI y CONEVAL.  Siendo el primero de donde ose obtuvieron datos relativos de la población en general y el segundo el que sirvió como referencia a quien le vendría mejor obtener una ayuda económica. Con las fuentes de datos seleccionadas, el siguiente paso es realizar una «criba» o limpieza sobre los datos seleccionados con el fin de arreglar inconsistencias dentro del conjunto de datos, así como definir patrones significativos útiles para cumplir el objetivo. Retomando lo anterior, con los datos definidos y «limpios» se puede pasar a la siguiente fase que consiste en tomar los datos y plantear una forma clara cuál será el acercamiento hacia la interpretación de los datos, explorando los diversos matices y ángulos desde los cuales se puede resolver el problema.  Teniendo los diversos ángulos en mente y con una perspectiva más enfocada, pasaran a la siguiente fase donde consiste en crear el modelo por el cual se podrá hacer un tratamiento a los datos para obtener un resultado en base a estos. Enfocándolo a este caso en particular, se definió que el mejor modelo para poner en práctica sería una red neuronal, misma que entrenaríamos en base a los datos y definiría cuales son los resultados esperados en base a la experiencia previa con este tipo de apoyos monetarios. Por último, se pasará a la etapa de interpretación de los resultados, en la cual se tomará lo anteriormente establecido y se sacaran conclusiones sea o no los resultados que se hayan esperado ya que, en ambos casos el análisis de los datos habrá arrojado una idea más clara del panorama real con el que se cuenta.


CONCLUSIONES

El enfoque que se a querido dar con este proyecto, es que la tecnología sea ha vuelto una herramienta enormemente útil en diferentes rubros y que, en este caso, ha brindado la idea y las herramientas necesarias para la solución a un problema que enfrentan no solo los gobiernos, sino que también viven las familias y la sociedad día con día desde que la cuarentena se estableció a raíz de la pandemia por el virus del COVID-19. Hay que recalcar que las Redes Neuronales son herramientas sumamente útiles que siendo bien aplicadas solucionan problemas y agilizan procesos de formas que antes no se hubiesen imaginado. Así que para resolver un problema como el mencionado aquí, resultaba siendo idóneo el poder aplicar estas herramientas para resolver de una manera eficiente y automática. Con la realización de este proyecto se puede demostrar que diferentes áreas del conocimiento puedan combinarse para lograr objetivos que por si solas serian mas complicadas y tardadas de alcanzar. Apoyándose en el ciclo de vida de un proyecto de ciencia de datos es como fue de ayuda al momento de definir y resolver el problema al que se decidió resolver, con la ayuda de ese ciclo el proceso fue estructurado, sencillo de entender y eficaz en su realización al contrario de que no se hubiera aplicado este método de planificación. Llegando a la conclusión de este resumen es como se puede decir que, por medio de este tipo de herramientas, se pueden tomar una gran cantidad de datos y analizarlos de tal forma que den como resultado una utilidad y así tomar decisiones precisas en base a estos.
Díaz Gómez Alfredo Tonatiuh, Instituto Politécnico Nacional
Asesor: Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)

CONSTRUCCIóN DE áRBOLES FILOGENéTICOS PARA EL ESTUDIO DE CEPAS VIRALES MEDIANTE MéTODOS COMPUTACIONALES


CONSTRUCCIóN DE áRBOLES FILOGENéTICOS PARA EL ESTUDIO DE CEPAS VIRALES MEDIANTE MéTODOS COMPUTACIONALES

Díaz Gómez Alfredo Tonatiuh, Instituto Politécnico Nacional. Asesor: Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La filogenética se define como el estudio de la historia evolutiva de organismos utilizando diagramas en forma de árbol, la información necesaria para realizar este estudio se obtiene principalmente de 2 fuentes; registros fósiles y datos moleculares. En este caso nos centraremos en los datos moleculares, estos registros pueden ser secuencias de ADN o de proteínas. Las secuencias pueden ser utilizadas debido a que, conforme los organismos evolucionan a través de la historia, el material genético acumula mutaciones con el tiempo, gracias a esta acumulación de mutaciones es posible realizar comparaciones de material genético de organismos relacionados y de esta manera construir la historia evolutiva de los organismos. Actualmente existen diversos métodos computacionales para la construcción de árboles filogenéticos, muchos de ellos han sido mejorados con los años, sin embargo, hoy en día sigue siendo un área de interés y oportunidad para seguir mejorando. En el año 2020 el mundo se vio afectado por el brote de un nuevo virus denominado SARS-CoV-2, observado por primera vez en Wuhan, China. Generar árboles filogenéticos utilizando la información que ha sido publicada a lo largo del mundo permitiría generar hipótesis de la naturaleza del virus y podría ayudar a idear métodos para la contención de éste, es por eso que a lo largo de esta investigación se trabajará con datos de esta cepa viral.



METODOLOGÍA

En mi caso particular,  deseaba observar si la cepa de SARS-CoV-2 que afecta a los animales está estrechamente ligada a los primeros casos registrados en humanos, para lograr verificar esto se decidió trabajar con 46 secuencias de esta cepa viral, las secuencias obtenidas pertenecían a los siguientes países; México, Italia, España, Estados Unidos y China, además de contar también con 3 secuencias de animales. Todas las secuencias fueron obtenidas a través de la plataforma GISAID. Una vez que las secuencias fueron obtenidas, se procedió a realizar el alineamiento de estas secuencias, para esto se utilizaron diversos softwares para realizar pruebas. Al final los alineamientos utilizados fueron obtenidos utilizando una herramienta online que implementa el método ClustalW.  Ya que teníamos nuestros alineamientos listos fue momento de alimentar otras herramientas que permiten construir árboles filogenéticos a partir de archivos de alineamientos. A partir de este punto se comenzó a desarrollar una herramienta desde cero que permitiría cumplir esta tarea. La herramienta implementada utiliza un método de máxima parsimonia para la evaluación de árboles y además utiliza la metaheurística ILS (Iterated Local Search) para la búsqueda de soluciones en el espacio de soluciones. Todo este software fue implementado utilizando el lenguaje de programación C++. Una vez que la herramienta fue codificada se comenzaron a realizar pruebas de construcción de árboles. Para saber que tan eficiente es la herramienta, otros árboles fueron construidos utilizando el software MegaX, estos árboles fueron tomados como referencia para saber el grado de robustez de las soluciones del software desarrollado. En total se construyeron 5 árboles, 2 desarrollados con MegaX y el resto desarrollados por la aplicación diseñada. Debido a que no fue implementada una función para el análisis estadístico de los árboles construidos dentro de la herramienta diseñada, los análisis de este tipo tuvieron que ser realizados "a simple vista", pero ya que los árboles de MegaX sí cuentan con los resultados de este tipo de análisis, fue más sencillo relacionar los resultados con esta herramienta y saber sí los árboles generados con el software nuevo tenían cierto grado de robustez y no solo eran soluciones sin fundamentos. Otro punto importante a analizar de la herramienta desarrollada eran los tiempos de respuesta y la cantidad de recursos computacionales utilizados, se utilizaron 2 equipos completamente diferentes para la realización de estas pruebas. Para realizar estas pruebas básicamente se ejecutó el programa una y otra vez para realizar un análisis estadístico de los tiempos de ejecución y de recursos utilizados.


CONCLUSIONES

A lo largo de la estancia de verano se tuvo la oportunidad de construir árboles filogenéticos a través de diferentes métodos, en este caso específico se trabajó con un método basado en máxima parsimonia. Uno de los objetivos planteados fue el de determinar si la cepa de SARS-CoV-2 observada en animales tuvo un impacto directo en los primeros casos observados en seres humanos. Si bien, con la información con la que se trabajó a lo largo de esta investigación no se pudo llegar a resolución completa, sí se pudo demostrar que la cepa de virus que afecta a los animales está estrechamente relacionada, este puede ser un punto de partida para replantear el grupo de estudio así como la fuente de los datos, adicional a esto, se espera que con el paso del tiempo sea posible obtener mucha información que nos permita generar árboles más robustos. Adicional a este análisis en la construcción de árboles, se propuso otro objetivo; la construcción de una herramienta computacional capaz de construir árboles filogenéticos utilizando un método de máxima parsimonia. En este caso la investigación fue un éxito, se pudo diseñar e implementar un software capaz de cumplir esta tarea, no obstante queda mucho trabajo por hacer, existen muchas áreas de oportunidad para continuar mejorando el sistema pero es un primer gran paso. En este momento ya se cuenta con una lista de mejoras que podrían ser implementadas a corto, mediano y largo plazo. Si bien ya existen muchas herramientas que llevan a cabo esta tarea y lo hacen muy bien, en el ramo de la computación siempre hay espacio para seguir diseñando nuevas técnicas de procesamiento de información, además gracias a este tipo de desarrollos se pueden adquirir conocimientos fuera del área de cómputo.
Díaz Juárez Laura Jazmín, Universidad Autónoma de Chiapas
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

LEVANTAMIENTO Y CATALOGACIóN DE VIVIENDAS VERNáCULAS EN EL MUNICIPIO DE COPAINALá, CHIAPAS


LEVANTAMIENTO Y CATALOGACIóN DE VIVIENDAS VERNáCULAS EN EL MUNICIPIO DE COPAINALá, CHIAPAS

Díaz Juárez Laura Jazmín, Universidad Autónoma de Chiapas. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

  Durante toda la historia de México se ha utilizado a la tierra cruda como material básico de construcción. Esto ha permitido desarrollar respuestas arquitectónicas con gran eficiencia en el manejo de los recursos naturales y con un alto grado de adaptación a las condiciones climáticas existentes en las diversas latitudes del país. (Rodríguez, 2001: 83)   Hasta hace una o dos generaciones era frecuente que las comunidades tradicionales habitaran las viviendas de adobe que habían heredado de sus ancestros y que realizaran en ellas las actividades de mantenimiento preventivo que las preservaban estables a lo largo del tiempo. Sin embargo, a pesar de las evidentes cualidades de los edificios de adobe y del valor que representan, debido a su remoto origen y su permanencia dentro del bagaje cultural de nuestra sociedad, están a punto de desaparecer.   Los procesos constructivos, así como los materiales empleados para la construcción, han ido evolucionando con el paso de los años. A consecuencia de ello, la construcción con adobe ha decaído dramáticamente debido a que se llega a considerar un símbolo de pobreza y retraso socioeconómico.    Esto ha contribuido con la pérdida de la tradición constructiva con tierra, con el abandono y degradación de estructuras antiguas y finalmente, con la sustitución por obras modernas siendo estas totalmente ajenas culturalmente y a los procesos constructivos endémicos de la región. En esta investigación se realizó el estudio y levantamiento de casas vernáculas hechas de adobe en el municipio de Copainalá, Chiapas. Copainalá se ubica dentro de la región fisiográfica de las Montañas del Norte, por lo que su territorio es montañoso en su mayoría, sus coordenadas geográficas son 17º 06" N y 93º 17" W. Su altitud es de 440 msnm, limita al norte con Ocotepec, al este con Coapilla y Chicoásen, al sur con San Fernando y Berriozábal y al oeste con Tecpatán. La extensión territorial del municipio es de 342.84 km2 la cual representa el 2.6% del territorio de la región Centro y el 0.44 de la superficie estatal.  



METODOLOGÍA

  Se llevó a cabo la asistencia virtual a las siguientes conferencias: Clasificación de materiales Utilización de fibras deshidratadas con nopal en muretes con mortero base cal Evaluación física: resistividad eléctrica Empleo de Pruebas No Destructivas en Caracterización de Materiales de Construcción Diseño de mezclas de mortero Caracterización de grietas en concreto presforzado, dañado por corrosión  Caracterización de arenas Caracterización de gravas La cal, usos y ventajas en la construcción sustentable  Caracterización y propiedades índices en arcillas Prueba triaxial en limos Construcción con tierra. Perspectiva actual y problemáticas en los inmuebles históricos   Para la investigación Levantamiento y Catalogación de Viviendas Vernáculas en el municipio de Copainalá, Chiapas. se recibieron clases de introducción para conocer los datos a recaudar y obtener mayores conocimientos del tema de viviendas vernáculas, todo esto previo a la realización de los levantamientos. Como parte de la presente investigación se realizó la visita a las viviendas seleccionadas que cumplieron con las características requeridas para la misma. Previo a comenzar con el levantamiento se llevó a cabo una reunión con cada uno de los propietarios de estas viviendas donde se les dio a conocer cuáles eran los objetivos y alcances de la investigación, así como también el solicitar su autorización y colaboración para llevar a cabo los levantamientos e inspecciones visuales de las viviendas. El levantamiento consistió en realizar mediciones para obtener alturas y espesores de muros, tipo de materiales que se emplearon en la construcción de estos, distancia máxima entre muros, dimensiones de puertas y ventanas, tipo y dimensiones de las cubiertas existentes, tipo de cimentación, así como el estado de conservación en la que se encuentra la vivienda y cada uno de sus componentes. Una vez finalizado el levantamiento e inspección de cada una de las viviendas, se recabaron los datos y se procedió a hacer la elaboración de planos arquitectónicos con las medidas respectivas de cada vivienda, así como el llenado de fichas técnicas en donde se plasmó las medidas, número de puertas y ventanas, si existe algún desprendimiento de material o agrietamiento en los muros, y especificaciones propias de las condiciones en general de cada una de las viviendas.


CONCLUSIONES

  La estancia de verano científico fue de gran provecho ya que se logró adquirir conocimiento teórico de temas diversos realmente interesantes en el ámbito de la ingeniería con cada una de las conferencias impartidas como parte del proyecto de investigación entorno a las viviendas vernáculas. Este tipo de viviendas son realmente interesantes, el saber que algunas de ellas llevan 80 años de vida útil, lo cual es realmente sorprendente. Hasta este momento se logró hacer el levantamiento de 10 viviendas vernáculas de adobe y digitalizar los datos obtenidos, sin embargo, hay un gran trabajo por hacer con esta información y con este tipo de viviendas. Se espera seguir trabajando con este tipo de viviendas y conocer el comportamiento sísmico que estas tienen y así brindar mayor seguridad a los propietarios.
Diaz Mendoza Victor Eugenio, Instituto Tecnológico de Reynosa
Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México

CREACIÓN DE AGENTE CONVERSACIONAL (CHATBOT) DEDICADO A LA REALIZACIÓN DE OPERACIONES MATEMÁTICAS BÁSICAS.


CREACIÓN DE AGENTE CONVERSACIONAL (CHATBOT) DEDICADO A LA REALIZACIÓN DE OPERACIONES MATEMÁTICAS BÁSICAS.

Diaz Mendoza Victor Eugenio, Instituto Tecnológico de Reynosa. Rodriguez Rodriguez Angel Gabriel, Instituto Politécnico Nacional. Torres Aguilar Ishmael Benjamin, Instituto Politécnico Nacional. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la tecnología ha ido mejorando, actualizando, adaptándose a las diferentes necesidades y problemáticas de los seres humanos , una de esas tecnologías que ha causado más revuelo es la A.I (Artificial Intelligence) o bien conocida como inteligencia artificial en la cual se ha intentado que las máquinas puedan tener la capacidad de pensar como lo hacen los seres humanos. Dentro de los avances que se han realizado dentro de la A.I son los Chatbots estos nos permiten mantener una conversación entre una persona y una máquina. Aunque estos ofrecen muchas ventajas para los negocios y servicios , muchos de estos negocios prefieren no implementarlos ya que muchos de los chatbots no proporcionan una interacción  tan natural como lo sería con una persona de por medio , ya sea porque el chatbot no tiene el suficiente conocimiento acerca del lenguaje natural de los usuarios , o la información que posee el chatbot es insuficiente o es acerca de un tema específico,etc.



METODOLOGÍA

Para el desarrollo de nuestro chatbot (agente conversacional) abarcamos muchas ramas de conocimientos para el aprendizaje de máquinas, incluyendo Machine Learning y Deep Learning, esto fue a través del lenguaje de programación Python ya que posee una curva de aprendizaje fácil y en la actualidad se encuentra en la vanguardia en este tipo de disciplinas. Lo primero realizado fue familiarizarnos con el lenguaje Python y aprender que es un chatbot, sus capacidades y limitaciones e ideamos cual seria la función de nuestro chatbot, la cual es resolver operaciones básicas y trigonométricas a través de una interacción natural entre humano y chatbot.   Una vez delimitando los límites y alcances de nuestro chatbot procedimos a programarlo usando un software llamado chatvoice proporcionado por nuestro asesor. La interacción humano - chatbot debe ser de la manera más natural posible, para esto nuestro chatbot necesita entender lo que dice el usuario y responder al usuario de manera lógica a lo que este dijo. Para lograr esto utilizamos una red neuronal la cual tuvimos que entrenar (término utilizado para lograr que una red neuronal aprende a reconocer patrones) con ejemplos de conversaciones y ejemplos de diálogos acordes a la funcionalidad de nuestro chatbot, diseñamos mas de 500 ejemplos de diálogo humano y logramos que nuestra red neuronal aprendiera a reconocer dichos patrones. Ya teniendo estos conocimientos y programas desarrollamos a nuestro chatbot y fue puesto en servidores con la finalidad de que personas ajenas a nuestro equipo de trabajo lo pudieran probar y así cotejar el nivel de efectividad y el nivel de entendimiento de nuestro chatbot, los resultados fueron satisfactorios y así fue como concluimos la estancia.


CONCLUSIONES

A través de la estancia se logró adquirir conocimiento sobre la creación de chatbots (Agentes conversacionales) tales como conocimientos sobre aplicaciones de redes neuronales aplicado al entendimiento del lenguaje, así como también se logró afirmar conocimiento en el lenguaje de Python, se concluyó correctamente el propósito de la estancia de investigación.
Diaz Velazco Roberto Carlos, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango

PROGRAMACIóN DE SERVOMOTORES PARA EL MOVIMIENTO DE BOCA DE ANIMATRóNICO.


PROGRAMACIóN DE SERVOMOTORES PARA EL MOVIMIENTO DE BOCA DE ANIMATRóNICO.

Diaz Velazco Roberto Carlos, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen diferentes herramientas tecnológicas para realizar diferentes tipos de prototipos en los que se encuentran los robots animatronicos que nos ayudan a poder realizar alguna actividad que por cuestiones de tiempo las personas no podamos realizar en la actualidad se pretende utilizar estos animatronicos para poder realizar funciones como parlantes que puedan transmitir a las personas algún mensaje o indicaciones de cómo realizar una acción esto con el fin de que las personas puedan interactuar de diferente manera con este tipo de robots y que puedan realizar las expresiones comunes que una persona realiza al estar hablando como lo es mover la boca, parpados, etc.



METODOLOGÍA

Utilizando plataformas de código abierto como lo es Arduino se pueden realizar diferentes prototipos programables ya que es muy fácil utilizarlo para esto se plantea la utilización de varios servomotores controlados mediante código basado en lenguaje c que nos permite dar la instrucción de alguna acción que se valla a interactuar con los usuarios esta se ejecute de manera satisfactoria para este caso se pretende que realice la acción de emitir sonidos entonces cuando el usuario este interactuando con el dispositivo animatronico mediante la programación en la plataforma de Arduino se ejecutar la acción que este previamente programada y este pueda a su vez también interactuar con el usuario y sea mas atractivo para las personas su uso para el fin que se le pretende dar esto con el fin de que sea más didáctico y se pueda dar la interacción humano-robot. En general se pretende que se puedan realizar con mas partes del animatronico en este caso solo se está considerando movimientos de la boca, así como la emisión de sonido que se realiza ejecutando la acción previamente programada y cargando sonidos para que sean emitidos por este dispositivo evidentemente estando sincronizada la acción con el sonido que se esta emitiendo.


CONCLUSIONES

Este tipo de programación se puede realizar utilizando diferentes tipos de plataformas de código abierto como lo es Raspberry y Arduino para esta esta etapa falta trabajar en las demás partes del animatrónico y podemos decir que aun no queda terminado este trabajo ya que se tienen que mejorar diferentes cosas para poder entregar un dispositivo mas funcional y adecuado. Buscando que el animatrónico este funcional en todas las partes que se consideran para que realicen algún tipo de movimiento
Domínguez Moran Joaquín, Instituto Politécnico Nacional
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA.


PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA.

Antonio Lorenzana Fabio Enrique, Instituto Tecnológico de Tláhuac. Domínguez Moran Joaquín, Instituto Politécnico Nacional. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente la robótica es una de las principales tendencias que entran con fuerza en las relaciones sociales y laborales ya que tiene cada vez más interacción en la cotidianidad del ser humano, puesto que ayuda a dinamizar y actualizar un sin fin de actividades, es por ello, que la enseñanza de esta rama interdisciplinaria de la ingeniería ya no puede contextualizarse exclusivamente a los niveles más altos de estudio. Por este motivo, se han pensado nuevas estrategias pedagógicas, para llevar este conocimiento de manera incremental a los niveles de educación secundaria, media superior y superior. A través del proyecto Plataforma para la Enseñanza de la Robótica que se desarrolla en el Centro de Investigación en Computo del Instituto Politécnico Nacional, a cargo del Dr. Juan Humberto Sossa Azuela y el M. en C. José Ángel Martínez Navarro, se pretende satisfacer necesidades sociales cuya característica principal es interactuar con las personas  mediante una plataforma robotizada la cual se compone de los elementos electrónicos y material lectivo que permite el aprendizaje de conceptos esenciales de electrónica, programación, y realización de prácticas con las que el alumno obtendrá aptitudes y competencias para  construir objetos automatizados; este sistema  promueve también la interdisciplinariedad, inclusión, interacción y resolución de problemas. Una de las problemáticas más importantes en el desarrollo de este proyecto, radica en la poca difusión interna y externa que se le da a este tipo de proyectos, por lo que es necesario impulsar su divulgación con el objetivo de alcanzar su mayor potencial de la plataforma. Por lo que, en este verano de investigación, se desarrolló una plataforma web que permite mostrar material lectivo de fácil acceso para toda la comunidad estudiantil que se interese en el conocimiento de la robótica.   



METODOLOGÍA

Para el desarrollo y la implementación del proyecto plataforma para la enseñanza de la robótica se implementó un servidor web en el sistema operativo Debian 10, con las herramientas de software libre que ofrece la distribución de apache Xampp, como lo son: el sistema gestor de base de datos MariaDB; el lenguaje del lado del servidor PHP; el lenguaje para aplicaciones CGI Perl; además de phpmyadmin que permite la administración del gestor de base de datos por medio de una interfaz gráfica. También, se habilito el acceso remoto al servidor para la operabilidad de los miembros del equipo de desarrollo mediante una conexión HTTPS para la transferencia de información cifrada y segura. Una vez implementado el entorno web se instaló la herramienta Joomla, la cual es un framework, desarrollado por PHP y que sirve como gestor de contenidos web para la implementación de funciones avanzadas de diseño y animación en la interfaz que esta dirigida al usuario final. En dicha plataforma, se implementó una plantilla de diseño desarrollada por Helix3 para posteriormente ser adaptada a las especificaciones del proyecto en una arquitectura Modelo-Vista-Controlador. La plataforma web, muestra contenido estático referente al material lectivo los cuales se desglosan en las siguientes especificaciones: Información del proyecto: Muestra información relevante acerca del proyecto y el laboratorio de mecatrónica. Manual de ensamblado de la plataforma robotizada: Muestra los pasos secuenciales para armar la plataforma robotizada y los componentes que la conforman. Practicario: Proporciona información guiada que permita a los estudiantes implementar diferentes ejercicios en la plataforma para el aprendizaje de electrónica, programación en C, Arduino, entre otras. Contacto:  Se muestra información de contacto para atender preguntas respecto al funcionamiento o información de la plataforma robotizada.  El modelado de las paginas que conforman la plataforma web se clasifican en dos tipos: Página Principal: Se encontrará la información relevante del laboratorio de robótica y mecatrónica de la institución, un video de presentación del proyecto; el menú donde se presenta los módulos del practicario y permite la selección de las prácticas que este englobe; un botón denominado acerca de el cual te dirige a la página de información del proyecto y un botón de contacto en donde se podrá contactar a los encargados del proyecto o recibir información más detalla. Página de Prácticas: Al seleccionar alguna práctica, se presenta una página con la información detallada de los pasos a realizar, así como el video explicativo de dicha práctica y un foro de discusión para la resolución de posibles dudas. También, se contará con botones de redireccionamiento hacia las practicas posteriores o anteriores del módulo en cuestión. Los actores que interactúan con la plataforma web son los siguientes: Usuario: Persona que tiene libre acceso a las funciones de la plataforma en línea. Administrador: Persona que gestiona el contenido presentado en la plataforma.


CONCLUSIONES

Durante la estancia de investigación, se logró obtener conocimientos relevantes en el desarrollo de aplicaciones web amigables a los usuarios finales en este caso, para transmitir el conocimiento de la robótica en función de atacar una nueva necesidad social que pretende poner a la vanguardia a los diferentes niveles académicos con un nuevo entorno tecnológico que ayuda a hacer más fácil las actividades humanas.  
Domínguez Ortiz Gerardo Daniel, Instituto Tecnológico de Sonora
Asesor: Dr. Francisco Antonio Castillo Velasquez, Universidad Politécnica de Querétaro

MODELO DE SISTEMA EXPERTO PARA LA DETECCIÓN DE FALLAS EN LA INDUSTRIA AUTOMOTRIZ.


MODELO DE SISTEMA EXPERTO PARA LA DETECCIÓN DE FALLAS EN LA INDUSTRIA AUTOMOTRIZ.

Domínguez Ortiz Gerardo Daniel, Instituto Tecnológico de Sonora. Mendoza Jiménez Edwin Geovani, Instituto Politécnico Nacional. Asesor: Dr. Francisco Antonio Castillo Velasquez, Universidad Politécnica de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los problemas automotrices son muy comunes, ya que existen diversas razones por las cuales el auto puede fallar. El problema radica en que no todas las personas son expertas en cuestiones mecánicas, por lo que la mayoría recurre a un taller mecánico sin saber la verdadera razón por la cual el auto está fallando.   Se tomó la iniciativa de realizar una aplicación en la cual el usuario pueda identificar la raíz del problema por la que está fallando el auto o bien, puede comprobar una hipótesis que tenga el usuario del por qué él cree que está fallando. Cabe recalcar que el objetivo de la aplicación no es arreglar el auto o no ir a un mecánico, sin embargo, al usuario le permite tener un conocimiento más acertado de lo que está causando deficiencias en el coche. La solución propuesta trabaja con técnicas de IA y sistemas expertos. La Inteligencia Artificial (IA) es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Según Russel y Norvig (2003), existen diferentes tipos de inteligencia artificial: Sistemas que piensan como humanos: automatizan actividades como la toma de decisiones, la resolución de problemas y el aprendizaje. Un ejemplo son las redes neuronales artificiales. Sistemas que actúan como humanos: se trata de computadoras que realizan tareas de forma similar a como lo hacen las personas. Es el caso de los robots. Sistemas que piensan racionalmente: intentan emular el pensamiento lógico racional de los humanos, es decir, se investiga cómo lograr que las máquinas puedan percibir, razonar y actuar en consecuencia. Los sistemas expertos se engloban en este grupo. Sistemas que actúan racionalmente: idealmente, son aquellos que tratan de imitar de manera racional el comportamiento humano, como los agentes inteligentes.  



METODOLOGÍA

El desarrollo del modelo se basó en la estructura de un sistema experto basado en reglas. Dicha estructura tiene como elementos una interfaz de usuario, un generador de explicaciones, un motor de inferencias, una memoria de trabajo y una base de conocimiento conformada por reglas y hechos. La interfaz de usuario será el medio de comunicación entre el usuario y el sistema a crear. La base de conocimiento es un conjunto de reglas y hechos, los cuales están relacionados con el tema para el que va dirigido el sistema experto. En nuestro caso, la base de conocimiento fue investigada para que fuera afín a los problemas básicos en el diagnóstico de fallas automotrices, y de esa forma crear reglas y hechos. La memoria de trabajo, sería donde se concentra la información de entrada para iniciar el sistema experto, a lo largo de la ejecución, esta memoria irá creciendo, ya que al pasar por el motor de inferencia y validar ciertas reglas y hechos, se va a ir adquiriendo nuevo conocimiento que nuevamente tendrá que ser procesado. El método de inferencia será el encargado de validar lo que hay en la memoria de trabajo con los hechos y reglas que se encuentran en la base de conocimiento. Para implementar el método de inferencia, se basó en los sistemas de encadenamiento hacia adelante (Partiendo de los hechos de la memoria de trabajo a una conclusión) y encadenamiento hacia atrás. (Buscando validar una hipótesis, parte de una conclusión). La implementación de dicha aplicación, se realizó de tal forma que el usuario sea capaz de elegir qué tipo de reglas desea dar como entrada al sistema, y de esta forma el sistema funcione con un conocimiento deseado, ya no sólo automotriz, sino de cualquier índole.   La entrada de dicho conjunto de reglas se realiza a través de un archivo de texto, bajo el siguiente formato: CondiciónACumplir1 & CondiciónACumplir2 & ... & CondiciónACumplirN ; ConclusiónRegla1 Dónde cada renglón representa una regla. Separando las condiciones con el símbolo "&" y separando la conclusión con ";" . La aplicación recibe como entrada un archivo de texto con el formato previamente mostrado, una vez allí, el usuario puede seleccionar las distintas opciones que pertenecerán a la memoria de trabajo. Posteriormente el usuario podrá elegir entre los dos métodos de inferencia (Encadenamiento hacia adelante y hacia atrás) y la aplicación le mostrará que nuevo conocimiento se adquirió, o bien, si fue válida la hipótesis después de procesar la información de entrada.


CONCLUSIONES

La importancia de los sistemas expertos es fundamental en la actualidad, pues ayudan a automatizar numerosos procesos de cualquier índole. El proyecto realizado funcionó como una guía para el desarrollo de un Sistema Experto más complejo, y tiene la ventaja que es general, es decir, funciona para cualquier base de conocimiento que se cargue inicialmente. Se implementaron mecanismos de encadenamiento hacia adelante y atrás que representan el motor de inferencia del sistema. La apk del sistema se pondrá a disposición de la comunidad interesada. Como trabajo futuro se propone implementar el manejo de incertidumbre para tratar información imprecisa e incompleta; esto ayudaría a fortalecer la arquitectura del sistema para los casos en que no se cuenta con información de entrada y, principalmente, para enriquecer la interacción y confianza con el usuario final.
Durán Gil Aurora Carolina, Instituto Tecnológico de Morelia
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

USO DE REDES NEURONALES PARA LA RESOLUCIóN DE PROBLEMAS DE CLASIFICACIóN.


USO DE REDES NEURONALES PARA LA RESOLUCIóN DE PROBLEMAS DE CLASIFICACIóN.

Durán Gil Aurora Carolina, Instituto Tecnológico de Morelia. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las redes neuronales artificiales son una herramienta con suma utilidad para la resolución de problemas que comúnmente tendría que procesar la cognición humana. Dentro de este contexto, su potencial puede aprovecharse para ser un apoyo en la toma de decisiones, satisfaciendo necesidades existentes.



METODOLOGÍA

Se comenzó por delimitar los conceptos básicos para la construcción de una red neuronal, pasando por la teoría de las redes neuronales, su estructura y funcionamiento. El recurso Google Colaboratory se seleccionó para programar y ejecutar los programas a construir en lenguaje Python por su facilidad de utilización y recursos. Ya que se establecieron las bases, se seleccionó el problema de clasificación a resolver, definiendo las entradas de la red como imágenes y las salidas como la clase perteneciente a la imagen. La base de datos seleccionada fue la Intel Image Classification, Image Scene Classification of Multiclass elaborada por Puneet Bansal, y descargada de la plataforma Kaggle. El dataset contiene alrededor de 25,000 imágenes con un tamaño de 150x150 píxeles, divididas de la siguiente manera:  14k imágenes para entrenamiento, 3k imágenes para prueba y 7k imágenes para predicción, de las cuales cada una contiene imágenes pertenecientes a 6 categorías: buildings, forest, glacier, sea, street y mountain. Se construyeron 2 tipos de redes neuronales para procesar este dataset, una red neuronal multicapa y una red neuronal convolucional. Las imágenes se aplanaron y convirtieron en un vector para poder entrenar la red por 50 epocas. Después de correr diversos intentos en ambas redes cambiando la cantidad de neuronas por capa y el paso de entrenamiento, las que arrojaron mejor resultado de aprendizaje fueron: Red neuronal multicapa con una capa inicial que recibe 1,200 entradas (correspondientes a la reducción de las imágenes a 20x20), con 3 capas intermedias de 80 neuronas cada una y una capa de 6 salidas correspondientes a las clases de las imágenes. Red neuronal convolucional con una capa inicial que recibe 19,200 entradas (correspondientes a la reducción de las imágenes a 80x80), con 3 capas intermedias de 32,16 y 32 neuronas respectivamente, que arroja 6 salidas correspondientes a las clases de las imágenes. El resultado de exactitud de entrenamiento para la red multicapa fueron 0.7087661623954773 y los de la red convolucional 0.9165362119674683, por lo que de entre ambas, la red convolucional mostró un mejor desempeño


CONCLUSIONES

Durante esta estancia de verano, se consolidaron las bases para la utilización posterior de una red neuronal para la solución de problemas de clasificación focalizados en entornos. Posteriormente se piensa seguir trabajando con las redes convolucionales por sus resultados prometedores en la ejecución de la tarea.
Durán Zepeda Jesús Pablo, Universidad de Sonora
Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla

TINTA CONDUCTIVA DE PLATA PARA ELECTRóNICA FLEXIBLE


TINTA CONDUCTIVA DE PLATA PARA ELECTRóNICA FLEXIBLE

Durán Zepeda Jesús Pablo, Universidad de Sonora. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La tecnología que ayude a la salud y al bienestar social es un ámbito que está en constante innovación para encontrar nuevas formas nuevas de satisfacer estas necesidades. Una opción viable para el cumplimiento de estos propósitos es el uso de la electrónica flexible debido a que pueden ser creados dispositivos que pueden medir variables que son la presión u oxígeno en el cuerpo; además debido a las propiedades de estos aparatos, son poco invasivos por lo que pueden ser aplicados muy fácilmente tanto en ropa, alimentos o piel. Un desafío con esta tecnología son el encontrar la forma de producir esta clase de dispositivos a costos relativamente bajos para que exista una alternativa económica disponible para la mayoría de las personas. La electrónica flexible es un campo que ha tomado gran importancia en la investigación, ha tenido un desarrollo muy grande en los últimos años, siendo ahora un área en donde se buscan proyectos ambiciosos e innovadores. Algunos ejemplos de estos, es la creación de circuitos o transistores en superficies (sustratos) que pueden soportar un esfuerzo mecánico y perder la menor conductividad posible; algunas aplicaciones de estos dispositivos se encuentran en proyectos como lo es la e-skin o piel electrónica, donde esos dispositivos son adheridos a  la piel del usuario con la finalidad de aumentar la calidad del ser humano ayudando en tareas como la medición de presión. Una parte fundamental en la producción de dispositivos es la forma de creación de líneas de conductividad con la que estos puedan operar correctamente. Esta investigación tuvo como objetivo la creación de una tinta para uso en la electrónica flexible a partir de la síntesis de funcionalización de nanopartículas de plata a través de un método de síntesis de reducción química. Además, este trabajo también estudia las posibilidades de que la forma de construcción de los dispositivos sea por medio de una impresora convencional como forma de impresión de las líneas conductivas, y que también se utilice papel de oficina como sustrato. Volviendo esto un procesos sencillo y barato de producir.



METODOLOGÍA

Se consultaron, analizaron y compararon datos e información de diferentes estudios para evaluar parámetros como lo son el método de impresión o las características que tienen que tener los sustratos. Además junto con esta consulta se evaluaron diferentes parámetros y características, como lo son grosor de impresión o tensión superficial, que debe de tener una tinta de plata para las diferentes técnicas de impresión. También se investigó acerca de las diferentes técnicas de síntesis de nanopartículas, tanto físicas como químicas, donde se evaluaron tanto sus ventajas como desventajas y se determinó que la técnica adecuada es la reducción química debido al uso de agentes precursores y reductores que lo convierte en un proceso muy económico sencillo de realizar. Para la formación de nanopartículas de plata, se sintetizaron por el método de reducción química debido a su sencillez al usar agentes precursores, estabilizadores y reductores. La reacción utilizada fue la conocida como método de Lee and Meisel, donde se utilizó como agente precursor nitrato de plata (AgNO3) y como agente reductor citrato de sodio (Na3C6H5O7) volviéndolo un proceso muy barato y sencillo de realizar debido al bajo costo y buena estabilidad de estos reactivos. Además, el equipo utilizado en la experimentación lo fueron vasos de precipitado de 1 litro, un parrilla de calentamiento con un agitador magnatico y también se utilizó agua para la creación de diferentes soluciones. Antes de empezar el experimento, se prepararon dos soluciones. La primera con el precursor (AgNO3) de concentración de 10-3M y la segunda con el agente reductor de de 1% p/p de citrato de sodio. Primero, en un vaso de precipitado, se llevó a ebullición 500 ml de la solución con el agente precursor, en seguida, con la ayuda de un gotero se agregaron 10 ml de la solución con el agente reductor y se añaden a la primera solución mientras es calentada y agitada magnéticamente. Después se dejó en ebullición alrededor de una hora hasta que el color de la solución cambio a un color amarillo pálido, de ahí se retiró el vaso de la parrilla y fue agitado hasta que se enfrió a temperatura ambiente. Aquí las partículas de plata precipitaron y fueron recolectadas para posteriormente ser disueltas en una mezcla de agua, etanol y glicerol, donde las nanopartículas  de plata fueron dispersadas por un tratamiento ultrasónico para obtener 20% en peso de tinta de nanopartículas de plata. Finalmente, la tinta fue encapsulada en cartuchos para tinta de impresora convencional para su posterior uso en la misma.


CONCLUSIONES

Durante esta estancia se considera que se logró un buen trabajo al acercarse al objetivo planteado, esto por medio del cumpliendo metas semanales programadas en el plan de trabajo. Se adquirieron conocimientos sobres ciertos temas, como la electrónica flexible y caracterización de materiales, y equipos utilizados en este tipo de ramas de la tecnología, con esta información se hizo un discernimiento sobre las cualidades necesarias que tiene que cumplir la tinta según la técnica de impresión a utilizar o las propiedades que los sustratos deben poseer a la hora de que la tinta sea impresa en estos y tengan una calidad y un rendimiento eléctrico alto.
Equihua Rodriguez Leonardo Wenceslao, Instituto Tecnológico Superior Purépecha
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

PERCIBE LAS LETRAS. HERRAMIENTA PARA LA ENSEñANZA DEL SISTEMA DE LECTOESCRITURA BRAILLE PARA PERSONAS CON DISCAPACIDADES VISUALES UTILIZANDO LA METODOLOGíA METUIGA


PERCIBE LAS LETRAS. HERRAMIENTA PARA LA ENSEñANZA DEL SISTEMA DE LECTOESCRITURA BRAILLE PARA PERSONAS CON DISCAPACIDADES VISUALES UTILIZANDO LA METODOLOGíA METUIGA

Equihua Rodriguez Leonardo Wenceslao, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

El braille es la herramienta comúnmente utilizada con el fin de resolver los problemas de comunicación presentados por quienes sufren alguna discapacidad visual permitiéndoles el acceso al a cultura y educación. Las Tecnologías de la Información y las Comunicaciones y sobre todo Internet han aportado nuevas herramientas educativas al servicio de los centros escolares, de los profesores y de los propios alumnos. Nuevos instrumentos que han iniciado un cambio sustancial en el entorno educativo.  Es así que la enseñanza del sistema braille no debería quedarse sin una representación dentro de este ámbito educativo mediante las herramientas digitales ya que mediante el juego o mecánicas de aprendizaje mediante el juego es posible fortalecer esta habilidad en jóvenes con discapacidades visuales.



METODOLOGÍA

Se trabaja con la estructura de los instrumentos pertenecientes a la Metodología para el diseño de sistemas basados en interfaces tangibles y técnicas de gamificación (Metuiga). Se encuentra organizado en etapas que determinan el estado en el que se encuentra el proceso de desarrollo en el que se encuentra el sistema. Esto se encuentra repartido en una serie de instrumentos orientados a cumplir con la metodología y cada apartado de la misma. Requerimientos Se plantearon las bases de las características principales para el sistema, esto incluye algunas mecánicas que se tomaran en cuenta más delante en el documento, así como las restricciones de cada objetivo o del proyecto en general. Diseño Los diseños estáticos nos permiten visualizar la idea final que se implementara en su etapa correspondiente, este caso el sistema completo se basa en dos pantallas básicas, con diferentes funcionalidades según la experiencia del usuario. Misiones Estas forman parte de la parte de gamificación donde mediante el completar actividades de completan misiones para crear la sensación de avance y realización que caracterizan la gamificación, así como retroalimentación positiva mediante la asignación de puntos por ejercicio, característica que se encuentra pendiente. Implementación Se determinan las etapas técnicas, así como las herramientas que tomaran parte en la construcción del sistema


CONCLUSIONES

La metodología aplicada propone un camino para el desarrollo de sistemas que apliquen las técnicas de gamificación en sistemas tangibles lo cual facilita el proceso de desarrollo de las mismas al marcar una guía firme que resulta en una herramienta para los desarrolladores que incursionan en el área de las interfaces tangibles y de quien ya se encuentre en el área, pero desee aplicar desarrollo enfocado en el usuario. Si bien la aplicación resultante sugiere ser funcional es necesario ponerla a prueba para corroborar su efectividad, puesto que como trabajo en proceso es necesario que el usuario final retroalimente al equipo de desarrollo para propia mejoría del sistema. Como trabajo a futuro se propone la portación de la aplicación a dispositivos a manera de herramienta didáctica para personas que no padezcan de discapacidades visuales con el fin de fomentar el aprendizaje del sistema de escritura braille el cual es una herramienta importante para quien si padece de dichas capacidades especiales.
Escobar López Elizabeth, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero

DESARROLLO DE UNA PRóTESIS PARA PERSONAS CON PéRDIDA DE EXTREMIDAD SUPERIOR (MANO)


DESARROLLO DE UNA PRóTESIS PARA PERSONAS CON PéRDIDA DE EXTREMIDAD SUPERIOR (MANO)

Escobar López Elizabeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rojas Cecilio Cristina, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

La pérdida de alguna extremidad, es uno de los factores comunes en diversas personas, desde niños, adolescentes, jóvenes y adultos, estas pérdidas se sufren mediante distintos factores como lo son enfermedades, descuidos en el trabajo, accidentes, entre otros, es por ello que las personas que tienen esta discapacidad sufren psicológicamente, emocionalmente pero el gran impacto que tiene es que no pueden realizar sus actividades y dejan de trabajar por tener una discapacidad. La mano es un instrumento para llevar a cabo muchas de nuestras acciones cotidianas, las manos son vulnerables a lesiones frecuentes, de acuerdo a las estadísticas de accidentes de trabajo, la mano es la región anatómica más afectada, pues se encuentra involucrada en el 26 por ciento del total de casos. Entre las primeras diez causas de enfermedad laboral, dos de ellas son en las manos.



METODOLOGÍA

Para poder empezar con la creación y modelado de una prótesis en 3D lo primero que se hizo fue buscar a una persona con amputación de los dedos o de la mano completa, para empezar a trabajar en el modelo de la prótesis de acuerdo con la forma de la mano. Se redactó un documento de consentimiento informado en el cual se especificaba todos los derechos que tenía la persona al aceptar ser parte de nuestra investigación. El señor Jaime Charco León, de 72 años de edad, nos otorgó su consentimiento para poder crear una prótesis basándonos en su mano derecha, la cual le hacían falta los dedos: índice, medio y anular, a consecuencia de un accidente industrial con una revolvedora de productos químicos. Se  aplicó la encuesta donde se le preguntaban datos que ayudaría con el diseño de la prótesis, como los problemas que le causaban la falta de sus dedos, medidas de su mano izquierda y de su mano derecha, su familiarización con algún tipo de prótesis, las repercusiones que tiene en su vida diaria la falta de sus dedos, entre otras.  El software que manejamos para comenzar a realizar el trabajo de modelado de la prótesis fue TinkerCAD y Solidworks, un software de diseño en 3D, debido a que cuenta con una interactividad amigable. Lo que este software permitió fue hacer el diseño, puesto que permitía trabajar sobre piezas previamente creadas y adaptarlas a la necesidad del señor Jaime. Una vez teniendo conocimiento del software de diseño, el investigador Giovani nos expuso los parámetros de la impresora 3D y el programa que utiliza llamado Repetier Host para determinar los parámetros de impresión. Los aspectos importantes al momento de imprimir son la posición del diseño en la cama térmica debe de ser centrada con respecto a las dimensiones de la impresora y acomodada a manera de que la superficie más grande del diseño sea la que repose sobre la cama térmica, de esta forma la impresora encuentra mayor apoyo y utiliza menos material para la impresión debido a que en la impresión 3D cuando existen partes de la pieza volando es decir, sin ningún tipo de soporte el programa crea unas columnas desde la base hasta la parte de la pieza que se desea imprimir haciendo que el consumo de filamento de plástico y el tiempo de impresión sean mayores. En los parámetros de la impresión se nos explicó la calidad recomendada para este tipo de impresión, esto quiere decir la distancia que existe entre cada capa de impresión, en nuestro caso, la calidad recomendada es de .2mm. Se hubiera podido trabajar con una calidad de .1mm. de esta manera la pieza podría salir con más detalle, pero al hacer esto el costo de impresión y el tiempo aumentan considerablemente. La velocidad de impresión se trabajó de entre 30 y 40 mm/s. No se necesitó de ningún tipo de enfriamiento al momento de la impresión porque el material con el que se estuvo trabajando es filamento de plástico PLA, el cual es un material muy noble y la misma temperatura ambiente hace que vaya tomando la dureza necesaria. Entrando con la configuración de la impresora los puntos importantes son los parámetros de la impresora, el extrusor y las dimensiones. Es importante revisar la temperatura de calentamiento del extrusor y la plataforma o cama caliente teniendo una temperatura de 240 y 100 grados para material ABS y 190 y 60 grados para PLA respectivamente. En las dimensiones de impresión lo que es importante verificar es el área de impresión (anchura, profundidad y altura); la impresora utilizada tiene unas dimensiones de impresión de 20cm x 20cm x 22cm. Para la impresión de la prótesis el programa calculó 18 horas de impresión continua. En proceso de detallado de las piezas (retiro de soportes, adherencias e impurezas) se calcula un tiempo de 6 horas para obtener una pieza lisa y sin ningún tipo de peligro para la persona que la utilice y con esto pasar al siguiente proceso. En el armado de la pieza se calcula unas 5, 6 horas, dependiendo de la habilidad del armador.


CONCLUSIONES

Durante la estancia de verano virtual se adquirieron diversos conocimientos teóricos de la impresión 3D, así como de los componentes necesarios para realizarla, desgraciadamente, a causa de la situación del COVID-19 que se está viviendo actualmente, fue poco el conocimiento práctico, pero gracias a la dedicación y el amor por la investigación por parte del investigador Giovani se logró completar la estancia virtual, con una cantidad basta de apoyo visual de igual manera se desarrollo el diseño de los dedos, el  investigador también nos mostro la forma en la que las impresoras imprimían algún diseño ya que nos mencionó que tenía en su posesión dos máquinas de impresión puesto que tenía contemplado recibir a 20 tutorados antes de la pandemia y por medios económicos propios decidió adquirir su segunda máquina. El proyecto de la prótesis de mano con dedos sigue en proceso y se piensa terminar inclusive después del programa delfín a razón del compromiso que se hizo con el señor Jaime de entregarle una prótesis para poder mejorar su vida diaria. No se terminará hasta entregar una prótesis funcional y adaptada a sus necesidades
Escobar Machado Oscar Ivan, Universidad Cooperativa de Colombia
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE NIVEL DE DAñO POR CORROSIóN DE PUERTOS MARíTIMOS MEXICANOS DE ALTURA Y SU RELACIóN CON LAS CONDICIONES GEOLóGICAS, DE CARGA Y SALINIDAD.


ANáLISIS DE NIVEL DE DAñO POR CORROSIóN DE PUERTOS MARíTIMOS MEXICANOS DE ALTURA Y SU RELACIóN CON LAS CONDICIONES GEOLóGICAS, DE CARGA Y SALINIDAD.

Escobar Machado Oscar Ivan, Universidad Cooperativa de Colombia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La gran mayoría de los puertos mexicanos fueron construidos a mediados del siglo XIX, cuando se consideraban las características de resistencia estructural y no las de durabilidad, debido a esto en la actualidad, las estructuras han comenzado a presentar una serie de daños por diferentes factores. La combinación entre el acero y el concreto, genera entre ellos un anclaje que permite el aumento de su resistencia a tensión por lo que puede usarse en diversidad de tipos de estructuras. Cuando la corrosión aparece en el acero, reduce la capacidad de anclaje entre el acero y el concreto hidráulico lo que conlleva a que se pierdan las capacidades estructurales, la corrosión genera mayores volúmenes y por ende, presiones internas que al final provocan fracturas, generando así grietas en las losas, exposición de sesiones de acero y desintegración del concreto. Los puertos están sometidos a un ambiente marino y se ven afectados en grandes medidas por la exposición a cloruros en la zona de marea de las cimentaciones de las estructuras(zona de mojado y secado), además de esto, el hecho de posibles sobrecargas puede agudizar la capacidad resistiva de las estructuras que vienen ya con algún tipo de problema como lo es la corrosión. Los agregados utilizados en las mezclas de concreto y sus capacidades mecánicas aportan parte de la resistencia estructural del concreto reforzado y son un factor importante al momento de determinar el nivel de daño de este. La relación que exista entre los niveles de salinidad, la capacidad de carga y el origen de los agregados del concreto reforzado con el nivel de daño de corrosión de los puertos puede entregarnos mejores herramientas para así prevenir y mitigar dichas afectaciones.



METODOLOGÍA

Se realizo una revisión de la infografía disponible, donde encontramos información sobre el nivel de daño por corrosión que presentan algunos de los puertos mexicanos. Se realiza un análisis general de los factores que provocaron dichos daños según algunos estudios y pruebas realizadas. Realizamos también la búsqueda de información oficial referente a los niveles de carga de cada puerto, la cual fue obtenida de los informes oficiales publicados por la Coordinación General de Puertos y Marina Mercante publicada en su página web. Realizamos un recopilado de los niveles de carga mes a mes desde enero del 2005 hasta diciembre del 2014 y finalmente se realizó un resumen con los datos de carga anualmente en el periodo 2005-2014. En cuanto a la salinidad del agua del mar en cada puerto, se obtuvieron datos del Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE), tomando como referencia el Modelo NEMO OPA, de esta manera se determino el promedio de salinidad en cada uno de los puertos. Para determinar las propiedades de los posibles agregados pétreos usados en la mezcla de concreto reforzado empleado para la construcción de los puertos, se encontró información del Sistema Geológico Mexicano (SGM) y del Instituto Nacional de Estadística y Geografía (INEGI), basados en los bancos de materiales cercanos a cada uno de los puertos. Conociendo la información que se logro recopilar, se busca encontrar la relación de cada uno de los factores (salinidad, carga y geología) de cada puerto con su respectivo nivel de daño, para así poder determinar el nivel de influencia de cada una de estas variables en los daños que pueden presentar las estructuras debidos a la corrosión. Durante el desarrollo de la investigación, participamos en 35 conferencias que abordaron temas a fines de la ingeniería civil, donde profesionales de diferentes grados nos asesoraron y compartieron sus experiencias y conocimientos, aportando así en gran medida al desarrollo de la investigación.


CONCLUSIONES

Determinar la relación que existe entre la salinidad, el nivel de carga y las propiedades mecánicas de los agregados usados en la mezcla de concreto reforzado, con el nivel de daño por corrosión de los puertos mexicanos.
Espinosa Nájera Erick Alberto, Instituto Tecnológico de Tapachula
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

CONCRETOS RECICLADOS EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL, EN GUANAJUATO


CONCRETOS RECICLADOS EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL, EN GUANAJUATO

Espinosa Nájera Erick Alberto, Instituto Tecnológico de Tapachula. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

México es un lugar rico en materias primas, en su mayoría estos materiales no son renovables. En el caso de la construcción los materiales son no renovables, como la grava y arena, utilizadas en la fabricación de morteros y concretos hidráulicos y en su mayoría en todo tipo de construcciones tanto pequeñas como grandes. Pero la grava y arenapodrían acabarse o en su defecto que los bancos de materiales cerca de la obra, tengan que pedir a otras minas o graveras más lejanas, por el material para los diferentes tipos de construcción.La problemática que se presentara a futuro, es el hecho de que en las construcciones viejas, su vida útil terminó o que lleguen a sufrir alguna daño estructural, son derrumbadas y todo aquel material que en su composición haya utilizado grava y arena, son desechados sin la mas mínima precariedad de saber si el material puede volver a utilizarse o tratar de triturar el material que ya está compuesto de cemento-arena-grava-agua, y con ello la posibilidad de utilizar menos material que es exportado de otros lugares. Muchos países europeos y algunos de Latinoamérica han tenido la necesidad de utilizar los residuos de la construcción para la elaboración de otras edificaciones, debido principalmente al déficit de materia prima natural en el caso de los primeras y a beneficios económicos de reutilización en el caso de los segundos. Cabe mencionar que México tiene gran riqueza en agregados naturales vírgenes y por ello no se ha visto en la necesidad de implementar el uso de agregados reciclados de concreto de manera generalizada. Aunado al hecho de que existe poca investigación respecto al tópico mencionado y existe desconfianza respecto a su buen funcionamiento. Atendiendo a lo anterior, el presente trabajo pretende profundizar en el estado del arte acerca del uso de concretos reciclados en Guanajuato, así como la identificación de limitaciones y  la opinión de los habitantes de este lugar con respecto a la implementación de esté en obras de construcción.



METODOLOGÍA

La metodología a seguir es del tipo de descriptivo, para lo cual se elaboraron fichas de trabajo, encuestas y solicitudes. Antes de la elaboración de dichos instrumentos para la recopilación de información, se definió el lugar de estudio: Guanajuato, que es la capital del estado del mismo nombre y está rodeada de grande cerros. Las graveras y minas donde se extrae la arena y la grava para su construcción se encuentran lejos de la capital, esto a su vez, pide una demanda de gastos un tanto excesivos para la obtención de estos materiales, las graveras cercas al lugar en su mayoría son muy viejas y se han convertido en museos de minería o al no tener material para trituración se han convertido en parques ecológicos. El procedimiento que se siguió fue la indagacióndel estado del arte a través de fichas previamente elaboradas, donde se buscaronejemplos de países extranjeros y el nuestro donde se explique y se dé a conocer las diferentes características de la reutilización de residuos de demolición de concreto hidráulico, así como las diferentes pruebas que se realizaron en cada país y la finalidad del estudio. Adicionalmente y aprovechando el formato de la ficha, se hizo las búsqueda de leyes, normas, programas y planes de manejo de residuos de concreto de demolición en Guanajuato. Posteriormente, se realizó la identificación de los bancos de materiales en la zona de estudio. Cabe mencionar que las coordenadas que se muestra en el inventario de bancos de materiales, son en su mayoría erróneas o no dan con la ubicación de éstos y hace que la obtención de la ubicación exacta del lugar sea complicada y esto a su vez encontrar las empresas graveras.  Teniendo ya la ubicación y que concordara con el inventario del lugar, se procedió a medir la distancia que hay desde la gravera hasta el centro de la capital del estado, para tener en cuenta el tiempo de traslado, consumo de combustible y generación de emisiones. Un procedimiento más sencillo y similar, es el inventario de las constructoras del lugar para establecer contacto y aplicar la encuesta sobre generación de RCD y prácticas de gestión de residuos que implementa dentro y fuera de las obras. Las principales preguntas de la encuesta están enfocados a identificar patrones de prácticas de reciclaje del encuestado, conocimiento acerca del concreto reciclado y opinión sobre su implementación en edificaciones, urbanización, infraestructura, entre otros; así como la confianza en una edificación hecha a base de concreto. Luego se hicieron solicitudes de información a dependencias ambientales del municipio de Guanajuato acerca decuántos sitios de disposición autorizados para RCD, así como centros de almacenamiento y reciclaje para los mismos. Toda la información recopilada fue procesada y analizada.


CONCLUSIONES

En el estado de Guanajuato hay muy poca o nula información con respecto a los residuos de concreto de demolición como estudio en obras civiles. Cabe mencionar que la información requerida a constructoras y a graveras fue realmente difícil de conseguir, ya que se mostraron reacios a compartir información.Por un lado, los encuestados indican que cuándo adquieren un producto y/o servicio la funcionalidad,costo, calidad y vida útil tienen el mayor nivel de influencia en su compra. Sin embargoel aspecto de "amigable con el medio ambiente" los valores fueron una tanto desiguales, el valor medio de 3 con un 35%, 4 con un 24% y 5 con un 35%.            Por otro lado, sólo el 5% del total de participantes reside en el estado de Guanajuato, de los cuales 88% indican que el reciclaje puede hacer en cualquier tipo de industria, 94%  afirman que su ocupación está relacionada con la industria de la construcción, pero sólo el 59% tiene conocimiento sobre el concreto reciclado. 39% de éstos últimos consideran que el concreto debería implementarse en obras de urbanización, mientras que 22% en edificación residencial e infraestructura.        
Espinosa Pérez Carlos Alberto, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEÑO MIDI-USB PARA EL DESARROLLO DE UNA GUI


DISEÑO MIDI-USB PARA EL DESARROLLO DE UNA GUI

Espinosa Pérez Carlos Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las tecnologías se han convertido en un medio que permite a los usuarios interactuar con diversas herramientas que facilitan su utilización ofreciendo diferentes recursos. Las interfaces gráficas permiten esta interacción entre hombre-máquina a través de aplicaciones móviles, de escritorio o de videojuegos en las que el usuario accede a ellas con practicidad y le permite realizar diversas actividades para las que está destinada la aplicación. En la industria del entretenimiento, especialmente de la música, las relaciones entre hombre-máquina a través de interfaces gráficas de usuario (GUI, denominación en inglés) no son la excepción y son un amplio campo de aplicación para el desarrollo de una GUI que permita al usuario manipular los mensajes de sus dispositivos musicales. Por lo tanto, es importante reconocer los medios programación que permiten esta comunicación con los dispositivos MIDI para desarrollar una interfaz gráfica GUI de acuerdo con las necesidades del usuario, accediendo a un catálogo amplio que nos permite desarrollar aplicaciones para este entorno.



METODOLOGÍA

Se utilizó el SDK Visual Studio Community 2019 de la compañía Microsoft, herramienta importante de programación para el desarrollo, la depuración y compilación de códigos en lenguajes C# y C++ principalmente. Se instalaron los recursos complementarios de Visual Studio para la plataforma Universal Windows Platform, la cual permite crear aplicaciones para los dispositivos administrados por la compañía Microsoft (tablets, celulares, Xbox, PC, HoloLens, entre otros). Universal Windows Platform cuenta con el modelo de programación Windows Runtime (WinRT) que contiene el set de API’s necesarias para entablar comunicación con dispositivos de entrada y salida, manejo de datos, utilización de media, aplicación de recursos gráficos con el lenguaje XAML, etcétera. La facilidad con la que las aplicaciones sean compatibles con otros dispositivos permite que cualquier usuario pueda acceder a la aplicación desarrollada. El lenguaje C# (C-Sharp) es un lenguaje de programación universal, permite al desarrollador entender y programar scripts para el manejo del SDK. Se utilizaron recursos basados en este lenguaje de programación, así como programación orientada a objetos (POO) para relacionar propiedades, métodos y objetos. Se consultó la bibliografía correspondiente para comprender y analizar la composición de los mensajes MIDI, estos son utilizados principalmente por instrumentos como los teclados o pianos electrónicos con capacidad de transmitir cadenas de bytes para entablar comunicación con sintetizadores o editores de música. También, se consultó y recabó la información de fuentes como: https://docs.microsoft.com/es-es/windows/uwp/audio-video-camera/midi para la utilización de un namespace de WinRT especifico para manejo de dispositivos de audio y MIDI. Se instalan los siguientes complementos de Visual Studio Community 2019 para crear un proyecto en UWP (Universal Windows Platform): Desarrollo de Escritorio .NET y Desarrollo de la plataforma universal de Windows. En Visual Studio se crea un proyecto nuevo seleccionando Blank App (Universal Windows) en el lenguaje de programación de preferencia o en C#. Se creará un nuevo proyecto en el que se encuentra una página de inicio en la que se pueden configurar los tamaños de pantalla, cuenta con un toolbox correspondiente a la creación y diseño de la GUI, además de editar el frontend en lenguaje XAML. Consultando https://docs.microsoft.com/es-es/windows/uwp/audio-video-camera/midi se proponen medidas para implementar la comunicación de mensajes MIDI, en estas se propone crear un Observador, una clase que contendrá la programación y API’s suficientes para obtener las cadenas de bytes de un mensaje de tipo MIDI. Esta clase será parte del backend debido a que es la programación a la que el usuario no tendrá acceso. Finalmente, la aplicación será capaz de recibir cadenas de bytes de dispositivos MIDI, en este caso se utiliza un teclado musical. Los mensajes recibidos en notación decimal son: la nota, si la nota está encendida o apagada, el canal del mensaje, el tiempo y la velocidad con la que la nota fue tocada.


CONCLUSIONES

Se obtuvo una aplicación con una GUI capaz de visualizar los dispositivos MIDI conectados al equipo, seleccionando el dispositivo se observan en un Splitview los mensajes MIDI en decimal con el tipo de nota, la velocidad, el canal y el tiempo. Se espera que el diseño inicial se pueda continuar desarrollando con la aplicación de otros recursos gráficos de programación como lo es Unity, popular editor para la creación de animaciones y recursos de interacción hombre-máquina.
Espinosa Roy Maria Daniela, Instituto Tecnológico de Zitácuaro
Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas

ESTUDIO COMPARATIVO DE BASE DE DATOS NOSQL PARA ALMACENAR IMáGENES EN DISPOSITIVO LOCAL


ESTUDIO COMPARATIVO DE BASE DE DATOS NOSQL PARA ALMACENAR IMáGENES EN DISPOSITIVO LOCAL

Espinosa Roy Maria Daniela, Instituto Tecnológico de Zitácuaro. Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Las bases de datos NoSQL (no relacional), son una forma diferente de almacenar la información puesto que no son relacionales, son de código abierto, distribuido y escalables horizontalmente. Es importante mencionar que las bases de datos NoSQL fueron creadas a fines de los 90 para resolver problemas. Actualmente las bases de datos NoSQL  nos permite un mejor rendimiento si hablamos de enormes cantidades de información y recuperación de la misma. La problemática que se presento fue ¿Cuál será el mejor manejador NoSQL (Mongodb y Casandra) para utilizar en el procesamiento de imágenes?, Por lo que durante la instancia virtual se trabajara con los manejadores NoSQL en el procesamiento de imágenes, recuperado y rendimiento de las mismas.



METODOLOGÍA

Se realizó una investigación de las base de datos NoSQL (no relacional), una vez realizada la investigación se dio a la tarea de elaborar el estado del arte, en la cual se hace una recopilación de otras investigaciones sobre el tema en este caso Comparación de base de datos NoSQL para almacenar imágenes en un dispositivo local. Una vez conocido los temas, se requirió saber cuáles serían los dos manejadores NoSQL que se utilizaron en el proyecto, para lo cual se necesitó del análisis FODA para una vez conocidas sus fortalezas, oportunidades, debilidades y amenazas de los mismos se llegará a la conclusión que los manejadores a usar serían Mongodb y Casandra, así mismo se realizó el mismo procedimiento con el entorno de programación claro tomando en consideración la compatibilidad de los manejadores NoSQL, el cual se optó por Python. Conociendo el entorno de programación y el manejador de base de datos NoSQL se comenzó con la programación del proyecto; empezando por la conexión de base de datos NoSQL (Mongodb) con Python, una vez hecha la conexión se procedió a realizar la interfaz gráfica y después la parte lógica de cada ventana, botón y validaciones de los mismos. Una vez concluido con la programación se procedió a realizar lo mismo pero ahora cambiando el manejador de base de datos NoSQL (Casandra) y Python; una vez obtenida los dos programas se realizaron pruebas en ambos así mismo se buscaron y corrigieron errores de los dos programas.


CONCLUSIONES

Durante la estancia virtual se logró adquirir conocimientos teóricos de las base de datos NoSQL, así mismo ponerlos en práctica en la comparación para el almacenamiento de imágenes. Obteniendo así matrices de rendimiento las cuales fueron de borrado, recuperación  y la inserción de las mismas. Podemos concluir que en nuestro caso el mejor manejador de base de datos NoSQL fue  mongoDB porque en las matrices de rendimiento fueron más rápidas y eficientes que en Casandra en casi todos los aspectos evaluados.
Esquivel Pérez Hernán, Instituto Tecnológico de Lázaro Cárdenas
Asesor: M.C. Jesus Daniel Rojas Cid, Instituto Tecnológico de Lázaro Cárdenas

CÁLCULO DE LA DISTANCIA ENTRE UN OBJETO Y LA CÁMARA DE UN DISPOSITIVO MÓVIL PARA LA PREVENCIÓN DE CÁNCER DE PIEL


CÁLCULO DE LA DISTANCIA ENTRE UN OBJETO Y LA CÁMARA DE UN DISPOSITIVO MÓVIL PARA LA PREVENCIÓN DE CÁNCER DE PIEL

Esquivel Pérez Hernán, Instituto Tecnológico de Lázaro Cárdenas. Asesor: M.C. Jesus Daniel Rojas Cid, Instituto Tecnológico de Lázaro Cárdenas



PLANTEAMIENTO DEL PROBLEMA

Acorde a las investigaciones que se han hecho, es posible decir que el cáncer de piel es altamente curable si se detecta a tiempo. Para ello, en proyectos anteriores se ha desarrollado una aplicación móvil en el Instituto Tecnológico de Lázaro Cárdenas, la cual monitorea el crecimiento de lunares que podrían ser cancerígenos, elimina los pixeles falsos positivos en la segmentación lunar, es decir, aquellos pixeles que no sean realmente parte del lunar, obtiene el tamaño del lunar, etc. Sin embargo, se encontraron con una problemática: la foto se debe tomar a la misma distancia entre la cámara y el lunar todos los días, si esto no se hace, los cálculos para el tamaño del lunar pueden resultar gravemente afectados y no ser coherentes con la realidad. Para intentar resolver este problema se ha realizado esta investigación, se pensó en algunas ideas y algoritmos que pudieran solucionar esta deficiencia: ya sea por medio de trigonometría, cálculo de la cantidad de pixeles por centímetro cuadrado, etc. Pero al final el proyecto se inclinó por hacer uso del sensor de proximidad incluido en la gran mayoría de la cámara frontal de los dispositivos móviles.



METODOLOGÍA

El proyecto se realizó en el IDE Android Studio con el lenguaje de programación Java. Se investigó como poder acceder a la cámara del dispositivo, para lo cual es necesario proporcionar algunos permisos como android.hardware.camera, además de la creación de objetos necesarios para el uso del sensor de proximidad como lo son los tipo Sensor y los SensorEventListener, entre otros. La idea es abrir la cámara del dispositivo y que el dispositivo le avise al usuario cuando tomar la foto. En un principio se pensó en colocar un valor que sobre escribiera la cámara abierta y que indique la distancia que nos proporciona el sensor de proximidad y así se pueda tomar la foto del lunar a la misma distancia cada vez que se haga uso de la aplicación, o tomar la foto automáticamente (acción que se descartó rápidamente por su complejidad), sin embargo, nos encontramos con el problema de que algunos sensores de proximidad no proporcionan una distancia discreta dentro de un rango de valores continuos, es decir, solo retornan 2 valores de alcance (distancia mínima y distancia máxima). Por lo que la idea cambió un poco, ahora se pensó en una alarma que le indique al usuario el momento en el que debe tomar la foto, pero solo tomando esos 2 valores que son los mínimos que retorna el sensor. Los valores proporcionados por el sensor de proximidad son retornados en un arreglo de valores, a lo cual, la distancia se ubica en la posición 0 del arreglo. val = String.valueOf(sensorEvent.values[0]); Ahora, para indicarle cuando tomar la foto se analiza la siguiente condición: Si el usuario va acercando su dispositivo móvil al lunar y el sensor detecta que la distancia ya no es la máxima que permite el sensor, suena una alarma por unos instantes. Para que la alarma vuelva a sonar, se debe alejar el celular y volverlo a acercar lentamente.   if (sensorEvent.values[0] < sensor.getMaximumRange() && max) {              max = false;              sound(); } También se hace uso de una variable booleana que nos permite saber si el usuario está alejando el dispositivo o lo está acercando acorde al cambio entre el mínimo y máximo alcance del sensor, y de esta forma evitar que la alarma suene cuando se está alejando el dispositivo y solo suene cuando se está acercando.


CONCLUSIONES

Hay que resaltar que no se logró calcular la distancia entre los objetos, pero con ayuda del sensor de proximidad nos aseguramos de que la distancia sea prácticamente la misma cada vez que el usuario tome la foto, y con esto el porcentaje de error del cálculo del tamaño del lunar sea mucho menor, por lo que el objetivo de la investigación se cumplió, el cual era ayudar a que el usuario tome la foto a su lunar de forma diaria a la misma distancia. Faltaría probar la aplicación en distintos dispositivos para ver si funciona correctamente y así añadirle esta función a la aplicación ya desarrollada en el ITLAC para la detección de lunares para la prevención de cáncer.
Estrada Ceja Elvia Gissel, Instituto Tecnológico de Tepic
Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana

APROVECHAMIENTO DE RESIDUOS CERáMICOS COMO MATERIALES DE CONSTRUCCIóN: REVISIóN DEL ESTADO DEL ARTE


APROVECHAMIENTO DE RESIDUOS CERáMICOS COMO MATERIALES DE CONSTRUCCIóN: REVISIóN DEL ESTADO DEL ARTE

Estrada Ceja Elvia Gissel, Instituto Tecnológico de Tepic. Marin Luna Ruth del Carmen, Benemérita Universidad Autónoma de Puebla. Tarazon Romo Adriana Guadalupe, Universidad de Sonora. Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Analizar la viabilidad del uso de los residuos de construcción y demolición provenientes de materiales cerámicos por medio de una investigación bibliográfica enfocada en su aprovechamiento en cemento, concreto, rellenos y pavimentos.



METODOLOGÍA

Definir los objetivos de investigación Recibir capacitaciones sobre búsqueda en bases de datos, citación y conceptos técnicos Analizar cómo se estructuran y escriben los artículos de revisión de estado del arte Consulta en bases de datos y fuentes documentales primarias, especialmente artículos de revistas científicas indexadas Organización y selección de información Análisis de información recolectada Entrevistas con expertos Ejecución de seminarios sobre el tema abordado Inicio de la redacción del documento Generar interpretaciones y posturas críticas en torno al tema Culminación del documento escrito en un formato de revista o congreso técnico


CONCLUSIONES

El sector de la construcción es uno de los principales contribuyentes a la degradación ambiental, especialmente, por la generación de residuos. En la actualidad, la cantidad abrumadora de desechos de construcción y demolición se ha convertido cada vez más en una grave problemática, que afecta negativamente el ambiente por la contaminación de suelo, aire y agua. Por lo anterior, es fundamental crear una conciencia en el medio técnico y exigir su uso, ya que como ha sido mostrado en diversas investigaciones, estos residuos pueden ser aprovechados como materiales de construcción, promoviendo así la economía circular. PRINCIPALES RESULTADOS: El cemento es uno de los principales contribuyentes a las emisiones de gases de efecto invernadero. Los residuos cerámicos pueden reemplazar parcialmente al cemento y tienen un desempeño variable dependiendo de la cantidad utilizada, produciendo así mezclas sostenibles y económicas. Una de las ventajas del uso de estos residuos en el concreto es la propiedad de mitigar significativamente la contracción autógena. Agregados reciclados cerámicos pueden ser aprovechados en la producción de concreto no estructural para losas de pavimento. Finalmente, es importante que estos agregados cumplan con las normas vigentes de cada país.
Estrada Vilchis Jose Alfredo, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mg. Jesùs Antonio Peña Rueda, Corporación Universitaria Centro Superior Unicuces

ANALIZAR EL USO DE HERRAMIENTAS LEAN MANUFACTURING EN SISTEMAS DE PRODUCCIóN COMPETITIVOS Y SU APLICACIóN EN EMPRESAS MEXICANAS DEL PERIODO DE 2010-2019.


ANALIZAR EL USO DE HERRAMIENTAS LEAN MANUFACTURING EN SISTEMAS DE PRODUCCIóN COMPETITIVOS Y SU APLICACIóN EN EMPRESAS MEXICANAS DEL PERIODO DE 2010-2019.

Estrada Vilchis Jose Alfredo, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Jesùs Antonio Peña Rueda, Corporación Universitaria Centro Superior Unicuces



PLANTEAMIENTO DEL PROBLEMA

  Las malas metodologías y herramientas usadas en una empresa para su producción han hecho a muchas empresas caer en la quiebra dando como consecuencia grandes deudas, ya sean con los proveedores o hasta con los clientes, esto a causa de entregas de productos con mala calidad. La calidad es una característica muy importante hoy en día y sin una buena metodología no se podría lograr, por eso muchas han optado por métodos ya establecidos de hace muchos años atrás entre ellos esta Lean Manufacturing como una alternativa para las empresas. En México muchas de las grandes empresas ya han optado por herramientas de Lean Manufacturing para evitar gastos innecesarios, por ejemplo empresas como Modelo o la empresa tequilera Casa Sauza quienes después de varios años de trabajo han optado la filosofía como parte de su fabricación. Lean Manufacturing como un método de solución para muchas empresas ya sean medianas o grandes. Haciendo mejoras en varios ámbitos tanto en el personal de trabajo como en la producción, dando resultado a la empresa con mejores ganancias, evitando todos aquellos grandes desperdicios.



METODOLOGÍA

Esta investigación emplea un enfoque cualitativo. Se utiliza un método de investigación cualitativo, con el propósito de abordar las diferentes herramientas aplicadas en el lean Manufacturing para lograr una comprensión más amplia del mismo. En términos generales, las técnicas cualitativas permiten comprender un fenómeno de interés, (Creswell, 2012). Dada la aplicación de procedimientos de búsqueda, la investigación genera datos de tipo textual a través de búsqueda de palabras clave La información para el desarrollo de la investigación se obtiene de fuentes indirectas mediante búsqueda en Internet de las palabras claves y sus combinaciones posibles con el fin de encontrar información concreta y clara, en la búsqueda se utilizan palabras en español e inglés para aumentar las posibilidades en la búsqueda.


CONCLUSIONES

Con la información recabada en el presente artículo se pudieron conocer algunos de los principios por los cuales la herramienta Lean Manufacturing es exitosa, pero de igual manera se exponen razones por las cuales sus resultados no han sido positivos, como lo es que las empresas solo se enfocan en la aplicación de la metodología, mas no en comprender toda la filosofía que esta implica, ni el por qué se debe de considerar el trabajo como un conjunto. De igual forma cabe mencionar que se debe de tener una mentalidad de mejora continua para lograr resultados favorables. En base al objetivo principal planteado al inicio del proyecto, el cual se enfoca en el análisis del impacto de la implementación de Lean Manufacturing en la mejora continua y optimización de un sistema de producción, y considerando los resultados que se obtuvieron en las empresas donde se implementó dicha herramienta, se obtuvieron disminuciones considerables, por ejemplo, en las áreas utilizadas se optimizaron en un 50%, con un 40% respectivamente se reducen los costos de producción, los inventarios y los costos de calidad. Por último, se tiene el 25% en Lead time y el 20% en los costos de compras, logrando con ello la mejora continua en los diferentes procesos del sistema de producción, que conllevan al uso eficiente y eficaz de los recursos convirtiendo las empresas más competitivas. En el transcurso del estudio fueron comprobados los supuestos puesto que, ciertamente, el sistema de producción se ve mejorado después de la aplicación de Lean Manufacturing, se proporcionan datos de fuentes confiables que lo demuestran. La clave para el éxito está en la correcta aplicación, en poner toda la disposición y compromiso posible por parte de todas las partes involucradas, y en no resistirse al cambio, ya que no es sencillo tratar de imponer un nuevo modo de pensar a las personas. Uno de los hallazgos principales fue el identificar la problemática principal a la que enfrentan las empresas que deciden implementar la herramienta Lean Manufacturing es la falta de cultura de las personas involucradas, además de la desinformación y desconocimiento antes de llevarla a la práctica, resaltando también el hecho de que no se logra comprender a fondo la filosofía tan inmensa que la herramienta abarca. Dentro de las aportaciones que se obtienen de la realización de este proyecto de investigación es identificar fácilmente las razones, ventajas y aplicaciones de Lean Manufacturing en las diferentes empresas, para poder tomar la decisión de establecer esta técnica. También se consideran algunas limitantes como lo es el tiempo se requiere para obtener resultados, ya que mínimo se necesitan cerca de dos años.
Estudillo Camacho Brenda, Universidad Autónoma de Chiapas
Asesor: Dr. Ricardo Bonett Díaz, Universidad de Medellín

ANÁLISIS DEL COMPORTAMIENTO SÍSMICO DE EDIFICIOS DE MUROS DE CONCRETO REFORZADO BASADO EN MACRO PARÁMETROS.


ANÁLISIS DEL COMPORTAMIENTO SÍSMICO DE EDIFICIOS DE MUROS DE CONCRETO REFORZADO BASADO EN MACRO PARÁMETROS.

Chávez Méndez Dorismar, Instituto Tecnológico de Colima. Estudillo Camacho Brenda, Universidad Autónoma de Chiapas. Gómez Espinoza Uriel Ignacio, Universidad Autónoma de Chiapas. Martínez Bojorges Iván, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Bonett Díaz, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

La tendencia del desarrollo vertical en los grandes entornos urbanos motivado por la ausencia de espacio ha impulsado el uso de sistemas industrializados en el sector de la construcción en Colombia. Uno de los sistemas de mayor uso, es el sistema de muros vaciados de concreto reforzado, conocido también como muros industrializados o de corte. En la actualidad las propuestas arquitectónicas sugieren espacios libres de muros para generar sensaciones de amplitud, por lo que la implementación de muros cortantes proporciona resistencia y rigidez ante carga laterales. La optimización de espacios, así como la reducción de costos y algunos vacíos normativos a nivel de parámetros de control sobre el dimensionamiento de los elementos estructurales, ha promovido el uso de muros delgados y esbeltos, es decir, elementos estructurales altos y de poco espesor, en los cuales no es posible incluir estribos o ganchos de confinamiento. Los muros son subsistemas estructurales sólidos rígidos, que brindan estabilidad a la estructura de una edificación. Los muros de corte son paredes de concreto armado que absorben fuerzas laterales coplanares (sismo, viento) rigidizando la estructura con el propósito de reducir las deformaciones excesivas y por consiguiente los daños, que puedan afectar el comportamiento integral de la misma. En la presente investigación se realizó el análisis estructural de un edificio de 20 y 12 niveles localizados en la ciudad de Bucaramanga departamento de Santander (Colombia), zona de alta sismicidad. Los edificios se analizaron a partir de una metodología desarrollada por la Red Colombiana de Investigación en Ingeniería Sísmica, CEER, la cual involucra los principales macro parámetros que controlan el comportamiento sísmico. La problemática surge con base a la necesidad de realizar una evaluación conceptual rápida y eficiente a partir de las características geométricas de los edificios construidos con el sistema de muros de concreto reforzado localizados dentro del nido sísmico de Bucaramanga, con el fin de identificar casos críticos que puedan generar una catástrofe durante un determinado evento sísmico. Es por ello que el correcto análisis de los elementos que conforman la configuración estructural de los edificios permite conocer si la disposición estructural es favorable o desfavorable en términos del desempeño sísmico esperado.  



METODOLOGÍA

Para la evaluación se empleó una metodología simplificada desarrollada por la Red Colombiana de Investigación en Ingeniería Sísmica, CEER. Para determinar el funcionamiento de los muros de corte presentes en ambos edificios, se analizaron los siguientes parámetros: Densidad de muros: permite determinar el área existente de cada uno de los muros de corte en edificio, a mayor densidad de muros menor carga axial, si la densidad es mayor que 3% la configuración del edificio se considera favorable desde el punto de vista de rigidez lateral. Relación de esbeltez: el cálculo de la esbeltez de cada uno de los muros permite conocer qué muros son capaces de soportar cargas laterales y cuáles son más propensos a que se pandeen. Relación de aspecto influye en la capacidad de rotación inelástica del muro:  los indicadores muestran el tipo de cada uno de los muros (cortos, intermedios o largos) y su capacidad deformación lateral. Porcentaje de cortante sísmico: determina el valor porcentual de carga sísmica que soporta cada uno de los muros de los edificios. Detallado del acero de refuerzo de los muros principales: permite calificar el tipo de refuerzo que tiene el elemento y si cuenta o no con confinamiento. Para cada uno de los casos de estudio, se realizó un análisis de la distribución de los macro parámetros y a partir de unos rangos o intervalos definidos por la Red CEER, se determina el nivel de diseño o el comportamiento esperado de ambos casos de estudio. Los cálculos mencionados anteriormente se obtuvieron por medio de hojas de cálculo de Excel ya que facilita el manejo de los parámetros para determinar el análisis estructural.


CONCLUSIONES

El desarrollo de infraestructura por medio de muros cortantes permite una nueva visión al momento de tomar decisiones estructurales en México, ya que las edificaciones predominantes en el país son por medio de pórticos, así que el conocer diversas alternativas estructurales ofrece un estudio detallado sobre los cimientos y la estructura del edificio en base a la región en la que se localiza y el entorno inmediato que demanda. Los resultados obtenidos presentan una herramienta útil para determinar la configuración estructural del edificio, en donde se demostró el comportamiento estructural de cada uno de los muros presentes en ambos edificios. La investigación brinda una pauta para que en un futuro sean analizadas edificaciones por medio de macro parámetros, ya que es una manera rápida y eficiente en la toma de decisiones sobre configuración estructural. En caso de que los resultados obtenidos sean desfavorables se requerirá un segundo análisis más detallado, en donde se incorporen modelos numéricos, procesos de análisis no lineal, así como modelados en tercera dimensión para evaluar el comportamiento de cada edificio con simulaciones de eventos sísmicos.
Fandiño Rojas Johan Stiven, Servicio Nacional de Aprendizaje SENA - Regional Atlántico
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PROPUESTA DE UN SISTEMA DE BOMBEO FOTOVOLTAICO EN LAS ZONAS VERDES DEL SENA


PROPUESTA DE UN SISTEMA DE BOMBEO FOTOVOLTAICO EN LAS ZONAS VERDES DEL SENA

Albarran Menchaca Ariana Lilibeth, Tecnológico de Estudios Superiores de Valle de Bravo. Fandiño Rojas Johan Stiven, Servicio Nacional de Aprendizaje SENA - Regional Atlántico. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El riego de zonas verdes representa un costo importante en las finanzas de cualquier institución, tanto pública como privada, sin embargo, el mantenimiento de estas zonas no solo es con el objetivo de que se tenga una mejor presentación en estos recitos, sino que tiene beneficios en las personas que los frecuentan. Como lo son la reducción de altas temperaturas en los edificios, reducen el estrés, restaurador mental y tiene beneficios en cuanto al rendimiento académico. Se han presentado caso en el que el riego y mantenimiento de las zonas verdes puede ser hasta de un 75% de un presupuesto dependiendo de las dimensiones de estos. Lo cual deriva en el abandono y perdida de estos espacios. Uno de los mayores problemas en estos casos, es que no se consideran alternativas con energías renovables para que el abastecimiento de la energía del equipo de bombeo encargado del riego sea independiente al de la red que alimenta toda la institución, y de esta manera reducir el gasto por consumo eléctrico.



METODOLOGÍA

Para llevar a cabo la realización de la propuesta se propone un sistema automatizado, eficiente, funcional y viable para su realización teniendo en cuenta las condiciones del lugar de realización y los materiales a utilizar. La institución pública del SENA ubicada en ciudad de Barranquilla Colombia presenta una alta composición de zonas verdes y un alto compromiso con el medio ambiente, para llevar a cabo los materiales que debe contener el sistema se hizo necesario la medición del área del jardín a llevar la respectiva implementación y sus condiciones durante un año para generar con ello la respectiva dimensión. El área midió 261,408 m² por cada metro cuadrado se hace necesario 10 litros para un riego eficaz, por lo que se necesitan 2614,08 litros de agua para abastecer las áreas verdes. Para suplir esta cantidad de agua se hace necesario un tanque elevado de 3000 litros ubicado de 4 a 7 metros de la superficie, con una capacidad mayor de lo que requerido, este tanque podrá ser llenado bien del agua red municipal o bien del aprovechamiento de temporadas lluviosas para la reutilización de esta. Para establecer el sistema de riego que pueda llegar de forma homogénea y alcanzar el área a hacer regada se hace selección del sistema más económico y ecológico a largo plazo con uso de paneles fotovoltaicos el riego por goteo. La bomba de agua sumergible SHURFLO 24V/DC modelo 9300 es la ideal para sistema de bombeo al tener las características que llevan al mejor rendimiento en bombeo, presión y caudal requerido, características tan importantes como: Puede ser regulada a 12v. Bombeo de 300-400 litros por hora de agua en caudal. Funciona a 24v corriente continua para poso o directa. Pesa 3 kilos. Funciona con panel de 180vatios a 24v Conociendo el recurso solar en Barranquilla Colombia, el cual es de 35° C como máxima y 24° C como mínima en promedio, además de la irradiación de las horas pico en donde su mayor promedio se presenta para el mes de marzo con un 6,5 Horas sol pico (HSP) y su mínima para el mes de octubre con 4,8 HSP por las altas lluvias presentadas durante ese mes, en busca de su mayor aprovechamiento, rendimiento y funcionamiento durante temporadas de alta irradiación se propone al sistema el uso de 5 paneles fotovoltaicos de 200W a 24V/DC regulados y almacenadas en 2 baterías estacionarias de 2000 amperios para el almacenar lo brindado en estas horas efectivas de sol, para temporadas con poca HSP consecuencia de las lluvias se hará almacenamiento y reutilización de la misma almacenada en el tanque para el riego después de lluvias o lo que se requiera con ello se determinó el equipo de bombeo. Para la puesta en marcha se propone un sistema compuesto por: 5 paneles fotovoltaicos de 200W a 24V. 2 baterías estacionarias de 2000 amperios Bomba de Agua Sumergible Shurflo 24V modelo 9300 1 controlador solar. 1 tanque elevado de 3000 litros. 60 metros de tubo PVC 7 metros de manguera.


CONCLUSIONES

Durante la estancia de verano virtual se logró adquirir conocimientos teóricos y prácticos de la energía solar y todo el trasfondo e impacto que tiene en la línea de investigación energías renovables, durante el tiempo de aprendizaje mediante el uso de diferentes plataformas y la puesta en práctica de cada uno de los temas trabajados, pudimos hacer el análisis del requerimiento energético para una propuesta basada en una bomba solar sustentada por paneles fotovoltaicos, buscando con ello el mayor aprovechamiento posible, además determinar según el medio, las condiciones y el comportamiento solar la dimensión para calcular lo eficiente y funcional que sería la realización de la propuesta antes mencionada.
Farfan Peña Roberto Alejandro, Instituto Politécnico Nacional
Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara

PRODUCTOS PARA APOYO A PEQUEñOS AGRICULTORES


PRODUCTOS PARA APOYO A PEQUEñOS AGRICULTORES

Farfan Peña Roberto Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Cuauhtemoc Acosta Lua, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los pequeños productores agriculas no cuentan con el poder adquisitivo suficiente para adquirir la maquinaria y/o tecnologías que les permitirian eficientar sus tareas. Al crear productos asequibles para ellos se les brindara un ventaja estrategica y tecnologica.



METODOLOGÍA

Para la creación de un prodcuto se planea completar cinco etapas. La odentificación de los requerimientos del producto, el diseño del producto, implementación, pruebas controladas del producto y pruebas de campo del producto. 


CONCLUSIONES

El primer producto consta de un aditamento para una mochila agricola; el aditamento tiene la función de rastear la posición geografica del usurario de la mochila en algún campo de cultivo, monitorear la distancia recorrida y controlar la salida de los liquidos que contenga la mochila agricola. Para finalizar el producto se requeire de realizar pruebas de campo. El segundo producto fue el calculo y simulación de un eje motriz para tractor. Para la finalización del producto se requiere de más tiempo para terminar los calculos y simulaciones pertinentes.  
Farías Gómez Kelly Jocelyn, Instituto Tecnológico de Toluca
Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero

INNOVACIóN PARA LA EDUCACIóN


INNOVACIóN PARA LA EDUCACIóN

Farías Gómez Kelly Jocelyn, Instituto Tecnológico de Toluca. Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen diversas capacidades intelectuales en México y otros paises. Por lo cual, es necesario poder desarrollar la inclusion de estos grupos de personas para el aprendizaje y desarrollo de las diferentes habilidades como es la escritura, el habla y la lectura. Es por ello que en el presente trabajo se desarrollo un material didactico por medio del uso de las tecnologias , como es la impresion 3D y el desarrollo de software, para poder aportar en la educación de este grupo de personas 



METODOLOGÍA

Para el desarrollo de este proyecto nos basamos en el Metodo Troncoso desarrollado por  María Troncoso, en este método explica como aprenden los niños con Sindrome de Down , la cual es un aprendizaje invertido a la eduacación tradicional. Para el desarrollo de esta innovación se tomaron en cuenta 3 aspectos importantes: -La relación de palabra-imagen -La relacion de figuras y la vocal -La relacion de color y vocal -La escritura por medio de la textura  y por trazos Esto se logro por medio de creacion de vocales como primer etapa con un diseño de 3D donde se resalta la letra y tiene un espacio para poder trazar la letra. Otra tecnologia que usamos fue el desarrollo de una aplicación para Android la cual muestra las imagenes y la palabra.   


CONCLUSIONES

Por medio de esta innovación se pretende ayudar a niños a poder leer y escribir de forma fluida, además de poder ofrecer otra alternativa para la educación de diferentes niños con capacidades diferentes. Por otra parte se vio reflejado mayor el interés de un niño con la implementacion del material didactico diseñado en este proyecto y el uso del telefono para poder visulizar imagens 
Ferrer Sánchez José del Carmen, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas

PéRDIDA DE PRESIóN DE UN ACEITE DE ALTA VISCOSIDAD EN TRANSPORTE BIFáSICO POR DOSIFICACIóN DE UN MEJORADOR BASE AGUA


PéRDIDA DE PRESIóN DE UN ACEITE DE ALTA VISCOSIDAD EN TRANSPORTE BIFáSICO POR DOSIFICACIóN DE UN MEJORADOR BASE AGUA

Ferrer Sánchez José del Carmen, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La economía en México considera en gran parte la industria petrolera desde principios del siglo XX, de tal manera que se han buscado diferentes métodos para el mejoramiento de la industria petrolera, tanto en la extracción del crudo como en su procesamiento y transporte, ya sea por tierra o mar. Las principales reservas mexicanas de crudo son de tipo pesado o extrapesado, conteniendo sustancias pesadas como son los asfáltenos o parafinas, entre otras sustancias serian azufre, resinas, entre otros; las investigaciones se han enfocado principalmente a reducir la viscosidad del fluido considerado, con procesos de calentamiento o de inyección de productos mejoradores de arrastre, lo que permite reducir la fricción en los oleoductos, entre los que se encuentra el uso de sustancias que interaccionan con los asfáltenos, evitando la formación de aglomerado asfalténico y los taponamientos respectivos de tuberías, generando un incremento en los costos debido a la energía necesaria para el transporte de petróleo. La presente investigación estudio el efecto del uso de un tensoactivo en el transporte de un aceite derivado de petróleo en una tubería que es utilizado como un líquido modélico para un crudo transportado. El experimento también se realizó en medio poroso para denotar los cambios en el flujo de este.



METODOLOGÍA

Se utilizaron tuberías de 1 y 2 metros de material de PVC y con un diámetro de ¾ in, de igual manera un recipiente con capacidad de 3L, una válvula tipo globo de plástico, un receptor con capacidad de 3L, 2 corchos y 1 jeringa de 30 ml de volumen para la inyección del mejorador a la corriente. Las corridas se realizaron en condiciones monofásicas considerando la ausencia de gases en el transporte del líquido dentro del circuito. En el mismo sistema, después de encontrarse en el estado de equilibro se procede a inyectar un aditivo a base de tensoactivo para reconocer los cambios en el flujo y tiempo correspondiente sin y con el mejorador; estos experimentos se repitieron cinco veces cada uno. Se usaron las sustancias a una temperatura de 32 °C, tanto el aceite como el mejorador, se usa el sistema de inyección para la introducción del agua en el sistema que generara los resultados que se esperan tener. Se usan como medida 2L de aceite pesado debido a la disponibilidad para su medición.


CONCLUSIONES

La diferencia de los tiempos de mejoramiento de cada prueba fue de un 12 %. Esto es, se observó que los tiempos necesarios para transportar el mismo volumen de aceite se reduce cuando se utiliza el mejorador. Estos resultados son lineales con respecto al uso de tuberías del doble de largo, lo que brindó representatividad de los resultados en dos condiciones que variaron en el doble de largo de la tubería. El tensoactivo utilizado en agua no afectó las características del aceite ni formaron emulsiones. Se observó que es fácilmente separable cuando se realiza a bajos números de Reynolds (flujo laminar). Estos resultados fueron similares en el flujo en medio poroso utilizando arena como éste, en el medio poroso se noto una mejora del 8% del tiempo usando el mejorador.
Figueroa Andrade Miriam, Instituto Tecnológico Superior Purépecha
Asesor: M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo

RELLENOS DE RESIDUOS SANITARIOS PARA LA PRODUCCIÓN DE BIOGÁS EN LA ZONA DE TARETAN CON RELACIÓN DE SAHUAYO


RELLENOS DE RESIDUOS SANITARIOS PARA LA PRODUCCIÓN DE BIOGÁS EN LA ZONA DE TARETAN CON RELACIÓN DE SAHUAYO

Figueroa Andrade Miriam, Instituto Tecnológico Superior Purépecha. Asesor: M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo



PLANTEAMIENTO DEL PROBLEMA

Dentro de los municipios de Sahuyo, Jiquilpan, Venustiano Carranza, villamar y Cojumatlan de Regules, (correspondientes al estado de Michoacán), se a implemntado el proyecto de reciduos sanitarios para la producción de biogás,por ello en el municipio de Taretan se llevó a cabo la investigación, de los conocimientos que tiene la población respecto a ellos, así como de la contaminación ambiental y los gases de efecto invernadero, además de las empresas que más los generan dentro de la localidad. 



METODOLOGÍA

El primer punto que se aborda en el proyecto es la creación de un cronograma para llevar a cabo las actividades en tiempo y forma. Se llevara a cabo cuestionarios para conocer los puntos de vista de las personas dentro de la comunidad así podremos observar si existe un pre-interés hacia la mejora del tratamiento de los residuos sanitarios. Posteriormente se llevó a cabo la investigación de documentos para generar conocimientos previos del funcionamiento del proyecto; en los documentos del proyecto de residuos sanitarios para la producción de biogás,  que se llevó a cabo en los municipios de Sahuayo, Jiquilpan, Venustiano Carranza, Villamar y Cojumatlan de Regules, de donde se obtiene información de cómo se lleva a cabo la administración del centro de rellenos sanitarios y los roles que cada responsable del gobierno de cada estado lleva a cabo en los años que dure respectivamente el rol y su estancia en el gobierno de su municipio. Para ello se implementan normas y moderaciones que ayuden a que el proyecto sea estable, ya que todos los involucrados son responsables de mantener el orden. Otro de los documentos es el Cronograma del Programa Intermunicipal de Educación Ambiental en la Región de la Ciénega, donde se tiene como objetivo destinar los talleres, campañas y convocatorias para que los habitantes se interesen en el manejo adecuado de los residuos generados en los municipios. Se analizó también el Protocolo del Programa de Educación Ambiental , para ello se ha optado por difundir información con herramientas de softwares y herramientas digitales, de esta manera se podrá analizar la información de una forma más rápida y precisa. La información se impartirá a manera de taller o conferencia a todos los niveles de educación ya sean públicos o privados. Dentro de la UMICH (Universidad de la Ciénega Michoacán) se encuentran los grupos de trabajo y brigadas, que darán apoyo con la información que se les brindara en cursos, los cuales abarcan temas como: contaminación ambiental y gases de efecto invernadero. En seguida se hará uso de encuestas para ver si la perspectiva que tenían anteriormente las personas cambia, en base a la información que se imparten en los talleres y por la implementación de la educación ambiental dentro de la comunidad. Finalmente se espera que los tiempos y las actividades se lleven a cabo de forma adecuada.


CONCLUSIONES

En el desarrollo de la investigación se implementó una encuesta, donde la muestra fueron 22 individuos; se realizó con el fin de saber qué opinaba la población sobre la contaminación ambiental, la basura y los gases de efecto invernadero y se encontró que la población se interesa en mejorar el estado ambiental y el manejo eficiente y adecuado de los residuos.En el desarrollo de la investigación se implementó una encuesta, donde la muestra fueron 22 individuos; se realizó con el fin de saber qué opinaba la población sobre la contaminación ambiental, la basura y los gases de efecto invernadero y se encontró que la población se interesa en mejorar el estado ambiental y el manejo eficiente y adecuado de los residuos y más del 80% considera importante darle un buen tratamiento a los residuos.
Flores Islas Daniela Ingrid, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

SIMULACIóN DEL COMPORTAMIENTO DE UN ROBOT CARTESIANO DE 3GDL A PARTIR DE SU MODELO DINáMICO.


SIMULACIóN DEL COMPORTAMIENTO DE UN ROBOT CARTESIANO DE 3GDL A PARTIR DE SU MODELO DINáMICO.

Flores Islas Daniela Ingrid, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los robots manipuladores cuentan con una gran variante de aplicaciones tanto a nivel industrial como académico, estos robots pueden ser utilizados como herramientas de aprendizaje, ya que por sus vertientes representan un gran material de apoyo en el desarrollo de proyectos y conocimientos estudiantiles, sin embargo, los precios de estas herramientas pueden elevarse hasta decenas de miles de pesos, por lo que en su mayoría, contar con uno de estos robots no se ve como una herramienta sino como un lujo, uno que no todos pueden costear. El objetivo principal de esta investigación es analizar y aplicar un modelo dinámico que describa de manera eficiente y repetible el comportamiento de un robot manipulador de 3 GDL como lo es un robot cartesiano (PPP), dicho modelo será implementado en un diseño CAD sencillo, brindando alternativas que el estudiante o profesionista pueda utilizar sin exagerar en la compra de un PPP que pueda o no adecuarse a las necesidades del interesado.



METODOLOGÍA

I. MODELO DINÁMICO DEL SISTEMA Para este ejercicio se consideró una estructura cartesiana de 3GDL, la cual provee movimiento de solo traslación, lo que indica que la energía de rotación es cero. Se procede a calcular el Lagrangiano restando la energía potencial a la energía cinética. Después se resuelve por partes la ecuación de Lagrange para un sistema conservativo: Se resuelve la derivada parcial del Lagrangiano con respecto a la velocidad articular (derivada de la posición vectorial). Posteriormente se deriva toda la expresión respecto al tiempo. Luego se resuelve el término independiente, el cual queda en función del eje z. Finalmente se obtiene el modelo dinámico del robot cartesiano que es igual a la suma de los resultados de los incisos b y c, y en caso de existir, se suman también los efectos de fricción que afectan al sistema. II. DISEÑO CAD Y ENLAZAMIENTO DE SOFTWARES Al realizar un ensamblaje del robot de 3GDL en este software CAD se puede visualizar mejor su estructura y sus características, así como exportarlo a MATLAB para continuar con la simulación del sistema. Para lograr esto con éxito se debe descargar el complemento SIMSCAPE MULTIBODY en la página oficial de MathWorks y tener versiones compatibles de ambos softwares, en este caso se utilizaron las versiones R2020a para MATLAB y SOLIDWORKS (SW) 2018. Una vez que se modelaron todas las piezas que componen el robot se procede a ensamblarlas para posteriormente realizar la exportación a MATLAB/SIMULINK, lo que generará el archivo con extensión .xml. Es necesario que todos los archivos (piezas, ensamblaje, archivo .xml y simulaciones) se encuentren en la misma carpeta. III. SIMULACIÓN MATLAB/SIMULINK Ya que se cuenta con el modelo dinámico del sistema a analizar y el modelo CAD, se prosigue con la implementación del diagrama a bloques en el software MATLAB/SIMULINK R2020a, Se debe proceder con la exportación del modelo CAD en un archivo en SIMULINK, el cual será la simulación de la planta, para esto se debe escribir la siguiente instrucción smimport(‘NOMBRE DEL ARCHIVO.xml’) en Command Window de MATLAB, tras ejecutar la instrucción se crea un archivo en SIMULINK con las articulaciones correspondientes al sistema importado. Primero se deben definir las entradas y salidas de cada articulación: dando doble clic en la articulación a modificar, en el apartado de ACTUATION>TORQUE seleccionar la opción PROVIDED BY INPUT; y en el apartado de SENSING seleccionamos POSITION, se aplican y aceptan estos cambios y se repite el procedimiento cada una de las articulaciones. Continuando con la creación de la planta, en el archivo SIMULINK se agregan tres bloques entrada Simulink-PS Converter, cada bloque agregado es conectado a la entrada de cada uno de los bloques articulación modificados con anterioridad; de igual forma se agregan tres bloques salida PS-Simulink Converter y éstas son conectadas a las salidas de cada bloque articulación. Posteriormente se agregan tres bloques de entrada (Tau1, Tau2 y Tau3) que serán conectados a los bloques entrada Simulink-PS Converter y tres bloques salida (q1, q2 y q3) mismos que se conectan a los bloques PS-Simulink Converter. Finalizando la creación de la planta, se seleccionan todos los elementos del archivo SIMULINK y se crea un subsistema Planta. Dicho subsistema deberá ser conectado con un bloque DEMUX, cuyas salidas se conectan a las entradas de Planta (Tau1, Tau2 y Tau3) y un bloque MUX, cuyas salidas de Planta (q1, q2 y q3) se conectan a las entradas de este bloque. Las conexiones anteriores se sitúan anexas a un bloque de control, el cual contiene tres entradas: posición (q), velocidad (qp) y error de posición(qtilde), las ganancias (KP y KV) y la salida (Tau); un bloque qd que representa la trayectoria (cuenta con una entrada interna que es el tiempo y una salida externa al bloque que es la posición deseada) y un bloque de derivación. Empleando las ecuaciones previamente obtenidas del modelo dinámico, se realizan las conexiones entre los cuatro bloques descritos previamente: La salida del bloque qd es conectado a un punto suma en su entrada positiva. La salida del punto suma es conectada a la entrada del error de posición del bloque Control. La salida del bloque de derivación es conectada a la entrada de velocidad del bloque Control. La salida del bloque Control es conectada a la entrada del DEMUX. La salida del MUX se trifurca y una rama se conecta a la entrada de posición de Control, la segunda rama a la entrada del bloque de derivación y por último la tercer rama se conecta al punto suma en su entrada negativa. Teniendo las conexiones de la Planta y el Control se conectaron dos Scopes, uno en la salida del MUX y el otro en la salida TAU de Control, posteriormente se agrega un graficador de dos entradas conectado a las salidas de Planta, esto con el fin de visualizar gráficamente el comportamiento de las posiciones articulares del sistema y la animación que representa el movimiento del robot.


CONCLUSIONES

Las pruebas realizadas en la simulación del mecanismo con el método ya descrito se encuentran dentro de los parámetros establecidos por la trayectoria qd pues se lograron obtener las gráficas cuya representación articular muestra la posición de las salidas de Planta, así como la trayectoria deseada que representa un helicocicoide.
Flores Luis Fatima Alejandra, Universidad Politécnica de Tecámac
Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac

SISTEMA DE COMUNICACIóN WIFI CON ACCESORIOS ELéCTRICOS Y COMPUTADORA DE UN AUTOMóVIL PARA LA CONEXIóN CON EL IOT


SISTEMA DE COMUNICACIóN WIFI CON ACCESORIOS ELéCTRICOS Y COMPUTADORA DE UN AUTOMóVIL PARA LA CONEXIóN CON EL IOT

Buendia Martinez Cristian Antony, Universidad Politécnica de Tecámac. Flores Luis Fatima Alejandra, Universidad Politécnica de Tecámac. Matias Carmona Roberto, Universidad Politécnica de Tecámac. Rodriguez Flores Lizeth, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

El principal problema es que los usuarios no pueden detectar las fallas que presente su automóvil de manera rápida y cómoda, tienen que llevar sus vehículos a revisión para identificar la falla. En el mundo hay un automóvil por cada siete personas, según una estimación hecha por Enrique Koganen en el 2016. El problema también está presente en México, ya que, a nivel nacional se tiene una aproximación 3,565,469 de automóviles, estimación realizada por Enrique Koganen en el 2016. En la localidad de Tecámac según la estadística básica municipal de Tecámac, en el 2012 aproximan un total de 3,194 automóviles. En la actualidad la sociedad se ha acostumbrado tanto a vivir con electrodomésticos, autos y teléfonos celulares. Los automóviles son un medio de transporte muy útil, por lo que se busca un buen funcionamiento del mismo. Existen varios softwares y aplicaciones, pero no todos son amigables y funcionales para el usuario. Se requiere de un sistema para tener un control en los servicios mecánicos y manipulación de accesorios eléctricos del automóvil para un mayor confort.  



METODOLOGÍA

El presente trabajo presenta una metodología scrum que hace un énfasis especial en la consideración de los requisitos no funcionales características de este tipo de sistema como los requisitos temporales o la interacción con dispositivos físicos del vehículo. Además de que ejecuta el proyecto en fases cortas y permite mucha flexibilidad a la hora de acometer cambios a mitad del proyecto, ya que tras cada fase se replantean las tareas y los objetivos. Se analizaron las distintas plataformas para el desarrollo de aplicaciones móviles, siendo Xamarin, una extensión de Visual Studio la mas conveniente para este proyecto. Tambien se analizó el microcontrolador, en este caso se ocupó el ESP32 que se programa mediante el IDE de Arduino, ya que nos permitía alojar un Web Service y asi manipular los distintos elementos. Primero se logró crear un Web Service en el ESP32, al mismo tiempo que se realizó la conexión entre el ESP32 y una red Wifi. Posteriormente se logra que la aplicación elaborada en Xamarin se conecta al Web Service que está alojado en el ESP32, para que de esta forma se puedan hacer las solicitudes HTTP. La aplicación se diseñó y desarrolló en con tres vistas: 1. Es un inicio de sesión por parte del usuario, donde solo podrá ingresar con un correo electrónico y contraseña. 2. Despues del inicio de sesión se muestra un menú de dos opciones, donde la primera es un escaneo del vehículo, donde mostrará si este tiene alguna falla mecánica o eléctrica asi como su temperatura, velocidad y combustible. 3. La segunda opción es la de accesorios, donde muestra los elementos que puede controlar, por ejemplo, luces, ventilación, seguros, iluminación interna, etc


CONCLUSIONES

En el presente proyecto se concluye que la comunicación de la aplicación móvil con el microcontrolador ESP-32, fue de un 98 % aceptable en la transmisión de datos entre las diferentes secciones de medición, escaneo, instrucciones e información. Primero se logró crear un web-service en el esp32, al mismo tiempo que se logró la conexión entre el esp 32 y una red wifi. Posteriormente se logró que la aplicación elaborada en Xamarin se conectara al web-service que está alojado en el ESP32, para que de esta forma se puedan hacer las peticiones HTTP a través de Internet. Aunque todavía no se realizan las pruebas en un vehículo, se realizó una simulación con LEDS que representaban los distintos accesorios eléctricos del vehículo, con esta simulación se logró verificar que se pueden manipular correctamente los elementos del vehículo a través del web-service,El sistema se encuentra a más del 50 % de desarrollo, de tal forma podemos decir que el sistema es factible, ya que es una herramienta que ayudará a una gran cantidad de usuarios para que conozcan a tiempo las fallas que presenta su vehículo y de esta forma evitar fallas más graves en el futuro.
Flores Rubalcava Mauricio, Instituto Tecnológico de Colima
Asesor: Mg. Sergio Andrés Ardila Gómez, Universidad Autónoma de Bucaramanga

SIMULACIóN COMPUTACIONAL MULTIFáSICA DE LA CáMARA DEL REACTOR DE SíNTESIS DE PéPTIDOS.


SIMULACIóN COMPUTACIONAL MULTIFáSICA DE LA CáMARA DEL REACTOR DE SíNTESIS DE PéPTIDOS.

Bañuelos Ruelas Lizeth Consuelo, Universidad Autónoma de Sinaloa. Flores Rubalcava Mauricio, Instituto Tecnológico de Colima. Asesor: Mg. Sergio Andrés Ardila Gómez, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

Actualmente la síntesis de péptidos forma una parte importante dentro de la investigación farmacológica en el desarrollo de nuevos medicamentos. Dentro de esto se logran encontrar diversas variables que influyen al desarrollar nuevos péptidos como lo son la cantidad de dimetilformamida (DMF), el tiempo de burbujeo con nitrógeno gaseoso (N2), la geometría empleada para la mezcla, entre otras, sin embargo, realizar estas modificaciones representa el desarrollo de diversos experimentos, los cuales son difíciles de implementar no solo debido al tiempo necesario para llevar a cabo dicho experimento sino por los altos costos de los reactivos a utilizar en cada uno de ellos.  Para evitar este tipo de pérdidas, una de las herramientas con la que podemos disponer es la Dinámica de Fluidos Computacional (CFD por sus siglas en inglés), la cual se destaca por la simulación de flujos multifásicos para realizar los cambios de cada una de las variables que juegan un papel importante en la mezcla, de manera que no represente un alto costo tanto económico como de tiempo del personal capacitado. La mayor problemática que se presenta para el buen desarrollo de una simulación es el tiempo y el equipo computacional, ya que para poder conocer el comportamiento más exacto se debe disponer de un buen equipo, además de desconocer variables importantes, por lo que durante el verano de investigación se estudiarán los diferentes modelos multifásicos y se dispondrá de cual es el mejor a implementar con base a las herramientas que se disponen y los resultados esperados.



METODOLOGÍA

Para el desarrollo de la investigación se llevaron a cabo las siguientes actividades paso a paso. Revisión bibliográfica. Inicialmente se realizó una revisión bibliográfica acerca del tema a desarrollar, así como la elaboración del estado del arte del problema a abordar (simulaciones multifásicas de la mezcla de material particulado - líquido y burbujeo con nitrógeno). Obtención de los requerimientos de la simulación del reactor. Por medio de la investigación anterior y al tipo de modelo que debemos emplear, podemos disponer de una búsqueda más específica para conocer el tipo de variables y lo que se busca obtener en el reactor.  Modelamiento CAD del reactor en el software SolidWorks. Implementado el software SolidWorks podemos modelar el reactor en 3D, para posteriormente obtener ese modelo en un archivo con la extensión .igs y poder trabajar en el software ANSYS en donde se realizará sus respectivas simulaciones multifásicas. Obtención del dominio computacional en la suite de SpaceClaim de ANSYS. Una vez obtenido el modelo CAD del reactor, se procedió a realizar el dominio computacional en 2D debido a que éste requiere de menor costo computacional, posteriormente en la suite de DesignModeler se señalaron las condiciones de fronteras que dispone el reactor. Generación del mallado del dominio computacional en la suite Meshing de ANSYS. En la suite Meshing se realizó el mallado del dominio computacional mediante el método Multizone en la cual se obtuvo una malla con elementos cuadriláteros, esto para reducir aún más el costo computacional, ya que este tipo de elementos tiene como ventaja contar con menos elementos en comparación a los tetraédricos, mejor solución y buena precisión, en general una malla más eficiente. Adecuación del caso computacional en la suite de Fluent aplicando los modelos de turbulencia en estado transitorio y los modelos multifásicos Euler - Granular y VOF (Volumen Of Fluid). Para el caso de la simulación se utilizó el modelo de turbulencia k-épsilon ya que es uno de los modelos de turbulencia más utilizados en la industria. En conjunto con el modelo multifásico Euler - Granular para poder observar el comportamiento de las partículas en el fluido (DMF) de una manera gráfica y el modelo multifásico VOF para poder observar el comportamiento del gas cuando es inyectado por un medio poroso en el fluido (DMF) y así poder conocer la física en el dominio. Realizar la simulación del caso computacional previamente establecido. Para esto se establece que 10e-4 será el criterio de convergencia usado para los residuos de las ecuaciones de transferencia empleadas en las simulaciones CFD, asegurando que el modelo converja adecuadamente. Realizar informe del post-procesamiento de los resultados. Se realizó el post - procesamiento de los resultados en CFD-Post, en la cual se llevó a cabo la visualización de los resultados. Se obtuvieron imágenes y animaciones para visualizar de mejor manera la mezcla del material particulado (resina) con el DMF, así como el comportamiento de las burbujas de nitrógeno, en las cuales se mostraban los campos de velocidad y el seguimiento de partículas. Además, se extraerán los resultados para un próximo procesamiento con diferente mallado.


CONCLUSIONES

Gracias a esta estancia de verano se logró adquirir conocimientos teóricos y prácticos de las simulaciones CFD en ANSYS, como mejorar y realizar buenas prácticas para un mejor procesamiento de los resultados, sin embargo, al ser un tema extenso y al depender de los resultados físicos para poder encontrar el modelo de turbulencia adecuado, el mallado adecuado, el modelo multifásico que más se adapte y el filtro poroso que disponga de la física más acertada a la realidad, ésta investigación queda en una etapa de desarrollo encontrándose en la etapa 1, ya que los resultados mostrados sí muestran el comportamiento en el dominio pero aún se desconoce si las variables de velocidad sean las correctas en cuanto a la realidad del reactor. Se espera que con los resultados de laboratorio y con todas las variables físicas medidas exactas, se pretenda una mejor obtención de resultados y una mayor resolución en cuanto a la simulación.  Podemos concluir que estos resultados son el punto de partida para las siguientes simulaciones e investigaciones, por lo que se espera mejores resultados en menor tiempo.
Flores Torres Aranxa Huitzilin, Universidad de Guadalajara
Asesor: Dr. Rafael Morales Gamboa, Universidad de Guadalajara

ENTORNOS VIRTUALES INTELIGENTES PARA EL APRENDIZAJE BASADO EN COMPETENCIAS ASESOR: RAFAEL MORALES GAMBOA, UNIVERSIDAD DE GUADALAJARA ESTUDIANTE: ARANXA HUITZILIN FLORES TORRES, UNIVERSIDAD DE GUADALAJARA


ENTORNOS VIRTUALES INTELIGENTES PARA EL APRENDIZAJE BASADO EN COMPETENCIAS ASESOR: RAFAEL MORALES GAMBOA, UNIVERSIDAD DE GUADALAJARA ESTUDIANTE: ARANXA HUITZILIN FLORES TORRES, UNIVERSIDAD DE GUADALAJARA

Flores Torres Aranxa Huitzilin, Universidad de Guadalajara. Asesor: Dr. Rafael Morales Gamboa, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

  El proyecto Inteligencia artificial para educación en línea, es un proyecto de largo plazo que ha pasado ya por dos etapas previas: una etapa de maduración de conceptos, el diseño de la arquitectura del Entorno Virtual Inteligente para el Aprendizaje Basado en Competencias (EVIA) y de los procesos de razonamiento para la actualización de creencias sobre el desarrollo de competencias de los estudiantes, además de un prototipo de subsistema Analizador de Competencias y una primera codificación de las competencias transversales del bachillerato en un mapa de competencias. En 2018 y 2019 se implementaron dos prototipos del subsistema Modelador del Estudiante para evaluar el diseño de los procesos de razonamiento y dos bibliotecas disponibles de manera gratuita para ello, así como un prototipo de guardado y recuperación de mapas de competencias en una base de datos relacional y otro de presentación gráfica de la red de creencias utilizando código de colores; además, se produjeron versiones finales, no integradas, de los mapas de competencias transversales. En base a lo anterior, se hizo una prueba de representación del mapa con 10 nodos, incluyendo el código de colores, pero el mapa original cuenta con alrededor de 120 nodos. El mapa de competencias transversales completo sería difícil de visualizar para los usuarios potenciales (profesores y alumnos), por lo que se decidió diseñar una interfaz de usuario accesible y usable, para mejorar la experiencia de los usuarios.



METODOLOGÍA

En la primera fase, se utilizaron en total 2 diferentes pruebas de experiencia de usuario (UX) con un prototipo simple hecho con papel y lápiz (prototipo de baja calidad): Card Sorting: consiste en que el usuario acomode las partes de la interfaz de acuerdo a lo que ellos consideran sería el orden correcto. Entrevista con el usuario: En esta etapa se anotaron los datos de los usuarios y ahora sí se le explica al usuario de lo que trata el producto y se le harán las siguientes preguntas: ¿Qué te resulta más frustrante de esta interfaz? En general, ¿Qué tan fácil de usar encuentras este producto? Si pudieras cambiar algo, ¿qué sería y por qué? ¿Qué es lo que más te gusta y qué es lo que menos te gusta? ¿Cómo se podría mejorar? En estas dos pruebas se obtuvieron datos cualitativos, se conoció la actitud del usuario y su comportamiento en cada parte de la interfaz y cómo, según su criterio debe ser la arquitectura de la información. Estas pruebas se llevaron a cabo en 3 personas: una estudiante de bachillerato y dos padres de familia. Gracias a estas pruebas, se pudo corregir el diseño del prototipo de baja calidad para poder pasar a la fase 2. En la fase dos, se elaboró un prototipo de alta calidad, el cual incluía los colores y la tipografía utilizada en la imagen institucional de la Universidad de Guadalajara. En esta fase, se utilizó un programa de desarrollo de prototipos conocido como Adobe XD, el cual sirve para hacer pruebas de experiencia de usuario. Después de diseñar la interfaz de usuario, se tuvo un segundo acercamiento con los 3 usuarios y se les hizo la misma entrevista que en la primera fase. Se obtuvo una buena retroalimentación por parte de los usuarios finales. Gracias a estas investigaciones de experiencia de usuario se realizó una interfaz de usuario intuitiva, accesible y usable. En la primera vista de la interfaz se mostrará un menú que contendrá las primeras 6 competencias con actividad reciente, este menú se podrá contraer o alargarse de acuerdo a las necesidades del usuario. Cuando el usuario haga click en una competencia, se mostrará el diagrama de la misma y para poder ir desplegando más competencias dentro del diagrama, el usuario tendrá un botón en cada competencia para mostrar las que hay debajo. También se mostrará una gráfica y una lista de las actividades que se utilizaron para evaluar cada competencia del alumno y determinar si se ha desarrollado o no. Cada competencia se pintará de color: verde, amarillo o rojo de acuerdo a la información obtenida de cada criterio evaluado. Estos colores pasarán por una saturación del 0% de acuerdo a la información de los datos analizados. Se pretenden realizar más pruebas de experiencia de usuario para solidificar los resultados obtenidos con los 3 usuarios que participaron en la fase 1 y 2.


CONCLUSIONES

Durante este proceso de investigación se logró adquirir conocimientos sobre el desarrollo formal y estructurado de una interfaz de usuario de acuerdo a metodologías utilizadas en la experiencia de usuario, para así garantizar el diseño de una aplicación web intuitiva, funcional y amigable con el usuario final, y proseguir con el desarrollo del software web enfocado en la evaluación de las competencias desarrolladas por los estudiantes de la Universidad de Guadalajara.
Flores Torres Karime Vianey Morelia, Universidad Politécnica de Tecámac
Asesor: Mtra. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac

DISEñO E IMPLEMENTACIóN DE APLICACIóN CLIENTE SERVIDOR CON PHP PARA EVENTOS ACADéMICOS. CASO UPTECáMAC


DISEñO E IMPLEMENTACIóN DE APLICACIóN CLIENTE SERVIDOR CON PHP PARA EVENTOS ACADéMICOS. CASO UPTECáMAC

Almaraz Becerra Isai, Universidad Politécnica de Tecámac. Flores Torres Karime Vianey Morelia, Universidad Politécnica de Tecámac. Mondragon Hernandez David, Universidad Politécnica de Tecámac. Romero Caratachea Mariana, Universidad Politécnica de Tecámac. Asesor: Mtra. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Las grandes instituciones cuentan con una infraestructura tecnológica que soporta todas las actividades operacionales y administrativas por ende la Universidad Politécnica de Tecámac al ser una institución en constante crecimiento pretende mediante una plataforma tecnológica optimizar sus procesos administrativos relacionados con la feria académica.  El proceso de registro a este evento dentro de la institución actualmente en su mayor parte se realiza a mano con el auxilio del software de hoja de cálculo como lo es Excel para el seguimiento de los equipos, el tipo de proyecto, su lugar asignado, entre otras cosas; y la herramienta de formularios de Google. La asignación de los profesores para la evaluación de proyectos resulta ser tediosa para los PTC (Profesores de Tiempo Completo) dentro de la institución siendo los únicos capaces de cumplir esta tarea muchas veces no se les notifica sobre su papel de evaluadores dentro de la feria académica lo que causa conflicto puesto que proyecto queda sin evaluación, aquí es donde el factor humano complica las cosas estando siempre propenso a equivocaciones poniendo en riesgo toda la organización el evento.   



METODOLOGÍA

La metodología propuesta es Scrum, la cual destaca que es un desarrollo incremental en lugar de la clásica planificación del desarrollo completo de un producto o servicio. Los equipos Scrum se caracterizan por ser auto-organizados. Y se centra en el producto final, en la calidad del mismo, siendo así que cada integrante del equipo o responsables de sus roles, pueda adaptarse con independencia y trabajar simultáneamente. Fases en las que se divide el proceso: Se desea lograr el óptimo desarrollo de una aplicación web que ayudará a simplificar y agilizar el proceso de registro de estudiantes para la feria académica, la cual se y tiene ubicación en la Universidad Politécnica de Tecámac a través del siguiente contenido: El proyecto tiene lugar de desarrollo dentro de la Universidad Politécnica de Tecámac, siendo así, el equipo de trabajo tiene un asesor empresario asignado, quien dictamina los requerimientos para la aplicación. Es necesario precisar que el plazo de término del desarrollo de software será el 29 de Julio, gracias al cronograma establecido, es más sencillo llevar cabo cada proceso y terminarlo en las fechas estipuladas. El contenido del desarrollo se presenta de la siguiente manera: Primero se planea una reunión con el asesor académico, quien es el profesor que da un panorama general del funcionamiento de los procesos que se llevan a cabo de forma manual desde el registro de los estudiantes hasta la asignación de docentes que serán los evaluadores y estimación de resultados. Luego, para es necesario tomar en cuenta los roles estipulados anteriormente para comenzar con el diseño de las vistas y su respectivo funcionamiento. Posteriormente, según el entorno de trabajo con el que se trabaje, se desarrolla todo lo relacionado con el código, elección de paradigma a usar e implementación a las vistas. Como se dijo con anterioridad, el framework propuesto para este proyecto es Laravel y con el enfoque a modelo vista controlador, empleando el lenguaje de programación php y el sistema de plantillas del mismo framework para generar HTML. Una vez terminada la fase de codificación, será necesario realizar las pruebas de todas las vistas para dar un panorama general de cómo es que funciona todo el sistema y asegurar que tanto cada una de ellas y sus funciones trabajen respectivamente a los requerimientos de los usuarios. La planificación de dicho proyecto tuvo inicio en mayo de 2020, según a lo correspondido en el cronograma, se debe iniciar con el mockup de la aplicación, un bosquejo de cómo se muestran las vistas y lo que deberá contener cada una de ellas. Para posteriormente, comenzar con el proceso de codificación con ayuda del lenguaje de programación PHP y Laravel Framework, con un estimado de entregar vistas generales y funcionamiento en el mes de junio. Fases La reunión principal con el asesor empresarial (primer sprint) en la que se tiene asistencia previamente para la explicación y levantamiento de requerimientos, expresar todas las dudas existentes acerca del funcionamiento de cada proceso, esto ayuda a que se pueda realizar el bosquejo de las vistas que se obtendrán.  En cuanto a la base de datos, con anterioridad ya se había trabajado en su creación y análisis, ya que el desarrollo de este sistema se había quedado pendiente y no se había reanudado.  Para las revisiones en cuanto al código, estás se realizan cada veinticuatro horas. Esto hará que el proceso de prueba sea más eficiente y evitar en la medida de los posible tener errores (sintaxis, enlazado, ejecución y lógicos) Los sprints correspondientes que se establecieron son cada mes, estas reuniones con el usuario final tendrán como objetivo que se revise el avance del desarrollo y que el mismo pueda visualizar el funcionamiento de cada proceso y dictaminar su conformidad a los aspectos previamente expuestos. Finalmente, una vez terminado el desarrollo de la aplicación web, será necesario mantener el sistema e incluso implementar mejoras, ya que según lo mencionado estará sujeto a cambios por autoridades superiores, en el sentido de que se añadirán más categorías de evaluación.


CONCLUSIONES

El proyecto de investigación realizado pudo solucionar la problemática que se tenía respecto a los eventos académicos, en específico de la Feria Académica que se lleva a cabo en la Universidad Politécnica de Tecámac, ya que se logró agilizar y automatizar los procesos que se llevan a cabo, partiendo desde el registro de los proyectos del alumnado participante hasta la evaluación de estos, en una plataforma por medio de una aplicación web. Guiándonos con nuestro método, y respectiva metodología realizamos los estudios pertinentes para visualizar la problemática desde diferentes perspectivas y de ese modo abarcar totalmente una solución integral. Con los buenos resultados que obtuvo el proyecto, nos percatamos de que tiene la posibilidad de a futuro convertirlo en una plataforma para otras actividades escolares, ya sean culturales, ambientales o de otra índole.
Fombona Andaya Paloma Yunnuen, Instituto Tecnológico Superior de Huetamo
Asesor: Mg. Yohanna Milena Rueda Mahecha, Corporación Universitaria Minuto de Dios

ANáLISIS DE LAS CONDICIONES DE SEGURIDAD Y SALUD EN EL TRABAJO DE LOS TRABAJADORES EN CUATRO PAíSES DE LATINO AMéRICA (COLOMBIA, MéXICO, ARGENTINA Y CHILE)


ANáLISIS DE LAS CONDICIONES DE SEGURIDAD Y SALUD EN EL TRABAJO DE LOS TRABAJADORES EN CUATRO PAíSES DE LATINO AMéRICA (COLOMBIA, MéXICO, ARGENTINA Y CHILE)

Fombona Andaya Paloma Yunnuen, Instituto Tecnológico Superior de Huetamo. Maldonado Santibañez Maria Teresa, Instituto Tecnológico Superior de Huetamo. Muñoz Olea Evaristo, Instituto Tecnológico Superior de Huetamo. Asesor: Mg. Yohanna Milena Rueda Mahecha, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

La organización internacional de trabajo, rige que todos los trabajadores deben estar garantizados y resguardados contra cualquier accidente o enfermedad que pueda surgir dentro de la empresa al realizar su trabajo correspondiente ya que es una obligación de cada empresa o institución proteger al trabajador ya que cualquier incidente o accidente que surja causa costes económicos e interrupción de la producción o el trabajo que se realiza. (2017). La seguridad en el trabajo es un método que su objetivo es prevenir los riesgos que surgen dentro de la empresa son medidas necesarias para su prevención de los actos ilícitos que se derivan de su trabajo realizado, con ello se puede cumplir con el objetivo minimizando o eliminando los riesgos que producen accidentes. Según la OIT una empresa o institución es una entidad compuesta por grupos de personas donde llevan a cabo actividades dónde su misión es resguardar normas que puedan prevenir los riesgos de trabajo que puedan estar expuestos los trabajadores y destinan la atención de factores de riesgos. Tener una buena salud en los trabajos y fomentando el bienestar de sus trabajadores lograremos mejorar su calidad de vida, incrementando su productividad, eficiencia y motivación. Con el presente trabajo se quiere dar a conocer las condiciones de salud y seguridad de los siguientes países, Colombia, México, Argentina y Chile y poder darnos cuenta lo que afecta a los trabajadores. Este estudio sirve para corregir las medidas de prevención y protección técnica necesarias para la realización de una obra en las condiciones idóneas de seguridad, salud y protección de riesgos laborales.  



METODOLOGÍA

Esta investigación es de tipo documental ya que la información fue recolectada de diferentes fuentes (libros, artículos, archivos pdf, etc.) Se recabaron datos muy importantes de encuestas de seguridad y salud que se hayan aplicado en los países elegidos, se empleó el método deductivo para rescatar los temas más relevantes de las encuestas consideradas. La concentración de información se colocó en un archivo Excel, donde se desarrollaron aspectos como denominación, principal normatividad, la forma de administración del programa o sistema, exigencias frente a los exámenes médicos ocupacionales de ingreso, periódicos y de retiro, elementos relevantes de la programa o sistema en cada país, si aplican un proceso de mejora continua, determinar cómo evalúan el riesgo. Además de generar datos relacionados con la seguridad y salud de los trabajadores partiendo de las encuestas nacionales de percepción de seguridad y salud en el trabajo.


CONCLUSIONES

Los países a nivel mundial o por lo menos a nivel regional deberían unificar criterios para poder hacer comparativos, de la misma forma que se hace con otros aspectos laborales. Además, es importante que todos los países tengan datos de todos los trabajadores porque de acuerdo a la OMS (2017) el seguimiento de estadística se hace por lo general a empresas grandes, dejando por fuera el sector informal, agrícola y migrantes. El SG-SST debe ser liderado e implantado por el jefe, con la participación de todos los empleados, garantizando la aplicación de las medidas de seguridad y salud en el trabajo, el mejoramiento del comportamiento de los empleados, las condiciones y el medio ambiente laboral, y el control eficaz de los peligros y riesgos en el lugar de trabajo. La SG-SST abarca una disciplina que trata de prevenir las lesiones y las enfermedades causadas por las condiciones de trabajo, además de la protección de la salud de los empleados. Para el caso de Chile se pudo determinar que el 72,1% de los accidentes analizados se realizó atención médica y en un 27,9% no se efectuó. En los casos que recibieron esta atención, la mayor parte requirió realizar reposo con licencia médica. Es importante hace notar que un 9% de los hombres y un 9% de las mujeres debió realizar reposo sin licencia. Los que refieren con mayor frecuencia estos problemas de salud son los trabajadores de servicio doméstico, trabajadores del sector público y aquellos con ingresos entre 181.000 pesos y 350.000 pesos, ver gráfico Nº30. Por otro lado, en los hombres, estos casos se presentan en primer lugar en las ocupaciones de operadores de instalaciones (26,2%) y en las mujeres en las agricultoras y pesqueras (12,6%). Y respecto a la salud en este mismo país se pudo evidenciar que Un 29,5% del total de enfermedades que los trabajadores refirieron sufrir ha sido reconocida como enfermedad profesional y un 6,2% se encuentra en trámite para su reconocimiento. En los hombres las enfermedades reconocidas llegan a un 15,5% y en las mujeres alcanzan a un 13,9%. La mayor parte de las patologías reconocidas se encuentra en el grupo de edad de 45 a 64 años (14,5%); cabe hacer notar que existe un 2,3% de casos reconocidos en el grupo de trabajadores jóvenes. En México se pudo observar que no se ha realizado ninguna encuesta nacional y se recomienda que se haga una ya que es importante conocer la percepción de los trabajadores. Y ver que se puede mejorar en los trabajos para que el trabajador no sufra de mala salud y protección ante todas las actividades que realiza, ya que el trabajador que goza de buena salud tiende a ser más eficiente y productivo. Y así poder hacer una comparación entre países. Por otro lado, en Argentina se encontró que la temperatura del ambiente es la condición de trabajo más mala. La causa más frecuente que ocurran los accidentes es el cansancio. Uno de los aspectos más importantes en base en la salud del trabajador que es fundamental de mayor importancia se recabaron los siguientes datos: Hablando de los datos más relevantes de seguridad en la encuesta que la parte química juega un papel muy importante y tiene un índice alto de riesgo. Y por último en Colombia como datos relevantes en las encuestas nacionales que se han aplicado tanto en el 2003 como en el 2013 se pudo determinar que los accidentes de trabajo se presentaron más en el sector inmobiliario, manufactura y construcción. Y respecto a las enfermedades laborales la tendencia son las lesiones musculo esqueléticas.  
Fragoso Altamirano Alejandra Yareth, Instituto Tecnológico de Tlalnepantla
Asesor: Dr. Juan José Cabello Eras, Universidad de la Costa

MéXICO Y SU TRANSICIóN ENERGéTICA; UN CAMBIO EN PRO DE LA ENERGíA RENOVABLE


MéXICO Y SU TRANSICIóN ENERGéTICA; UN CAMBIO EN PRO DE LA ENERGíA RENOVABLE

Fragoso Altamirano Alejandra Yareth, Instituto Tecnológico de Tlalnepantla. Asesor: Dr. Juan José Cabello Eras, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

La pandemia de SARS-CoV-2 o COVID 19 ha marcado un antes y un después en la humanidad. La urgencia de sostener la meta para la energía asequible y no contaminante es un hecho y algo inevitable. El desarrollo de mecanismos, instrumentos, políticas y la aplicación de las mismas es algo que no debe quedar en el olvido. La creciente contaminación e incremento de GEI demanda a la población y al estado aumentar las medidas correspondientes para su mitigación. Un México que aumente considerablemente la proporción de energía renovable en el conjunto de fuentes energéticas es fundamental para un México del mañana. Sin embargo a día de hoy, la pregunta sigue siendo ¿México  va por buen camino en cuanto a las energías renovables? y ¿Qué depara en el México del mañana?. Surge, por tanto, la necesidad de comprender qué es lo que México está haciendo para lograr el cumplimiento de los Compromisos Internacionales adquiridos para el cambio de matriz energética y reducción de GEI.



METODOLOGÍA

En este trabajo se hacen 3 comparativas de escenarios de potencial de capacidad y generación para las energías renovables con el fin de observar la transición energética de México destacando los resultados de la implementación de la reforma energética y los mecanismos, políticas e instrumentos de fomento de energías renovables en la planeación energética que se tiene en la república mexicana para el cumplimiento de las obligaciones de energías renovables y aprovechamiento sustentable de la energía a mediano y largo plazo. El 1° dado por el potencial de generación categorizado en Potencial  Probado (es aquel que cuenta con estudios técnicos y económicos que comprueban la factibilidad de su aprovechamiento), Probable (Es aquel que cuenta con estudios de campo que comprueban la presencia de los recursos, pero que no son suficientes para evaluar la factibilidad técnica y económica de explotación) y Posible (se refiere al potencial teórico de los recursos pero que carece de los estudio necesarios para evaluar la factibilidad técnica y los posibles impactos económicos ,ambientales y sociales) dado por el INEL y emitido por la Secretaria de energía (SENER). En este caso ocupamos los emitidos para 2016 y 2018. En el 2°comparativo se divide en 4 escenarios dados por el Atlas de Zonas con Alto Potencial de Energías Limpias el cual brinda las zonas o sitios de alto potencial para proyectos de generación de energía limpia considerando, o no, la Red Nacional de Transmisión para fines de la comparación se ocupó el emitido en 2018 respecto a 2016. El 1° escenario identifica las zonas de alto potencial para el desarrollo de proyectos de generación eléctrica con base en energías limpias sin considerar la cercanía a las redes de transmisión. El 2°, identifica las zonas de alto potencial para el desarrollo de proyectos de generación eléctrica tomando en consideración una cercanía a las redes generales de transmisión menor o igual a 20 km. El 3°,de igual forma identifica zonas de alto potencial para el desarrollo de proyectos de generación eléctrica tomando en consideración la cercanía con las redes generales de transmisión en una distancia menor o igual a 10 km y el 4° escenario él cual  identifica zonas de alto potencial para el desarrollo de proyectos de generación eléctrica lejanos a las Redes Generales de Transmisión mayores a 20 km. Por último tenemos el escenario marcado por el PIIRCE este programa forma parte del Programa de Desarrollo del Sistema Eléctrico Nacional (PRODESEN),él cual tiene como referencias de planeación las regiones de control de México, regiones de transmisión, pronósticos de Producto Interno Bruto, catálogos de proyectos en los próximos 15 años, rehabilitación y modernización de centrales eléctricas, tasa de retorno, costos, características básicas de transmisión, metas de energías limpias, potencial de energías limpias, entre otros. Para modelar la comparativa se ocupó el año coincidente de ambos casos resultando el 2032.Esta comparativa sirve de pauta para observar de manera gráfica que tendencia tendrá la expansión óptima de la Red de Transmisión en México en los próximos años, de acuerdo a los diferentes panoramas de participación o parcial participación del estado ante la promoción de energías renovables para el cumplimiento de las metas que se fijó México.


CONCLUSIONES

El uso de energías renovables es un hecho y algo inevitable pues el medio ambiente exige que se tomen medidas correspondientes. La pandemia que hoy se vive en todo el mundo denota la urgencia de sostener la meta para la energía asequible y no contaminante. Al encontrarse en una situación difícil la industria de los combustibles fósiles aumentar la proporción de energía renovable en el conjunto de fuentes energéticas podría ser de mayor beneficio pues las energías renovables han alcanzado un punto máximo de rentabilidad. México cuenta con zonas de alto potencial para el desarrollo de energía renovable ejemplo de ello es el escenario 2016-2018. Es alarmante como la comparativa realizada de 2019-2032 respecto a 2018-2032 arrojo la gran disminución en proyectos de Centrales Eléctricas que se incorporarían en los próximos 15 y 14 años respectivamente ;ya que esto es traducible a decir que la inversión en ella disminuirá y con ella la pretensión del país y sus diferentes secretarias de cumplir la meta de reducción de GEI. Ante lo anterior es reconocible que el PIIRCE haya arrojado que la energía solar fotovoltaica este en aumento y con ella la hidroeléctrica también, pero se necesita mayor esfuerzo por parte de todos para lograr la disminución de dependencia de combustibles fósiles y más en el mundo de ahora.
Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION


MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION

Correa Hernández Enrique Allfadir, Instituto Tecnológico Superior de Ciudad Hidalgo. Cuarenta Castañeda Juan Jose, Instituto Politécnico Nacional. Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Simbron Mckay Valentin Augusto, Universidad de Guadalajara. Varelo Silgado Andrés, Universidad de Pamplona. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

1. Planteamiento del Problema Litiasis urinaria -formación de piedras renales- se ha tenido un aumento constante de la incidencia en muchos países desarrollados: Alrededor de 10% de la población en estas ciudades sufren al menos una vez en su vida las piedras renales y en las investigaciones han demostrado que la tasa de recurrencia es del 40% en 5 años . Esto representa un problema mayor para los sistemas nacionales de salud y por tanto se ha presentado un gran interés por el estudio o la identificación de las causas raíz de la formación de piedras en orden de mitigar la alta recurrencia de la enfermedad. Además, que la presencia de piedras urinarias específicas es un fuerte indicador para ciertos disturbios metabólicos que el paciente puede sufrir. Por tanto, el obtener una correcta identificación puede servir como un mecanismo pronóstico para evitar recaídas y utilizar tratamientos personalizados.Sin embargo, las prácticas médicas y clínicas actuales se basan en la experiencia de los clínicos y técnicos que utilizan métodos y procedimientos que conlleva a un diagnóstico tardado y que son altamente subjetivos o requieren un entrenamiento intensivo para realizar una correcta clasificación de los cálculos urinarios. El primer factor es especialmente gravoso, como las piedras renales tienen que ser removidas del paciente y posteriormente analizadas en el laboratorio, este proceso regularmente necesita el pulverizar la piedra, lo cual implica una importante pérdida de información para una correcta valoración de las dolencias del paciente.  



METODOLOGÍA

2. Método propuesto 2.1 Dataset El dataset utilizado fue creado a partir de 125 piedras renales adquiridas en prácticas in vivo y nombradas por el urólogo Dr. Vincent Estrade del Centre Hospitaliere de Bordeaux en Francia, en colaboración con el Centre de Recherche en Automatique de Nancy (CRAN) también en Francia. El acceso a este dataset fue a través de la colaboración del Dr. Gilberto Ochoa Ruiz con el CRAN.  Este dataset incluye 79 imágenes de superficie de las piedras, 46 imágenes de secciones transversales de las tres clases de piedras renales que tienen más incidencia en las poblaciones observadas. (Whewellite, Weddellite y ácido úrico) capturadas durante ureterorenoscopias reales. Se utilizaron los ureteroscopios URF-V para capturar estas imágenes. La superficie y las imágenes que fueron utilizadas están separadas en 2 sub-datasets durante la clasificación de entrenamiento y testeo. Son imágenes de 200 x200 pixeles que fueron recortadas de las fotografías originales para incrementar el número de las imágenes en los sub-datasets, Los parches solo contienen información de las piedras renales desde el fondo y esto no es visible en las imágenes recortadas 2.2 Textura: el software scikit-learn fue utilizado rotación y escala de patrones binarios locales invariantes de imágenes convertidas a escala de grises, los LBP fueron almacenados en un histograma 10-bin correspondiente a la primera parte del vector descriptor   2.3 Color: el espacio de color HSV(Hue-Tono, Saturation-Saturación, Value-Valor) fue usado para extraer información de color. ya que este es más cercano al ojo humano para percibir los colores. Este espacio es seleccionado porque el tono o color está en un solo canal mientras el brillo del color está separado.             2.4 Escalado de datos Los datos fueron escalados para una mejor operación de los métodos, aplicando la siguiente fórmula z=(x-promedio_datos)/(desvición_estandar_datos) z = datos escalados x= datos no escalados   2.5 Materiales y métodos Previo a la fase de clasificación, un dataset fue construido con características de color y textura fueron extraídas de las imágenes. Siete clasificadores supervisados fueron implementados y comparados para realizar la clasificación: Random Forest ensemble, XGBoost, MLP, Bagging, AdaBoost, SVM, Naive Bayes. 2.6 Separación de datos de entrenamiento y evaluación  Para separar los datos de entrenamiento y evaluación fueron tomados de acuerdo a la cantidad de muestras, es decir, teniendo en cuenta el subtotal de cada piedra Whewellite, Weddellite y ácido úrico.


CONCLUSIONES

3.  Diseño experimental:  Section Method/ Metric          Precisión       Recall         F1      Support Naive Bayes                  69%           71%          62%       158 SVM                             83%           86%          84%       158 AdaBoost                      83%           86%         83%        158 Bagging                         76%           76%        75%         157 MLP                              86%           91%        87%         158 XGBoost                        84%           88%        84%         158 Random Forest             87%            87%        86%         157   Surface Method/ Metric       Precisión       Recall      F1     Support Naive Bayes              48%             40%       36%       138 SVM                          76%             51%        50%       138 AdaBoost                  70%              48%        45%      138 Bagging                     77%              75%        75%      137 MLP                           80%                64%        63%      138 XGBoost                  79%                59%          56%     138 Random Forest      83%                 82%          83%    137     Method/ Av. Precision     Section     Surface      Student Naive Bayes                      62.65%       40.57%   Cuarenta Castañeda Juan Jose SVM                                   85.77%        59.42%   Dario Martinez Julio Joel AdaBoost                           84.81%         55.79%   Simbron Mckay Valentin Augusto Bagging                             75%               76%        Correa Hernández Enrique Allfadir MLP                                  88.60%            71.01%   Varelo Silgado Andrés XGBoost                           85.44%             68.11%   Franco Mora Marco Julio Random Forest                 87%                  82%     de la Lima López Julio Cesar     Conclusiones Con respecto a los modelos de clasificación usados en este proyecto, además de características de textura y color pueden ser exploradas en trabajos futuros buscando mejores resultados de clasificación.  Fue posible realizar pruebas con distintos métodos de clasificación de machine learning, realizando posteriormente una exhaustiva evaluación de los mismos, midiendo los valores promedio de precisión, recall, f1 y el support, donde es posible ratificar que Random Forest fue quien obtuvo un mejor rendimiento con respecto a los demás modelos. De igual forma se piensa que tuneando  los métodos es posible obtener resultados similares o incluso superiores a Random Forest como en el caso del sub-dataset de section donde el perceptrón multicapa arrojó el porcentaje de precisión más alto siendo 88.60%  .    
Franco Navarro Chrystopher Daly, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo

CUANTIFICACIóN DE LOS IMPACTOS DE INUNDACIóN


CUANTIFICACIóN DE LOS IMPACTOS DE INUNDACIóN

Franco Navarro Chrystopher Daly, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La importancia de contar con sistemas de prevención ante inundaciones ha provocado que en grandes urbes se presenten grandes pérdidas humanas y económicas ya que la no existencia de una cultura preventiva y la falta de infraestructura dejan a la población desprotegida antes un evento de inundación. Cuantificar estas pérdidas es pieza fundamental para solucionar esta problemática, ya que da un panorama de cuan grave será el daño en una zona de riesgo y así plantear el plan de emergencia que más sea conveniente. En la ciudad de Morelia es de carácter urgente trabajar lo anterior dicho ya que cada temporal de lluvia se vuelve un problema recurrente es por ello que en este trabajo se realizó la cuantificación de daños en una de las zonas afectadas de la ciudad de Morelia, en la zona que comprende al Arroyo de Tierras que surge al sur de la ciudad, con fin de que sirva de base para la solución que aqueja a la población.  



METODOLOGÍA

Para la cuantificación se utilizó el software Qgis ® con el complemento FloodRisk 0.1. Como satos de entrada se utilizaron: Modelo de inundación para un Tr de 200 años, modelo de velocidades de inundación, clasificación socioeconómica de la zona, mapa de infraestructura, densidad poblacional de la zona, así como datos catastrales para establecer un coste de referencia de los distintos tipos socioeconómicos de la zona así cómo de la infraestructura. Los datos de entrada fueron preparados utilizando softwares tales como Excel ® y ArcGIS ®. Para el lograr el correcto funcionamiento del software se recurrió el manual de usuario del complemento.


CONCLUSIONES

Como resultados se esperan obtener mapas de daños y vulnerabilidad así como la cuantificación de impactos indirectos que comprenden tanto pérdidas económicas y pérdida de vidas humanas. Una vez que se obtengan se analizará la magintiud del impacto provocado por el fenómeno de inundación en la zona.
Freer Armenta Claudia, Universidad Politécnica de Sinaloa
Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

RESUMEN DELFíN LOGíSTICA HUMANITARIA 2020


RESUMEN DELFíN LOGíSTICA HUMANITARIA 2020

Ante Martinez Brenda Itzelh, Universidad Politécnica de Sinaloa. Freer Armenta Claudia, Universidad Politécnica de Sinaloa. Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las cadenas de ayuda humanitaria se centran en problemas relacionados con el almacenamiento y distribución de insumos que se necesitan enviar de forma oportuna y completa a la zona afectada. Es aquí donde se debe planificar la operación de este tipo de cadenas, ya que un indicador central es el tiempo de actuación. Esto porque, cuando ocurre un desastre, la distribución local se vuelve muy compleja, en especial cuando el tamaño del área impactada es muy grande y han ocurrido muchos daños en la infraestructura. En la mayoría de las ocasiones, los insumos se llevan desde distintos puntos del exterior del área afectada por carreteras o caminos, y si la infraestructura presenta daños, el acceso se vuelve un problema, impidiendo su entrega de manera oportuna. Por lo que, la presente investigación se centró en desarrollar un manual de operaciones de las actividades logísticas relacionadas en la administración y gestión e insumos en los centros de ayuda humanitaria, que pueda servir de apoyo para la gestión y administración de los insumos.



METODOLOGÍA

La metodología es de tipo cualitativa, ya que la intención fue conocer la difusión de las prácticas en la gestión de los centros de ayuda humanitaria en situación de huracán.  Contiene una revisión de 50 marcos teóricos de artículos científicos sobre las buenas prácticas de la logística humanitaria en situación de huracán. Posteriormente se diseñó una propuesta de un manual de capacitación para operar de manera funcional este tipo de centros de ayuda humanitaria.


CONCLUSIONES

Como resultado se obtuvo una propuesta de diseño de manual de capacitación, que pueda favorecer la operación de los centros de ayudad humanitaria, en situación de huracán. La regionalización es un factor importante para la adopción de este tipo de instrumentos, ya que la cultura del cuidado de los recursos influye mucho. Como trabajo futuro queda implementar el manual en un centro de ayuda humanitaria en situación de huracán para validar su efectividad.  
Fuentes Avila Marcos Leonardo, Instituto Politécnico Nacional
Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez

CLASIFICACIÓN DE IMÁGENES APLICADA A LA DETECCIÓN DE DEFECTOS EN CUERO PARA CALZADO.


CLASIFICACIÓN DE IMÁGENES APLICADA A LA DETECCIÓN DE DEFECTOS EN CUERO PARA CALZADO.

Fuentes Avila Marcos Leonardo, Instituto Politécnico Nacional. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

En los talleres de producción de calzado, se utiliza el cuero animal como materia prima principal. Generalmente, un operador revisa manualmente la superficie del cuero, asegurándose de que no presente una alta rugosidad en cualquiera de sus zonas. Si la rugosidad es alta, el cuero puede romperse durante el proceso de producción, ocasionando pérdidas derivadas del reproceso del producto y paros de línea. La inspección que realiza el operador está sujeta al error humano, producto del cansancio y la fatiga visual, lo que representa una oportunidad para la automatización del proceso, logrando que esta inspección se realice mediante un sistema de visión artificial.



METODOLOGÍA

Se elaboró un conjunto de datos compuesto de muestras digitalizadas (imágenes) de cuero, obtenidas mediante un sensor fotográfico Samsung S5KGM1 y un flash led para asegurar la correcta iluminación. El conjunto contiene 45 muestras de cuero, diferenciadas entre las que cumplen los requisitos de calidad y las que no los cumplen. Las muestras digitalizadas fueron sometidas a un procesamiento de imágenes utilizando OpenCV para binarizarlas. Una vez procesadas, las imágenes son empleadas para entrenar un modelo de aprendizaje profundo, utilizando la API Keras de TensorFlow. Por último, el modelo entrenado puede clasificar nuevas imágenes en dos posibles grupos: Aceptadas y Rechazadas, que corresponden a las muestras de cuero que cumplen los requisitos de calidad y las que no, respectivamente. El procesamiento de imágenes, el entrenamiento del modelo y la clasificación de imágenes fueron programados utilizando el lenguaje de programación Python.


CONCLUSIONES

El entrenamiento del modelo ofrece una exactitud de entre el 70% y el 75%. Al probarse con distintas muestras nuevas, el resultado es mayoritariamente positivo. Aunque el resultado es satisfactorio, se espera elevar el porcentaje mencionado con un conjunto de datos más robusto que el utilizado para el proyecto.
Galeano Ospino Saray, Universidad de Medellín
Asesor: M.C. Nancy Aguas García, Universidad del Caribe

SISTEMA DE ABASTO IMSS


SISTEMA DE ABASTO IMSS

Galeano Ospino Saray, Universidad de Medellín. Ruiz Enriquez Daniel, Universidad de Guadalajara. Asesor: M.C. Nancy Aguas García, Universidad del Caribe



PLANTEAMIENTO DEL PROBLEMA

En el Hospital de Gineco Pediatría No. 7 de la Delegación Quintana Roo se llevan a cabo diversos procesos para proveer consumibles e insumos a los usuarios a través del departamento de abasto.  Actualmente, se surten los insumos de manera periódica conforme a lo programado por las áreas y se sigue un procedimiento para la compra emergente de bienes de consumo en las Unidades Médicas, mismo que se realiza de forma manual con apoyo de algunos formatos elaborados en herramientas ofimáticas. Debido a la atención que se tiene en el hospital, diariamente se solicitan insumos de diversas áreas de la unidad, para ello se sigue el procedimiento de solicitud que suele ser tardado y requiere llenar muchos documentos, en algunas ocasiones a pesar de hacer todo el procedimiento existe la negativa de abasto debido a la falta de existencia en el almacén.  Se realiza entonces el proceso de compra, el cual dependiendo del tipo de insumo o consumible y del proveedor, tendrá un tiempo de respuesta variable. Esta compra emergente se presenta con frecuencia debido a que no existe un adecuado proceso de programación y por ende el impacto en las unidades es grande pues afecta directamente a los derechohabientes del hospital. Se propone el desarrollo de una aplicación web tanto para la gestión de solicitudes por parte del usuario hacia la jefatura del departamento de abastos, como para el manejo del inventario por la misma jefatura de abastos; las personas involucradas en el proceso de abasto tendrán acceso personal a un perfil propio, adaptando las funciones a cada uno de ellos. La primera parte, que es la gestión de las solicitudes, permitirá tanto generarlas como dar seguimiento a las mismas, pasando por cada uno de los roles involucrados manteniendo una secuencia conforme al proceso actual, añadiendo también la función de firma digital. El manejo de inventario, que sería exclusivo de la jefatura de abastos, tendrá diferentes funciones, entre ellas: consulta de información y stock de los insumos, gestión de los datos de los insumos, registro de nuevas compras, sistema de alertas de productos a punto de agotarse, y un dashboard.



METODOLOGÍA

Objetivo General Construir un prototipo de plataforma basada en los principales elementos de un sistema de abasto. Objetivos Específicos Identificar el conjunto de elementos que hacen parte de un sistema de abastecimiento. Definir la metodología para la construcción de un prototipo. Diseñar un prototipo que integre los principales elementos de un sistema de abastecimiento. La metodología con la que se llevó a cabo este proyecto fue Design Thinking [8], gracias a que nos ayuda no sólo a definir o desarrollar el proyecto, sino a entender más a fondo la problemática que se está tratando, esto con el fin de resolverla de una forma creativa e innovadora, basándose en técnicas centradas en el usuario. Este método consta de cinco fases: 1.      Empatizar: en esta fase se realizan algunas entrevistas, y se utiliza la herramienta de mapa de empatía, con el objetivo de obtener el conocimiento y las dificultades asociadas al proceso de abasto en el IMSS. 2.      Definir: una vez realizadas las entrevistas y que se conoce mejor el proceso de abasto y las actividades que se llevan a cabo, se identifican las tareas a optimizar, así como las necesidades específicas de cada uno de los principales roles involucrados (jefa de abasto y jefa de enfermería), además de los aspectos en los que repercutiría la atención a estas necesidades; esto se realizó por medio de la herramienta Point of View. 3.      Idear: luego de analizar la información y definir los problemas en función de los usuarios, se generaron ideas a través de la técnica de lluvia de ideas. Para el desarrollo de esta técnica se utilizó la plataforma padlet.com; posteriormente, estas ideas fueron filtradas para utilizar las más plausibles. 4.      Prototipar: se diseña el prototipo de la plataforma por medio de mockups, con ayuda de la plataforma virtual NinjaMock. Estos diseños constan de dos principales partes: la gestión de solicitudes y el inventario. 5.      Testear: al finalizar los mockups correspondientes a la fase de prototipado, se hacen pruebas a los usuarios para conocer su opinión, y saber si los procedimientos diseñados cumplirían realmente las tareas que ellos llevan a cabo.


CONCLUSIONES

En este trabajo se construyó un prototipo de una plataforma para mitigar los problemas en el proceso de abasto del IMSS. Además, se identificaron los principales elementos que hacen parte de un sistema de abastecimiento. De acuerdo a los objetivos definidos en este proyecto se seleccionó la metodología Desing Tinking para la construcción de un prototipo que permita mejorar los problemas del proceso de abasto del IMSS.  En la construcción de este prototipo, y según las fases de la metodología seleccionada, se utilizaron las siguientes técnicas: en la fase de empatizar se trabajaron los mapas de empatía el cual permitió identificar los dolores y aspiraciones de los usuarios entrevistados. Seguidamente en la segunda etapa, a través de los POV, se definieron las principales necesidades y los aspectos que podrían mejorarlas sorprendentemente. Luego, en la tercera etapa se desarrolló una lluvia de ideas que guiaron el desarrollo de prototipos en la cuarta fase. Por último, estos prototipos fueron testeados con los usuarios con el propósito de optimizar y perfeccionar las ideas para que realmente solucionen los problemas en el proceso de abasto. Finalmente, para dar continuidad a este proyecto se propone la construcción de un sistema de abasto para el IMSS, basado en los prototipos y las especificaciones tecnológicas descritas en el marco teórico. Existe un grupo de estudiantes de la Universidad del Caribe interesados en dar continuidad a este proyecto para su implementación, y así, obtener la titulación de ingenieros en datos e inteligencia organizacional. Estos jóvenes son: Shamed Calderon, Cristian Cauich e Ivan Galindo, quienes serán asesorados por la M. C. Nancy Aguas.
Galindo Sánchez Abigail, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Carlos Chávez Negrete, Universidad Michoacana de San Nicolás de Hidalgo

IMPLEMENTACIóN EN PYTHON DEL MéTODO GENERALIZADO DE ESTABILIDAD DE TALUDES


IMPLEMENTACIóN EN PYTHON DEL MéTODO GENERALIZADO DE ESTABILIDAD DE TALUDES

Galindo Sánchez Abigail, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Carlos Chávez Negrete, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Un talud puede definirse como una superficie inclinada con respecto a la horizontal, que adopta de forma temporal o permanente una estructura de tierra y que es generada por la intervención de la actividad humana; cuando este es generado de manera natural, se denomina ladera. En ambos casos existen posibilidades de falla generalmente ocasionadas por efectos del agua, el peso del suelo, aspectos geológicos y otros factores externos como: cargas, erosión, lluvia, sismos y alteraciones del talud como excavaciones y rellenos. Es aquí donde surge la importancia de un análisis de estabilidad de taludes. Dentro de este análisis se determinan las fuerzas y momentos actuantes que tienden a provocar un movimiento en la masa del suelo y las fuerzas y momentos que se oponen y generan resistencia para evitar el deslizamiento. Al realizar una relación entre ambos tipos de fuerzas y momentos se obtiene un Factor de Seguridad (FS) para cada tipo, que es utilizado para el diseño del talud. Debido a la complejidad de las ecuaciones generadas por los distintos métodos de equilibrio límite propuestos, es necesario realizar cálculos iterativos, que exigen el uso de herramientas que faciliten el proceso y con los que se obtengan resultados más precisos apegados a la teoría que se maneja. Es por esto por lo que se han generado programas exclusivos para el cálculo de los factores de seguridad en la estabilidad de taludes, los que, si bien dan muy buenos resultados, pero en ocasiones la accesibilidad a ellos no está al alcance de muchos involucrados por los costos de las licencias o la necesidad de instalar un software. Por lo anterior, la implementación del método generalizado de estabilidad de taludes en Python se convierte en una herramienta muy accesible para cualquier interesado en el cálculo de los factores de seguridad para estabilidad de taludes. Python se caracteriza por tener un código legible y fácil de aprender ya que proporciona sencillez y facilidad de uso de un lenguaje de programación. Es compatible con todos los sistemas operativos, es completamente libre. Incluso no es necesario instalar el software en nuestro equipo de cómputo, ya que algunos navegadores ofrecen cuadernos que no requieren configuración y su ejecución es completamente en la nube, como el caso de Colaboratoy disponible en el navegador Google, solo basta con importar las librerías esenciales de Python para poder analizar y visualizar datos.



METODOLOGÍA

Planteando un diagrama de equilibrio para el método de las dovelas con la geometría del talud y las fuerzas que interactúan para su estabilidad, se plantean las ecuaciones de la estática, y se obtiene que el número de ecuaciones es mayor al número de incógnitas. Partiendo de que el número de incógnitas es mayor al número de ecuaciones, el problema se vuelve indeterminado. Para la llegar a la solución, los distintos métodos de las dovelas plantean suposiciones con respecto a las direcciones, magnitud, y puntos de aplicación de algunas fuerzas. A continuación, se enlistan algunos de los métodos de equilibrio límite más utilizados: Método ordinario o de Fellenius, Método de Bishop simplificado, Método de Spencer, Método de Jambu riguroso, Método de Morgenstern-Price. Método General de equilibrio límite El método generalizado de equilibrio límite calcula ambos factores de seguridad para un rango de valores de lambda. Al graficar estos valores se puede observar cómo es la variación de cada factor con respecto a y la influencia que tiene la función para el cálculo de las fuerzas de corte entre las dovelas. Implementación en Python Una vez analizado el proceso de resolución mediante los métodos Ordinario, Bishop simplificado, Spencer y Morgenstern-Price, se procedió a la implementación del método generalizado a través de la plataforma en línea Colaboratory. Para el desarrollo del problema, se inició con la definición de la geometría, trazo del talud y de la superficie de falla con herramientas de la librería shapely. Después se programaron las ecuaciones del factor de seguridad del método generalizado y se definió el algoritmo iterativo para su solución. Para verificar su funcionamiento se resolvió un caso de estabilidad de taludes por varias metodologías.


CONCLUSIONES

La utilización de herramientas computacionales es esencial para la resolución de este tipo de problemas, sin duda, ofrece por completo únicamente ventajas en su uso. En principio porque él no hacerse uso de ellas requeriría de realizar el procedimiento totalmente a mano, despreciando la accesibilidad a la gran variedad de herramientas tecnológicas que existen a la fecha, lo que conlleva a la segunda gran ventaja. Para este trabajo, el acceso libre a este cuaderno es una de sus principales características, ya que pone a disposición una herramienta de cálculo, sin necesidad de tener un software especializado que en varias ocasiones es necesario adquirir una licencia para su uso. Se logró la implementación del algoritmo para el cálculo del FS con el método generalizado de equilibrio límite, obteniendo buenos resultados. Los resultados obtenidos permiten realizar una comparación entre los valores arrojados, en ellos se observa que presentan una buena aproximación entre ellos, a excepción del factor de seguridad determinado mediante el método de Jambu. Al parecer es un error en la publicación.
Galindo Somoza Oscar Jesús, Universidad Politécnica de Sinaloa
Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

SUSTENTABILIDAD EN LAS CADENAS DE SUMINISTRO, Y LAS áREAS DE OPORTUNIDAD ENTRE LOS SECTORES.


SUSTENTABILIDAD EN LAS CADENAS DE SUMINISTRO, Y LAS áREAS DE OPORTUNIDAD ENTRE LOS SECTORES.

Galindo Somoza Oscar Jesús, Universidad Politécnica de Sinaloa. Rosas Rojas Lisset, Universidad Mexiquense del Bicentenario. Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La problemática de estudio se centró en conocer los conceptos y beneficios inmersos en las cadenas de suministro sustentables y el modelo de la manufactura circular, para conocer su difusión y aplicación en el sector industrial y encontrar las brechas entre las prácticas actuales a nivel Nacional e Internacional.



METODOLOGÍA

La metodología es de tipo cualitativa, ya que la intención fue conocer los conceptos y beneficios de sustentabilidad en las cadenas de valor y la manufactura circular. Contiene una revisión de 50 marcos teóricos de artículos científicos sobre los conceptos relacionados a la sustentabilidad y a la manufactura circular. Como caso de estudio se eligió el sector automotriz por ser la actividad económica inmersa en la Región de la investigación. El objetivo se centró en realizar un cuadro descriptivo comparativo sobre las prácticas sustentables y detectar las áreas de oportunidad, asimismo señalar las diferencias para efectuar una manufactura circular como modelo de negocio actual de las empresas y como estrategia de competitividad en la operación de las cadenas de suministro.


CONCLUSIONES

Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de sustentabilidad del sector industrial automotriz a nivel Nacional e Internacional. Asimismo, se identificó el papel de cada actor de la cadena de suministro para implementar las acciones sustentables, y se realizó un rediseño a un instrumento previo estándar. Existe gran brecha entre la sustentabilidad de las cadenas y la manufactura circular. Los procesos industriales actuales, en su mayoría, adoptan un modelo lineal basado en la extracción de materiales, su transformación, su uso y su eliminación. Se encuentra descuidada la evaluación sobre el uso racional de los recursos, más aún la valoración del reúso de materiales que pueden ser funcionales para la elaboración de nuevos productos. Este modelo de producción, genera altas pérdidas económicas, por la alta generación de residuos, lo que impide una reincorporación de componentes o materiales que todavía tienen valor en la transformación de productos con valor comercial. Por lo que, resulta crucial acelerar la transición hacia la economía circular, aprovechar los factores económicos, tecnológicos y sociales para migrar el sistema lineal actual de producción.
Gallardo Sánchez Rubén, Instituto Tecnológico de Toluca
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

MONITOREO DE ESTACIóN METEOROLóGICA MEDIANTE INTERNET DE LAS COSAS


MONITOREO DE ESTACIóN METEOROLóGICA MEDIANTE INTERNET DE LAS COSAS

Gallardo Sánchez Rubén, Instituto Tecnológico de Toluca. Morales Reyes Alam Natanael, Instituto Tecnológico de Toluca. Villaseñor Garcia Ireri Valeria, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La medición de los cambios meteorológicos ha sido cada vez más importante en los últimos años, la obtención de los datos tales como temperatura, humedad, viento, presión atmosférica, entre otros en un lugar específico es de gran utilidad en la meteorología. El desarrollo de esta estación meteorológica permitirá la medición de datos confiables para realizar una validación, manipulación y análisis de la información recolectada y esta servir como base para futuras predicciones meteorológicas. Presentamos nuestra estación de monitoreo del ambiente utilizando la Raspberry pi y Arduino Uno. Para recopilar y presentar datos medidos, desarrollamos una página web, donde el usuario podrá acceder a la plataforma para observar los datos antes recopilados.



METODOLOGÍA

Se implementó la metodología de cascada, en donde se hace un estudio de los requerimientos técnicos para dar inicio al proyecto, se definió el alcance del proyecto según con los recursos y el tiempo disponibles. Durante el análisis se desarrolló un servidor web basado en Apache2, mariadb, PHP 7.3, MySQL y PHPMyAdmin. Se midieron y registrar variables físicas como la radiación uv, temperatura, humedad, presión atmosférica, latitud y longitud. Posteriormente se diseña el sistema, tanto en cuestión de software y hardware. Base de datos, página web, la conexión y ubicación de la estación de monitoreo con los sensores y los microcontroladores.  Para el diseño electrónico se utilizó la Raspberry Pi 3 B+ y el Arduino UNO, conectados a los sensores, a la Raspberry van conectados el sensor YL-69 y el sensor BME 280 y al Arduino van conectado el modulo GPS NEO-6MV2 y el sensor ML8511. Para el diseño del sitio web se realizaron archivos .PHP, .HTML y .CSS donde se visualiza la información de la base de datos, el sitio web fue implementado también siguiendo un responsive web desing.


CONCLUSIONES

La estación meteorológica desarrollada por este equipo multidisciplinar cumple el objetivo de mostrar información en tiempo real de datos atmosféricos recolectados y procesados por un microprocesador Raspberry Pi a través de una página web responsiva en la que cualquier usuari con acceso a la red que quiera conocer en tiempo real datos meteorológicos de la zona en cuestión, lo pueda hacer. Se mejorará el sistema de respuesta, así como también se incluirán más sensores para distintas mediciones de diferentes variables atmosféricas  
Gálvez Parra Kevin, Instituto Tecnológico de Culiacán
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL


IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL

Aguilar Ordaz Ramiro, Instituto Politécnico Nacional. Cruz Garcia Ivan Alberto, Instituto Politécnico Nacional. Gálvez Parra Kevin, Instituto Tecnológico de Culiacán. Gutiérrez Zazueta Héctor Manuel, Instituto Tecnológico de Culiacán. Partida Pérez Rauel, Universidad Tecnológica de Nayarit. Pérez Rios Yotziri Paloma, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

Se plantea como objetivo general la identificación de personas desaparecidas mediante inteligencia artificial. Coadyubando con técnicas de bases de datos y programación.



METODOLOGÍA

La metodología aplicada consta de seis puntos fundamentales descritos a continuación:  El experto en seguridad ingresará la información de la persona en cuestión dentro del sistema. El sistema procesa la información lo que hará que se eliminen elementos no deseados. El sistema clasificará la información en función de sus puntos de referencia, por ejemplo, la longitud de la línea de la mandíbula y la distancia entre los ojos con una precisión de por lo menos 95%. El sistema realizará una búsqueda coincidente a través de la base de datos. El sistema envía la alerta a autoridades. El sistema guarda registro de evento en base de datos.


CONCLUSIONES

Como parte de los resultados del Verano Cientifíco 2020, se enlistan los siguientes: Se construyó y entrenó el modelo inteligente. Montar un servidor que contenga la base de conocimiento y el modelo inteligente. Se construyó un sistema de notificaciones. Se realizaron las pruebas que garantizan la correcta funcionalidad del sistema.
Gámez Armas Juan Euriel, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

DESARROLLO DEL CULTIVO DE AGUACATE VARIEDAD CV HASS EMPLENADO SISTEMAS HIDROPONICOS Y UNA SOLUCION NUTRITIV A BASE DE ACIDO HUMICO


DESARROLLO DEL CULTIVO DE AGUACATE VARIEDAD CV HASS EMPLENADO SISTEMAS HIDROPONICOS Y UNA SOLUCION NUTRITIV A BASE DE ACIDO HUMICO

Gámez Armas Juan Euriel, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La hidroponía o agricultura hidropónica es un método utilizado para cultivar plantas en donde se utilizan disoluciones minerales químicas u orgánicas en vez del suelo agrícola. Las raíces reciben una solución nutritiva y equilibrada disuelta en agua con algunos de los elementos esenciales para el desarrollo de las plantas. El cultivo de aguacate es apropiado para el suelo agrícola, pero se pretende utilizar este sistema para observar si el fruto es de mayor calidad al igual si tiene más beneficios, tanto económicos como benéficos para la salud al no contener sustancias químicas y por otra parte observar el desarrollo de las plantas verificando si este es positivo o negativo.



METODOLOGÍA

La metodología empleada fue básicamente una “metodología cuantitativa” donde se observan y se miden las características o variables dependientes (cantidad de ramas, número de hojas, cantidad de brotes) de cada una de las plantas, se utilizó un diseño completamente al azar donde se utilizó una disolución orgánica (ácido húmico) y un testigo (agua natural) para los tratamientos en los cuales cada uno de ellos consta de 5 plantas de aguacate variedad Hass, para observar el comportamiento que estas tienen al ser sometidas a un medio diferente de cultivo al que se está acostumbrado a utilizar, tomando registro un día a la semana durante un periodo de 5 semanas. Se hizo la utilización de fuentes bibliográficas para la facilitación del diseño y para adquirir conocimiento sobre el tema. También se utilizó el software de Excel para la recopilación de los datos y el programa de Infostat en donde se ingresan los resultados obtenidos para arrojarnos a la conclusión si hay o no hay diferencias entre tratamientos.


CONCLUSIONES

Dando seguimiento a la metodología presentada anteriormente y a las diversas herramientas utilizadas durante el experimento (fotos, software, etc.). Finalmente después de los resultados obtenidos de cada una de las plantas siendo sus variables dependientes, sacando un promedio del tratamiento y testigo, con el programa Infostat podemos concluir que la disolución orgánica tiene mayor influencia para el desarrollo de la planta, en comparación del testigo, utilizando esta práctica del sistema de hidroponía dónde nuestro tratamiento logro un 10% de crecimiento por encima del testigo. Cabe mencionar que gracias al Verano de la Investigación Científica he reforzado mi formación académica al permitirme crecer y desarrollar mis cualidades en la actividad agrícola para proporcionar información a los sistemas de producción agrícolas-orgánicos.
García Aguilar Antonio, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

DESARROLLO DEL CULTIVO DE AGUACATE (CV. HASS) EMPLEANDO SISTEMAS HIDROPóNICOS Y SOLUCIONES NUTRITIVAS A BASE DE GUANO-LIXIVIADO DE LOMBRIZ


DESARROLLO DEL CULTIVO DE AGUACATE (CV. HASS) EMPLEANDO SISTEMAS HIDROPóNICOS Y SOLUCIONES NUTRITIVAS A BASE DE GUANO-LIXIVIADO DE LOMBRIZ

García Aguilar Antonio, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Las estadísticas indican que en México es el primer productor de aguacate a nivel mundial, ya que las exportaciones en el ciclo 2017-2018 se incrementaron en 21%, ubicándose en 300 mil toneladas. La superficie cultivada a nivel nacional para el año 2012 fue de 112 mil has con una producción de 907,439 a 1´162,429 ton. El estado de Michoacán es el primer productor a nivel nacional, en el 2018 participó con el 87.8%, lo que equivale a un total de 985.5 miles de toneladas. Uno de los problemas que se detecta en la franja aguacatera de Michoacán es el aspecto nutricional, se pretende concientizar el daño que provoca el utilizar métodos convencionales, que consisten en aplicaciones cotidianas de tratamientos con fertilizantes químicos, por otro lado, utilizar en su mayoría posible soluciones orgánicas, con el objeto de seguir produciendo y sin perjudicar el medio ambiente.



METODOLOGÍA

Se trabajó con plantas de Aguacate (Cv. Hass) primeras etapas fenológicas, mediante un Diseño Completamente al Azar, mediante un sistema hidropónico. Para llevar a cabo un estudio cuantitativo a cerca de las distintas variables dependientes al aplicar los tratamientos. (Guano-Lixiviado de lombriz) obtenidos en una granja del Municipio, y (Agua). Para esto se tuvieron que realizar distintas consultas bibliográficas, análisis y de la mezcla de la solución en laboratorio, para tener un conocimiento más amplio sobre el tema de interés, para poder resolver dudas del mismo. Es importante realizar un cronograma para llevar un control, empezando en el armado del sistema hidropónico: Corte de tubos de PVC, adquisición de plantas y soluciones orgánicas, ensamblaje de tubos, bombas, e implementar las plantas de aguacate (Cv. Hass) al sistema, llenado de tubos con la mezcla de la solución, para los días en los cuales se llevarían a cabo los registros correspondientes a cada semana (medición de: Tallo, Raíz, número de hojas) posteriormente incluirlos en un Software: INFOSTAT, con el cual se dará a conocer si hay o no diferencias dentro de los tratamientos (periodo correspondiente a 5 semanas).


CONCLUSIONES

Con la siguiente investigación se logró recopilar información y datos encaminados al cultivo de Aguacate (Cv. Hass) en Hidroponía, con el uso de dos tratamientos distintos. Para observar el comportamiento de que se generó, en cuanto a las variables dependientes que se tomaron en cuenta dentro del diseño. Cabe mencionar que los resultados obtenidos de acuerdo a lo que se tomó en cuenta, arrojaron que el Lixiviado de Lombriz-Guano, tuvieron un mayor porcentaje de eficacia que el testigo. Por ello es recomendable utilizar dicho tratamiento para obtener un mayor número de ramas (12% más que el testigo), hojas, crecimiento radicular (7 % más que el testigo). Desde mi punto de vista, la inversión inicial es costosa, sería muy interesante el implementar un material con características similares al PVC, pero de menor costo y que generé los mismos y/o mejores resultados. Es importante recalcar, que gracias al Verano de la Investigación Científica he reforzado mi formación académica, el simple hecho de aprender, conocer y trabajar con sistemas de producción a escala, el poder aportar un granito de arena al área de investigación como lo es la agricultura, es algo que no tiene precio. 
García Aguilar Junior Rodrigo, Universidad de Guadalajara
Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo

SMART TRASH: SISTEMA DE GESTIóN DE BASURA EN EL EMPORIO TEXTIL DE GAMARRA EN EL DISTRITO DE LA VICTORIA, LIMA - PERú, 2020


SMART TRASH: SISTEMA DE GESTIóN DE BASURA EN EL EMPORIO TEXTIL DE GAMARRA EN EL DISTRITO DE LA VICTORIA, LIMA - PERú, 2020

García Aguilar Junior Rodrigo, Universidad de Guadalajara. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

El emporio textil de Gamarra, es considerado un gran centro comercial e industrial textil, ubicado en el distrito de La Victoria, Lima. Además de ser uno de los principales motores de la economía del Perú por la producción y distribución que albergan cerca de sus 39 mil 630 establecimientos y sus más de 115 galerías comerciantes. Existe una alta densidad de población entre trabajadores y sus visitantes, lo que genera aglomeraciones elevadas en las calles de Gamarra, en donde más comercios, más basura desechada. En la pandemia causada por el COVID-19 que atraviesa el distrito, la saturación de personas solo se aprecia en la demanda de compras que generan algunos puntos que pueden abrir sus puertas, donde las personas hacen filas por el acceso al Emporio y por el acceso a las compras, llegando a 500,000 usuarios compradores antes de dicha Pandemia y sus más de 1,000 visitantes actuales con un horario de 10:00am a 20:00pm, en Pandemia de 09:30 a 18:00pm. Se registra un alto índice de basura en las calles respecto a establecimientos que supera tres veces más de sus 500,000 personas compradoras. Esto resulta en un mal aspecto para sus habitantes, al día por el alto índice de basura en calles y fuera de las principales galerías, parte vital de daño al medio ambiente en las zonas donde la basura en las calles supera los comercios que la desechan. Solo el 4% a finales del 2016 fue utilizada para reciclaje, actualmente aún sigue siendo un factor problema, aunque el espacio es reducido por las medidas de contingencia que se tienen dentro del Emporio.



METODOLOGÍA

Para esta investigación del factor basura se desarrollo un enfoque no experimental por el tema de  Investigación Virtual, se tomó la idea base en el análisis de investigación en alta población. El propósito general es concebir una necesidad en la población que desecha basura en las calles y crear así el hábito de no solo usar los contendedores de forma correcta, sino también el formar personas recicladoras. Posterior a esto, se hizo un análisis de diversos modelos internacionales que ayudan a conseguir un grado elevado de separación de basura y lograr disminuir los niveles de basura en zonas críticas, como las calles más referentes a nuestro campo de estudio del Emporio de Gamarra, obteniendo datos necesarios y requeridos para un análisis transcendental para el desarrollo de la propuesta. Para esta propuesta, en contextos de alta densidad de población donde la aglomeración es algo que se pretende aprovechar. A través de la gamificación, se busca concientizar al usuario el uso correcto del depósito de basura. En distintos países con impacto turístico, como lo es Gamarra la iniciativa es fomentar la sostenibilidad de la generación de residuos. Consiste en una interacción de visitantes, trabajadores o habitantes con los códigos QR instalados en contenedores de basura, a cambio de un hábito base, obtener un beneficio. Adicional a un registro de usuario a la aplicación es tener un registro estadístico del mismo (edad, duración de visita, etc.) esto ayudaría a la recopilación de datos y gestión de los usuarios en dentro del Emporio. El código QR se incorpora en cada contenedor instalado, dentro de una App propia o mediante el servicio Pick Up de Gamarra donde se mostrará una sección del mapa con la ubicación del usuario y de los contenedores, agrupados y distinguiéndose por colores dependiendo de las zonas con más aglomeración poblacional. El generar una necesidad a los residentes del Emporio con la ayuda de esta propuesta podrá tener un bajo impacto, ya sea, puntos acumulativos, descuentos en ciertos productos o la simple prioridad para conseguir el producto textil deseado (sin hacer filas y evitar aglomeración en las calles) o un alto impacto que influya en el Aporte Voluntario de los Comerciantes (Impuestos). El desarrollo experimental del proyecto enfocado a Territorios Inteligentes son el uso de sensores que se pueden equipar a los contenedores, con la ayuda de su tamaño reducido pueden ser instalados en casi todos los modelos, para un seguimiento de peso de los residuos, el nivel de llenado con sensores volumétricos con el soporte del código abierto y libre, para así, optimizar las rutas de recogida y prevenir el cotidiano énfasis de basura en las calles, que originalmente fue una de las propuestas de disminución de basura en el Emporio comercial de Gamarra.


CONCLUSIONES

Esta propuesta del proyecto de investigación es aportar al tema de la densidad de población que atraviesa el Emporio de Gamarra, sin dejar a un lado el factor medio ambiental, hacer que las personas se vuelvan recicladoras, lograr el buen hábito a cambio de un beneficio de bajo o alto impacto para el usuario, el uso de la  tecnología QR acoplado a las tecnologías de sensores que puedan ayudar a conocer mejor el uso cotidiano de contenedores de basura, ya que la característica o problemática es que hay tanta gente y tantos negocios dentro del Emporio que la aglomeración poblacional no supera a la de la basura en las calles. La basura es algo no tan malo que inclusive puede ser un beneficio al usarlo y manejarlo de la forma correcta, pero como lograrlo sin la ayuda de los terrenos inteligentes o las nuevas ideas Smart City que funcionan más como un soporte para diversas problemáticas para entornos como Gamarra, aprovechando esta tecnología de sensores se pretende un control de vanguardia y una calidad de impacto sobre el cuidado del entorno, se requieren datos tangibles y diversos análisis de la zona que aún se desconocen para poder llegar al objetivo de impacto, sin embargo no hay duda de que este sistema electrónico e inteligente llegara de cierta forma a interferir de forma positiva a los usuarios que puedan tener acceso libre y abierto a este proyecto de investigación.
Garcia Arredondo Miguel Alberto, Instituto Politécnico Nacional
Asesor: Dr. Jorge Andrés García Barbosa, Universidad Santo Tomás

APLICATIVO PARA REALIZAR EL PROCESO DE ACABADO DE ENGRANAJES DE DIENTES RECTOS EN CENTRO DE MECANIZADO VERTICAL DE 4 EJES DE MOVIMIENTO


APLICATIVO PARA REALIZAR EL PROCESO DE ACABADO DE ENGRANAJES DE DIENTES RECTOS EN CENTRO DE MECANIZADO VERTICAL DE 4 EJES DE MOVIMIENTO

Garcia Arredondo Miguel Alberto, Instituto Politécnico Nacional. Asesor: Dr. Jorge Andrés García Barbosa, Universidad Santo Tomás



PLANTEAMIENTO DEL PROBLEMA

Este trabajo se enfoca en el desarrollo de un aplicativo para realizar el proceso de acabado de engranajes de dientes rectos en un centro de mecanizado vertical de 4 ejes de movimiento, siendo controlado por el código NC que será generado por el aplicativo utilizado la interfaz proporcionada por MATLAB. Se abordarán temas como, las características geométricas de engranajes de dientes rectos, conceptos clave de geometría diferencial para la descripción cinemática del proceso, la generación del código NC desde MATLAB y finalmente las simulación y resultados obtenidos. Este trabajo elimina la necesidad de contar con un software CAM.



METODOLOGÍA

1 Introducción Los engranes rectos, que son en los que nos enfocamos en este trabajo, tienen dientes paralelos al eje de rotación y se emplean para transmitir movimiento de un eje a otro eje paralelo. De todos los tipos, el engrane recto es el más sencillo, razón por la cual se usará para desarrollar las relaciones cinemáticas básicas de la forma de los dientes. Existe una gran variedad de procedimientos para formar los dientes de engranes, como fundición en arena, moldeo en cáscara, fundición por revestimiento, fundición en molde permanente, fundición en matriz y fundición centrífuga. Los dientes se forman también mediante el proceso de metalurgia de polvos o, por extrusión, se puede formar una sola barra de aluminio y luego rebanarse en engranes. Los engranes que soportan grandes cargas, en comparación con su tamaño, suelen fabricarse de acero y se cortan con cortadoras formadoras o con cortadoras generadoras. En el corte de formado, el espacio del diente toma la forma exacta de la cortadora. En el corte de generación, una herramienta que tiene una forma diferente del perfil del diente se mueve en relación con el disco del engrane, para obtener la forma adecuada del diente. Uno de los métodos más recientes y prometedores de formado de dientes se llama formado en frío o laminado en frío, en el que unos dados ruedan contra discos de acero para formar los dientes. Las propiedades mecánicas del metal se mejoran mucho mediante el proceso de laminado, y al mismo tiempo se obtiene un perfil generado de alta calidad. Los dientes de engranes se maquinan por fresado, cepillado o con fresa madre. Se terminan mediante cepillado, bruñido, esmerilado o pulido. Los engranes hechos a partir de termoplásticos tales como nailon, policarbonatos o acetal son bastante populares y se fabrican fácilmente mediante moldeado por inyección. Estos engranes son de baja a mediana precisión, de bajo costo para cantidades de alta producción y una capacidad de carga ligera, que pueden usarse sin lubricación. Una solución innovadora y original para el mecanizado de engranajes, además de una alternativa al sistema tradicional de fresas de disco y fresas madre. Con sólo un equipo CNC estándar es posible mecanizar perfiles, engranajes y piñones externos con rendimiento y velocidad más alta que con las tecnologías tradicionales. El concepto de maquinado de engranajes se trata de herramientas con insertos intercambiables de metal duro, adaptados a aplicaciones específicas del usuario: los insertos tienen el perfil envolvente o cualquier otro perfil necesario que es transferido al componente. Un ejemplo de éxito en la producción de engranajes es Un fabricante de engranajes líder en Europa mecanizaba generalmente con fresas madre. Su ciclo de producción era de 6 minutos y quería trabajar más rápido. La solución aplicada después de analizar la aplicación, se empleó un mecanizado con insertos intercambiables, reduciendo el tiempo de ciclo en más del 75%. El mecanizado multieje es un proceso de fabricación de piezas de la industria automotriz, aeronáutica, del mecanizado de moldes y para el prototipado de piezas. Para este proceso es necesario contar con un software CAM (fabricación asistida por computadora), este software configura los distintos parámetros y genera un código que se transmite a la máquina, que realizará automáticamente todos los movimientos. Este trabajo elimina la necesidad de contar con un software CAM.   2 Materiales y métodos 2.1 Características geométricas de engranajes de dientes rectos El engranaje elegido para realizar este trabajo tiene como parámetros iniciales número de dientes (N=13), modulo (M=4) y el un ángulo de presión de 20°. La terminología usada con los engranajes rectos y la formulas utilizadas solo aplican para el diseño de solo este tipo de engranajes. 2.2 Conceptos básicos de geometría diferencial. Sistema coordenado de referencia sobre la curva de involuta. Descripción cinemática del proceso. Para realizar la construcción de los vectores normales tangente y normal, debemos asegurarnos que la curva este en forma paramétrica, en nuestro caso la curva ya se encuentra parametrizada en la ecuación. Para calcular el vector tangente es necesario realizar la derivada de la curva respecto de θ representado en la ecuación una vez obtenida la derivada de las ecuaciones necesitamos evaluar la derivada en algún punto en específico. Para transformar un vector tangente en uno normal, bastara con rotarlo 90° representado en la ecuación. 2.3 Rotación del sistema alrededor del punto origen Al hacer paralelo el eje Z1 con el eje Z nos ayuda a saber la posición (x-z) del punto de la herramienta al rotar el sistema. El giro se realiza alrededor del eje Y. Esta información nos ayudara para la generación del código NC. 2.4 Generación del programa NC La generación del programa NC para la ejecución en la máquina de propósito general. 2.5 Simulación Simulación del programa en el software NX de Siemens para ver el funcionamiento de la máquina.


CONCLUSIONES

Se revisaron varios conceptos importantes para el mecanizado aprendiendo la importancia de cada uno de ellos, tanto mecánicos, matemáticos y físicos para la aplicación deseada. Se está elaborando y terminando un artículo titulado "Aplicativo para realizar el proceso de acabado de engranajes de dientes rectos en centro de mecanizado vertical de 4 ejes de movimiento" que se publicará en una revista de investigación.
García Bedolla Dulce Guadalupe, Instituto Tecnológico de Morelia
Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia

PROCESAMIENTO DE SEñALES PARA EL MEJORAMIENTO DE UN DISPOSITIVO AUDITIVO.


PROCESAMIENTO DE SEñALES PARA EL MEJORAMIENTO DE UN DISPOSITIVO AUDITIVO.

García Bedolla Dulce Guadalupe, Instituto Tecnológico de Morelia. Rodríguez Muñoz José David, Instituto Tecnológico de Nuevo Laredo. Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La hipoacusia o sordera, es la disminución de la sensibilidad o capacidad de audición. La pérdida de audición puede clasificarse como leve, moderada, grave o profunda y puede afectar a uno o ambos oídos. Los factores de la pérdida de audición pueden derivarse de problemas congénitos, dificultades en el embarazo y/o parto, enfermedades o edad. Los factores ambientales también dañan la habilidad del oído para escuchar, provocando incluso pérdida total. Según la Organización Mundial de la Salud, en el mundo hay 466 millones de personas que padecen pérdida de audición discapacitante, de estas, 34 millones son niños. En México, de los 115.7 millones de personas de 5 años y más, 7.7 millones se consideran población con discapacidad. De estos 1.4 millones tienen discapacidad auditiva, siendo los adultos mayores los más afectados. Se calcula que en 2050 una de cada 10 personas sufrirá pérdida de audición en el mundo. Los problemas para las personas con discapacidad auditiva son: dificultad en la comunicación, falta de confianza y altos costos de los dispositivos auxiliares auditivos, afectando su calidad de vida. El dispositivo auditivo para personas con discapacidad auditiva depende de su nivel de sordera.



METODOLOGÍA

En este proyecto se elaboran algoritmos de programación en Matlab® para mejorar las funciones que ofrecen los dispositivos auditivos comerciales para personas con hipoacusia en alguna banda de frecuencia. En las pruebas se utilizan los recursos disponibles en una computadora (micrófono y bocinas). Las funciones se dividen en 4 etapas: Adquisición de audio en tiempo real. Utiliza el objeto audiorecorder de Matlab. Este objeto permite grabar audio usando el micrófono de la computadora y obtener una matriz de datos que se puede reproducir al terminar de grabar. Esto es un inconveniente dado que el sonido adquirido se reproduce hasta terminar la captura. Para solucionarlo se desarrolla una función asíncrona que se ejecuta cada cierto tiempo durante la grabación; esta función se ejecuta de manera paralela al proceso para modificar los datos y enviarlos a las bocinas. Esto permite escuchar audio en tiempo real, a medida que se adquieren los datos por el micrófono se liberan por las bocinas. El algoritmo usa una frecuencia de muestreo de 44100 M/s, utilizada por los dispositivos comerciales. La función asíncrona se ejecuta cada 100 ms para adquirir una matriz de audio de 4410 muestras a procesarse en etapas posteriores.  Eliminación de ruido. En esta etapa se desarrollan 3 algoritmos para atenuar ruido ambiental y ruido blanco usando los métodos: puerta de ruido, resta espectral y transformada wavelet. La puerta de ruido establece un umbral que la señal de audio debe superar. Si la señal es igual o mayor al umbral, los datos no se modifican, si no se atenúan para que no se escuchen. Este método elimina el ruido durante pausas o en instantes en que no se perciben sonidos; sin embargo, deja pasar el ruido combinado con la señal de audio al superar el umbral.  Por ello, se utiliza la resta espectral, que realiza una resta entre la magnitud de los números complejos (obtenidos de la Transformada Rápida de Fourier, FFT) del sonido adquirido y un ruido similar previamente grabado, por ejemplo, el ruido del ventilador de la computadora. Por último, se emplea la transformada Wavelet para eliminar el ruido blanco en la señal. División de la señal de audio en bandas de frecuencia. Separa el audio sin ruido en 7 bandas de frecuencia, para amplificarlas o atenuarlas dependiendo de las características auditivas definidas. Para conocer el valor de dB SPL de cada banda se utilizan como referencia las curvas isofónicas y pruebas de audiometría. Se usan dos métodos parala división en 7 bandas: FFT y filtros digitales IIR.   Al utilizar la FFT, en el dominio de la frecuencia se divide la matriz de números complejos en 7 matrices de diferente tamaño y cada una de estas se amplifica o atenúa posteriormente a un valor de dB establecido. Una vez modificada la amplitud de cada banda, se usa la Transformada inversa (IFFT) para recuperar los datos en el dominio del tiempo y reproducirlos. Las frecuencias de las bandas 1 a 7 se centran en 125 Hz, 250 Hz, 500 Hz, 1 kHz, 2 kHz, 4 kHz, 8 kHz, respectivamente. El segundo método emplea filtros IIR pasabanda elípticos; cada uno corta la señal de audio a frecuencias definidas para obtener 7 matrices en el dominio del tiempo (bandas); para modificar la amplitud de cada banda se utiliza una amplificación lineal (un coeficiente multiplica los datos de cada matriz). Desplazamiento entre bandas de frecuencia. Usa el algoritmo de división por FFT ya que para desplazar las bandas las matrices deben tener un número de datos múltiplos entre sí. Para desplazar de banda inferior a superior se interpolan las magnitudes obtenidas por la FFT. Por ejemplo, si se desplaza la banda 1 a la 2, la primera tiene 8 muestras y la segunda 16, por tanto, se rellena la primera con 8 valores interpolados. Para desplazar de banda superior a inferior se promedian dos muestras contiguas y el resultado es el valor que se pone en la matriz de menos datos.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos del procesamiento de señales aplicados en señales auditivas con técnicas de FFT, filtros IIR, sustracción espectral, puerta de ruido, transformada Wavelet e interpolación. Para dividir las bandas de frecuencia, la FFT toma menos tiempo de procesamiento, conveniente para tratar señales auditivas. Los algoritmos desarrollados se validaron considerando una persona con problemas auditivos y su audiometría clínica, se hicieron diferentes pruebas para determinar las mejoras en la percepción auditiva. Para el usuario, los mejores resultados fueron con cambio de frecuencias altas (2k a 8k Hz) a 1k Hz y con amplitudes de banda de 30 dBmV. A futuro se pretende implementar el código desarrollado en un dispositivo DSP, para ayudar a las personas con sordera de manera óptima.
García Carranza Metztli Donatella, Universidad de Guadalajara
Asesor: Mg. Juan Pablo Ángel López, Universidad Autónoma de Manizales

PAUTAS BIOMECáNICAS PARA LA EJECUCIóN DEL MOVIMIENTO DE PATADA LIBRE EN FúTBOL


PAUTAS BIOMECáNICAS PARA LA EJECUCIóN DEL MOVIMIENTO DE PATADA LIBRE EN FúTBOL

García Carranza Metztli Donatella, Universidad de Guadalajara. Asesor: Mg. Juan Pablo Ángel López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Introducción El objetivo de este proyecto es realizar un análisis biomecánico del movimiento de patada libre en fútbol, con el fin de sentar pautas angulares para el desarrollo de la misma en cada una de sus fases de forma que puedan sentarse referencias que puedan reducir las lesiones al ejecutar dicho movimiento.  



METODOLOGÍA

Materiales y métodos Sistema de Registro El registro de vídeo se llevó a cabo utilizando el MoCap System. Compuesto por cámaras infrarrojas Flex 3 y el software Motive, desarrollados por OptiTrackTM. Fases de la Patada Para el análisis del movimiento de patada libre, se dividió el movimiento en un total de 3 fases divididas en 5 eventos[6] :  (1) Preparación, en la que se envía el pie dominante (con el que se realizará el movimiento) hacia atrás; (2) Máxima extensión de la cadera; (3) Máxima flexión de la rodilla; (4) Impacto con el balón y (5) Máxima altura de la punta del pie.  Las fases fueron definidas al realizar el análisis del movimiento con base en video (Nunome et al) a partir de los movimientos resultantes de cada uno de los 5 eventos [9]:  la primera fase, el balanceo hacia atrás (backswing) comienza en al enviar el pie hacia atrás y termina al terminar la máxima extensión de la cadera, inmediatamente comienza la fase dos, el balanceo de la pierna (leg cocking) que culmina en la máxima flexión de la rodilla, dando paso a la fase tres, aceleración de la pierna (leg acceleration), que termina al impactar el balón, finalmente, la fase 4 se conoce como un movimiento consecutivo (follow through), que termina al alcanzar la máxima altura de la punta del pie. Muestra Los datos analizados pertenecen a un estudio realizado previamente en la Universidad Autónoma de Manizales y consisten en la ejecución de una patada libre bajo la libertad de desarrollo de cada participante dentro del espacio delimitado de registro, limitaciones por cuales el movimiento se analiza bajo condiciones de laboratorio. Registro de datos. La información utilizada fue analizada por el método de segmentos articulares. Para esto, se tomó la información contenida en los registros de movimiento en el espacio 3d para cada uno de los marcadores, posteriormente se establecieron puntos articulares con base en conjuntos de marcadores; de esta forma se identificaron la cadera, rodilla y tobillo, además de la punta del pie como una referencia extra. A partir de esto se encontraron los centros de gravedad en los segmentos de pie, pierna y muslo, así como el plano central del cuerpo. Finalmente se establecieron ejes i, k y j para cada uno de los centros; a partir de la definición de estos puntos de gravedad y ejes fue posible obtener los valores, al registrar la distancia angular entre cada uno de estos con respecto al otro teniendo como referencia de cada uno de los planos, generando de esta forma información sobre el movimiento en los planos sagital (y,z), frontal (x,y) y transversal (x,z). De manera que fuese posible proyectar el movimiento realizado a partir de gráficas que describen el movimiento para cada centro articular.


CONCLUSIONES

Resultados Análisis de comportamiento angular  Una vez obtenidos los valores angulares en cada uno de los ejes se dividió el movimiento con base en cada uno de los eventos descritos previamente, con el objetivo de identificar los cambios angulares en cada uno de los ejes en el transcurso del movimiento; para esto se identificaron los segundos en los que se llevó a cabo cada evento, describiendo cada uno de estos con base en un desarrollo porcentual que tomó como referencia el tiempo total transcurrido desde el momento (1) al (5) y posteriormente se obtuvieron las gráficas de los valores angulares registrados durante las fases contenidas entre dichos momentos. Asimismo, se realizó una simulación que permitió visualizar los puntos articulares, centros de gravedad y ejes, con el objetivo de sentar una referencia visual al análisis realizado. Velocidad angular en fases a partir de información recopilada Como un análisis adicional, se realizó la evaluación de la velocidad angular en cada una de las fases dadas entre los 5 eventos principales así como el tiempo total que requirió el movimiento completo. Para realizar esta medición fue necesario convertir los valores de las diferencias en los cambios angulares a radianes, para posteriormente poder evaluar la velocidad con base en radianes/segundo. Conclusiones El análisis del movimiento utilizando los valores angulares en cada articulación para los 3 planos anatómicos representa una excelente referencia que permite identificar el comportamiento que se tiene en el transcurso de la ejecución de un movimiento y que puede, incluso, determinar momentos característicos con base en su comportamiento; permitiendo de esta manera sentar marcos y referencias en los cuales es posible basarse de manera general para sentar pautas; tal es el caso del análisis realizado, en el que se puede tomar como referencia el comportamiento de los valores obtenidos por el sujeto con mayor experiencia, pues con base en este se podría realizar un entrenamiento que lleve a los sujetos a imitar el comportamiento de los valores (tanto angulares como de velocidad), alcanzando una mayor similitud con la práctica. Por otro lado, podría considerarse que la velocidad angular se encuentra afectada o limitada debido a que las pruebas fueron realizadas dentro de un entorno controlado (laboratorio), pues incluso al realizar una comparación entre ésta y los valores angulares alcanzados, se puede apreciar una especie de contención o desaceleración prematura del movimiento. Por lo que se infiere que al realizar este análisis bajo condiciones normales se podrían observar mayores velocidades angulares, e incluso una mejor ejecución con respecto a los rangos y a la  movilidad. Asimismo, con base en la interpretación de estos valores es posible identificar la presencia de valores angulares atípicos para determinados momentos (aún cuando no fue el caso en el presente análisis), permitiendo prevenir lesiones por sobreexigencia a las articulaciones o, incluso, por movimientos mal ejecutados.
García del Real José Antonio, Universidad de Guadalajara
Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit

CáLCULO CAPACIDAD DE GENERACIóN ENERGéTICA RENOVABLE EN LAS IES PúBLICAS DEL ESTADO DE NAYARIT, PARA FORTALECER LA TRANSICIóN ENERGéTICA Y AMPLIAR PROGRESIVAMENTE LA COBERTURA EDUCATIVA REGIONAL


CáLCULO CAPACIDAD DE GENERACIóN ENERGéTICA RENOVABLE EN LAS IES PúBLICAS DEL ESTADO DE NAYARIT, PARA FORTALECER LA TRANSICIóN ENERGéTICA Y AMPLIAR PROGRESIVAMENTE LA COBERTURA EDUCATIVA REGIONAL

García del Real José Antonio, Universidad de Guadalajara. Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Desde el año 2012, la Universidad Tecnológica de Nayarit (UTN), se ha comprometido a impulsar a corto plazo  iniciativas para mejorar el medio ambiente, iniciando con el desarrollo de un programa denominado UT Verde, en donde se apuesta por despertar el compromiso de todos los miembros de la comunidad. A partir de Enero de 2018, se establece el primer edificio sustentable en el campus en el denominado Centro de Medios Digitales (CMD), con la puesta en marcha de un generador fotovoltaico que produce  energía eléctrica limpia, gracias a la instalación de un conjunto montado en la losa superior, que aporta el 28% del consumo eléctrico anual requerido. Partiendo de estos hechos notorios, esta investigación tiene como propósito demostrar la importancia y factibilidad de integrar un modelo tecnológico para replicar las experiencias de la UTN, que conlleva invertir en  tecnologías para generación de energías limpias, en las 14 Instituciones Educativas de Nivel Superior (IES) establecidas en 9 de los 20 municipios que conforman el territorio estatal. Marcando una brecha importante para la necesaria  transición energética, demostrando su compromiso en apoyar a la calidad en las  instituciones, aportando desarrollo educativo para el resto de las zonas del estado, además de incrementar la disminución de la  huella de carbono, cabe señalar que la posibilidad de implementar estas acciones le permitirían al resto de las IES reducir las brechas actuales para disminución de la  inequidad para fomentar el acceso  a la educación superior en instituciones públicas, fomentando el desarrollo de zonas con alto nivel de marginación. La implementación de proyectos de esta envergadura, es posible al tener la posibilidad de aprovechar la geografía y su posibilidad del aprovechamiento solar anual con la implementación de generadores de energía limpia aprovechando los recursos naturales, en este caso la fotovoltaica generando energía eléctrica limpia  a un razonable bajo costo respecto del suministro tradicional.



METODOLOGÍA

Por  motivo de la condición actual del COVID-19, se utilizaron  un conjunto de herramientas digitales para el desarrollo de esta investigación, analizando temas de superficie y disponibilidad en el sistema eléctrico nacional, a su vez se trabajó con herramientas para el monitoreo de los paneles ya en funcionamiento en la UTN. Se inició a trabajar con software de licencia abierta: Google Earth: esta  herramienta se utiliza para conocer  la ubicación exacta de cada una de las 14 IES que actualmente operan en el Estado de Nayarit, utilizando el formato de coordenadas UTM, al obtener la ubicación precisa, para analizar la superficie total, que posee cada centro educativo, y posteriormente identificar las áreas con mayor potencial, donde no se afecte el ecosistema y permita potencializar la estética del conjunto de edificios  siendo candidatas para la instalación de paneles fotovoltaicos. Fronius Solar Web: es la aplicación nativa  de la empresa fabricante de los 4  inversores fotovoltaicos instalados en el generador del CMD, es versátil y  permite monitorear el funcionamiento de 192 panales y su generación en tiempo real, almacenando toda la información y generando un historial desde 2018  hasta la fecha, los inversores registran las perturbaciones atmosféricas identificando factores que no dependen de la  operación, en este caso se destaca una problemática recurrente en los terrenos  anexos a la universidad dedicados a la producción de caña mismas que generan afectaciones al medio ambiente circundante y obligando a tomar medidas de limpieza permanentes que permiten  un incremento en la generación por la implementación de estas buenas prácticas. App CFE (en línea).- Se continuaron los trabajos conociendo el status de la distribución del sistema eléctrico nacional, apoyándose de la aplicación que  ofrece la CFE, consultando  los circuitos de distribución en media tensión que están próximos a los 14 planteles, conociendo la disponibilidad en la red eléctrica se evalúa la capacidad de generación del proyecto, para así no afectar a futuro las condiciones de la red eléctrica, demostrando que en la mayoría de las IES estudiadas presentó un porcentaje alto para la  viabilidad en la implementación del proyecto en comento. Q-GIS Ver. 2.8.3 (SIG - Sistema de Información Geográfica).- Aplicación alemana desarrollada en licencia abierta para trabajar con datos abiertos (SHP: shape), recolectando información de diferentes instituciones federales: INEGI, RAN, SEMARNAT. Utilizando las diferentes opciones para identificar ubicación geográfica y su aprovechamiento solar, además de ubicar circuitos de distribución, impacto en la población, etc.


CONCLUSIONES

Durante la estancia realizada en la UT Nayarit, con motivo del Verano de Investigación Delfín 2020, utilizando la modalidad virtual por motivo de la pandemia generada por el COVID-19 fue sencillo trabajar para el desarrollo del estado, por haber realizado una buena utilización de la tecnología con la que contamos. Estas acciones asertivas, nos permiten demostrar que realizando una correcta implementación de proyectos de investigación, es factible apoyar el desarrollo de los distintos  Municipios del Estado de Nayarit, siendo factible invertir en obras que propician la transición y el autoabastecimiento de energía eléctrica limpia y  la disminución de gasto ordinario, fomentando una cultura de cuidado del medio ambiente y abriendo camino a nuevos proyectos en pro de los alumnos y de sus familias. La radiación solar sigue estando disponible todos los días, aún falta darle un correcto uso y un mejor aprovechamiento, fomentando una economía circular con la producción de energía que se paga sola y que permite incrementar el grado de bienestar que se  refleja en la calidad de vida de los ciudadanos y su entorno.
Garcia Enriquez Victor Manuel, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

CONTROL DE UN ARDUINO POR VOZ VíA WI-FI MEDIANTE ALEXA/ARDUINO VOICE CONTROL


CONTROL DE UN ARDUINO POR VOZ VíA WI-FI MEDIANTE ALEXA/ARDUINO VOICE CONTROL

Arias Robles Jose Alberto, Tecnológico de Estudios Superiores de Valle de Bravo. Garcia Enriquez Victor Manuel, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La domótica representa actualmente una necesidad y tendencia adaptada principalmente por países de primer mundo que buscan generar la evolución de los dispositivos de primera necesidad con los que los habitantes de los hogares tienen contacto constante. Es así como surge el termino Casa Inteligente que hace referencia a la creación y automatización de dispositivos eléctricos como puede ser el refrigerador u horno hasta las luces o el mismo baño de un hogar, facilitando las labores domesticas y mejorando la calidad de vida de los usuarios. El proyecto puede enfrentar como mayor problemática la escasa o nula infraestructura que presenta el país para adaptar este tipo de tecnología a los hogares de la mayor parte de la población ya que los dispositivos suelen estar asociados a algún asistente inteligente que tiene un costo considerable y los que no necesitan el asistente y trabajan de manera autónoma a través de Bluetooth y un Smartphone aun son de alto costo además de que solo una ínfima parte de los proyectos arquitectónicos en México son los que comienzan a plantear la construcción de un hogar o edificación basados en esta tecnología .



METODOLOGÍA

Se utilizo el módulo wifi ESP82666, el Amazon Echo Dot (3era generación), un relay de 5v y la compuerta ULN2803A. El desarrollo del código necesario para configurar los componentes se realizo en el IDE de Arduino. En un inicio se hizo una investigación sobre el funcionamiento de los componentes teniendo en cuenta el datasheet de cada uno de ellos y se instalaron las herramientas para trabajar con el modulo wifi dentro del IDE. Posteriormente se incluyeron las librerías que fueron utilizadas en la elaboración del código, además de definir los pines del módulo wifi que servirían para conectar los dispositivos o conectores que se automatizaran. Al finalizar la conexión del módulo se crearon las funciones que permitirán encender y apagar los dispositivos, para posteriormente crear las variables donde se indicará el nombre de la red y la contraseña a la que se conectará el módulo wifi, en este apartado se debe tener en cuenta que debe ser a la misma red que se encuentra asociado el Amazon Echo Dot de Alexa. Dentro del método setup de las funciones del IDE de arduino, se declaran las configuraciones iniciales que tendrán los dispositivos que se desean conectar, dentro se especificaran los nombres de estos. En el método loop se verificará la comunicación wifi y se verifica el tipo de orden que recibe. Después se crearon las funciones que representaran el encendido y apagado de las luces, así como una función que permite conectar al módulo con la red wifi del domicilio donde se instale. Para el cableado de las conexiones se realizó un diagrama, con base en los datasheet obtenidos al principio, teniendo como referencia un led que representa una luz de una habitación en un domicilio, conectando el relay directamente a la instalación eléctrica, además de una protoboard donde se conectó la compuerta ULN2803 junto con el led. Finalmente se cargó el código realizado en el módulo wifi, y se procedió a la búsqueda de los dispositivos con el Amazon Echo Dot de Alexa, donde se detectó el dispositivo creado en el código. Al concluir la configuración de Alexa desde la aplicación se procedió a dictarle el comando de voz necesario para realizar la prueba correcta de su funcionamiento que para esta práctica es: Alexa prende la luz. Y se deberá prender el led de prueba conectado a la protoboard. Al comprobar que las conexiones sean correctas y Alexa responda al dispositivo se continuara con la comunicación entre el módulo Wifi y el relevador que será el que controlara el foco que será conectado al toma corriente de la casa. Para verificar que la conexiones sean correctas se conectara el módulo Wifi a corriente y se volverá dictar el comando al Amazon Echo Dot Alexa, si todo está correctamente configurado y conectado se encenderá el led de prueba y los testigos del relevador, comprobando el adecuado funcionamiento. Al termino de las pruebas se realizará la conexión final del relevador al circuito eléctrico de la casa o al portalámparas de prueba que será conectado a corriente directa comprobando que el relevador funciona correctamente y controla de manera correcta el foco. Como elemento extra se confecciono una caja pensada para contener todos los elementos de manera individual para su colocación o instalación en algún punto del hogar.


CONCLUSIONES

Al termino de este verano de investigación se concluye que la construcción de un dispositivo controlado mediante comandos de voz a través del asistente inteligente es de fácil construcción para un especialista en informática o aficionado ya que los componentes son de bajo costo y pueden ser utilizados para manipular todos los elementos de la instalación eléctrica de un hogar, además de que estos representan la línea que se seguirá sobre el la automatización de todos los hogares y puede servir para implementarla en otros sectores como el de la salud donde se podrían generar mejoras estructurales en las viviendas para personas discapacitadas o con alguna afección que estén indispuestas para desplazarse dentro de su mismo hogar.
García López José Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)

CONSTRUCCIóN DE áRBOLES FILOGENéTICOS PARA EL ESTUDIO DE CEPAS VIRALES MEDIANTE MéTODOS COMPUTACIONALES.


CONSTRUCCIóN DE áRBOLES FILOGENéTICOS PARA EL ESTUDIO DE CEPAS VIRALES MEDIANTE MéTODOS COMPUTACIONALES.

García López José Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

Al 11 de agosto de 2020, la OMS reporta alrededor del mundo un total de 19 936 210 casos de COVID-19, enfermedad ocasionada por el virus SARS-CoV-2, ubicándose la mayoría en América (10 697 832 casos, aproximadamente el 54%) y Europa (3 606 373 casos, aproximadamente el 18%). A su vez, en la fecha anteriormente señalada, alrededor del mundo, se han registrado un total de 732 499 fallecimientos ocasionados por COVID-193. Siendo estos datos un reflejo de la magnitud de la crisis sanitaria a la que se enfrenta el mundo y un ejemplo del nivel de propagación que ha alcanzado SARS-CoV-2.  Bases de datos como Global Initiative on Sharing All Influenza Data (GISAID) se han encargado de almacenar y dar a acceso a las secuencias genéticas de SARS-CoV-2 aisladas desde el 10 de enero de 2020, en diversos países. Contando con 80, 085 secuencias de genoma completo de SARS-CoV-2, al 11 de agosto de 2020.  La combinación de los datos genéticos de los aislados junto a los metadatos referentes a la fecha y ubicación geográfica del aislado, permiten estudiar la propagación del SARS-CoV-2 desde sus primeros brotes, haciendo uso de análisis filogenéticos, debido a que permite establecer y representar las relaciones entre los diferentes aislados de SARS-CoV-2, mediante la construcción de árboles filogenéticos.  En el presente estudio, se compararon cinco herramientas bioinformáticas capaces de realizar análisis filogenéticos mediante máxima-verosimilitud (MEGA X, IQ-Tree, PhyML, PHYLIP, PAUP*), para generar con cada una un árbol filogenético procedente de 21 secuencias de México y 35 secuencias aisladas en Europa, E.U.A y China. Con la finalidad de explorar las particularidades de las herramientas previamente señaladas y encontrar las relaciones existentes de las secuencias de SARS-CoV-2 aisladas en México con las los países incluidos en este estudio. 



METODOLOGÍA

Las 56 secuencias analizadas en este estudio fueron recuperadas de la base de datos GISAID, bajo los filtros de genoma completo y alta cobertura. Recabando 21 secuencias de México, 13 de E.U.A, 13 de Europa (Francia, Inglaterra e Italia) y 9 de China.  Posteriormente, se realizó un alineamiento múltiple de secuencias (MSA) en base a la secuencia de SARS-CoV-2 aislada en Wuhan con el código de acceso en NCBI: NC_045512.2.  El MSA fue elaborado usando el software MAFF (https://mafft.cbrc.jp/alignment/). El MSA obtenido fue curado, eligiendo las regiones más significativas del alineamiento utilizando GUIDANCE server.  Dicho MSA, en formato FASTA, fue convertido al formato NEXUS y PHYLIP, mediante el software Mega X  y Jalview, respectivamente. Con el fin de satisfacer los requisitos de formato para el archivo de entrada en las herramientas informáticas analizadas.  MEGA X (Molecular Evolutionary Genetics Analysis) Se estimó el modelo de sustitución de mejor ajuste para el análisis de máxima-verosimilitud, a partir del MSA en formato FASTA (Tamura-Nei, 93). La inferencia del árbol filogenético se realizó mediante un enfoque de máxima verosimilitud utilizando MEGA X13. El soporte para la topología del árbol se estimó con 100 réplicas de bootstrap. IQ-Tree 2.0. Se estimó el mejor modelo para realizar el análisis de máxima-verosimilitud (TIM2+F+I) y se construyó el árbol filogenético utilizando el software IQ-Tree 2.0. El soporte para la topología del árbol se estimó con 2000 réplicas de, UFboot2 una aproximación ultrarrápida de bootstrap. PhyML 3.0 (Phylogenetic Maximum Likelihood). Se utilizó el MSA en formato PHYLIP, en el software PhyML 3.0. para construir el árbol filogenético, basado en el modelo de sustitución de TM93. Debido a un tiempo de maquina superior a 4 horas para realizar 30 réplicas de bootstrap, el árbol filogenético se realizó sin soporte topológico.  PHYLIP 3.698 (PHYLogeny Inference Package) Se utilizó el MSA en formato PHYLIP, para construir un árbol filogenético de máxima-verosimilitud. Bajo la configuración estándar del software dnaml dentro del paquete de PHYLIP 3.698.   PAUP* 4.0 (* Phylogenetic Analysis Using PAUP).   El MSA en formato NEXUS fue analizado con el software PAUP* 4.0. Se construyó un árbol filogenético, con un modelo empírico para la sustitución de nucleótidos.  La búsqueda de árboles filogenéticos fue realizada con métodos heurísticos y se establecieron 100 repeticiones de Bootstrap


CONCLUSIONES

Al comparar las herramientas bioinformáticas utilizadas para construir un árbol filogenético mediante máxima-verosimilitud, enlistadas en la metodología. Se destacaron las características señaladas en la tabla 1 (https://drive.google.com/file/d/1d6x_K307ml_xXpB-W0yGB7_Efax2_tRM/view?usp=sharing). Siendo el formato de entrada y el tiempo de análisis las principales limitantes de estas herramientas. Al examinar los árboles construidos con MEGA X, PAUP* y IQ-Tree (Fig. 1, 2 y 3). Se encontró que un gran número de los aislados de México se encuentran relacionados con secuencias aisladas en E.U.A.   En particular 10 secuencias pertenecientes al mismo clado de los aislados estadounidenses hCoV-19_USA_AZ-ASU2922_2020, hCoV-19_USA_AZ1_2020 y hCoV-19_USA_CA1_2020. Dicho clado, se pudo encontrar en los tres árboles filogenéticos y está señalado en un recuadro color azul (Fig.1). El establecimiento de este clado en árboles filogenéticos procedentes de distintas herramientas, sugiere que estos aislados pueden estar realmente relacionados mediante un ancestro común. Sin embargo, aún se requieren examinar los datos estadísticos.  Por último, es importante destacar la topología similar de los árboles obtenidos mediante máxima-verosimilitud, pese a haber utilizado distintas herramientas filogenéticas y modelos de sustitución de nucleótidos. Teniendo la topología más similar a los árboles construidos con MEGA X y IQ-Tree (Fig. 1 y 2). Los árboles filogenéticos construidos (Fig. 1, 2 y 3)  se encuentran en el siguiente enlace: https://drive.google.com/file/d/1seS4Co9XyVrDtj5L132qoYouRV85r6az/view?usp=sharing
Garcia Lucero Uzias, Instituto Politécnico Nacional
Asesor: Dr. César Antonio Argüello Rosales, Benemérita Universidad Autónoma de Puebla

APLICACIóN DEL DESIGN THINKING EN EL DESARROLLO DE MATERIAL EDUCATIVO VIRTUAL (DTDMEV) PARA CONTEXTUALIZAR LOS PROGRAMAS DEL MODELO EDUCATIVO DE LA SEDE SAN JOSé CHIAPA.


APLICACIóN DEL DESIGN THINKING EN EL DESARROLLO DE MATERIAL EDUCATIVO VIRTUAL (DTDMEV) PARA CONTEXTUALIZAR LOS PROGRAMAS DEL MODELO EDUCATIVO DE LA SEDE SAN JOSé CHIAPA.

Garcia Lucero Uzias, Instituto Politécnico Nacional. Asesor: Dr. César Antonio Argüello Rosales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Con el crecimiento de la industria en el mundo y los avances en tecnología, se ha notado que, la diferencia entre lo que se continúa enseñando en las universidades en México y lo que busca la industria proveniente de otras partes del mundo, se ha ido incrementando, debido a que cada vez buscan ingenieros capaces de innovar, en lugar de tener grandes conocimientos teóricos. Debido a esto, y a la reciente incorporación de una sede Audi en Puebla, se ha buscado mejorar la oferta educativa con el propósito de formar ingenieros de calidad, con la capacidad de hacer frente a las demandas de la industria, evitando así que los puestos de ingeniería sean ocupados por extranjeros o que se deje de invertir en el país.



METODOLOGÍA

Se realizó una investigación acerca de la metodología Design Thinking, así como un pequeño curso de este, además de consultar algunas experiencias de alumnos con base en sus experiencias en la propia sede y su experiencia en el transcurso del confinamiento y sus clases virtuales, tomando esto como bases para desarrollar los primeros dos pasos de la metodología que se propuso, que son empatizar y definir. Teniendo en cuenta la infraestructura con la que se contaba en la sede y los distintos laboratorios que se tenían, se propuso la creación de un taller en el cual los profesores y alumnos puedan generar contenido virtual para impulsar su pensamiento de innovación, tomando como base el Design Thinking, ya que es una metodología usada para la resolución de problemas en un entorno que no sea necesariamente estable, contrario a los comunes métodos de resolución de problemas que se basan en repetir patrones del pasado, se espera que este taller cuente con equipos de grabación de audio y video, así como algunos pizarrones donde se puedan anotar todas las ideas que se generen una vez consolidado el taller.


CONCLUSIONES

Tras la realización de la estancia virtual se logró generar una visión más amplia de algunos obstáculos implicados en la realización de una metodología basada en contenido virtual, además de recabar experiencias de otras instituciones que serán de utilidad para tener un panorama más amplio en el futuro de este proyecto; sin embargo, debido a que se desea generar una metodología eficiente y competitiva para el sector industrial, se espera que este proyecto quede concluido en un año aproximadamente, con el objetivo de consultar con expertos en el área de Design Thinking y algunos profesionales de la industria para la creación del taller.
Garcia Medina Andrea, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA


MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA

Casas Frutis Liliana, Tecnológico de Estudios Superiores de Valle de Bravo. Garcia Medina Andrea, Tecnológico de Estudios Superiores de Valle de Bravo. Gómez Arroyo Anel Michel, Tecnológico de Estudios Superiores de Valle de Bravo. Pineda Ortiz Guadalupe Marlen, Tecnológico de Estudios Superiores de Tianguistenco. Sánchez Rojas Félix Alexis, Instituto Tecnológico de Zitácuaro. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

Se observó que en el área de trabajo de la empresa UUMBAL, el no tener controlado los lotes en producción conlleva a tener una variación en la productividad mensual de la plantación, teniendo un impacto significativo en las metas planificadas. La empresa consideró oportuno los estudios de calidad en su proceso para optimizar los tiempos de recolección, tiempo efectivo de trabajo, recursos humanos y distintos costos de herramientas, para consigo mejorar su capacidad de estrías y aplicación de pastas ante los factores cambiantes del entorno, utilizando diferentes metodologías, para saber qué problemas se presentan en cada localización o subproceso, así mismo identificar los factores que intervienen en el estriado y cosecha de pino para generar alternativas que ayuden a tener una meta más alta de recolección.



METODOLOGÍA

Se desarrolló una investigación no experimental, la cual se basa en variables que ya ocurrieron o se dieron en la realidad sin intervención directa del investigador, es de tipo cualitativa ya que con la recolección de datos que se tiene se pretende analizarlos para la comprobación de hipótesis y es un estudio correlacional ya que la investigación es conducida en lugar de la experimentación por la relación estadística causal entre las variables. Con datos sobre el proceso de resinación de la empresa UUMBAL se realizó un diagnóstico en el proceso de resinación aplicando un Mapa de Cadena de Valor (VSM) para identificación del flujo de materiales, la información desde el proveedor, proceso y cliente, plasmando las actividades productivas para identificar la cadena de valor y detectar donde se producen desperdicios durante el proceso, se identificaron dos cuellos de botella, el primero fue en la parte de la aplicación de pasta, ya que dicho proceso es de 7 días para posteriormente realizar la cosecha de resina y el segundo fue en el almacén final, ya que la resina que llega se queda en resguardo para posteriormente ser enviada a Grupo Allen. Se empezó con la aplicación de la metodología de Seis Sigma,en la etapa 1 se realizó un diagrama de Ishikawa, se observó que la mayoría de los problemas que existen en el proceso de resinación son generados a raíz de la mano de obra ya que no cuentan con las capacitaciones pertinentes para realizar sus tareas, así mismo el rendimiento es afectado por factores como la disciplina o habilidades con las que cuentan. Con la finalidad de hacer un análisis minucioso y preciso de las problemáticas detectadas se elaboró un diagrama de Pareto, examinándolo se aprecia que hay 4 causas principales asociadas al proceso de resinación, las cuales son; herramientas, EPP no requisitado, habilidades, capacitación y experiencia del colaborador. Estas representan el 20% del total de las causas que afectan al rendimiento y calidad del estriado, es necesario hacer énfasis a dar solución a estas causas detectadas, ya que resolviendo esto se elimina el 80% de las afectaciones en el proceso. En la etapa 2 se elaboró un histograma con los datos de producción, en el cual se observa el rendimiento de estriado mostrando un histograma tipo binomial, la desviación indica variabilidad en la producción de estrías ya que hay colaboradores que están realizando entre 800 estrías mientras que otros hacen hasta 1400. Se hizo un diagrama de caja y bigotes para mostrar la distribución de los datos y dio como resultado que no se está cumpliendo con la producción, debido a que la media de los datos es 1096.25 y la producción requerida es de 1200, asi mismo se encuentran 2 datos atípicos uno de 657 y otro de 1581 los cuales pueden ser atribuibles a algunas de las principales causas que se encontraron en los diagramas de Ishikawa y Pareto. En la etapa 3 con referencia al análisis de la capacidad del proceso en donde se cuenta con varios lotes de producción de pino híbrido y caribean, especialmente la resina que es el proceso que nos interesa, en la etapa 2 se determinó la capacidad del proceso en donde se evidencia que el proceso no es estable debido a que no cumple con el rendimiento de trabajo por colaborador asignado por jornada, derivado de esto se requiere un ajuste en la capacidad del proceso, es decir, establecer la contratación de nuevo personal o disminuir el rendimiento establecido a través de un buen estudio de tiempos y movimientos con la finalidad de llegar a las metas establecida de producción por año de la empresa UUMBAL. Con relación a la etapa 4, se genera un área de oportunidad en donde se establece un diseño de experimento de varios factores incluido un análisis de varianza de 2 factores, donde se determina áreas de mejora para maximizar la producción de resina aprovechando los recursos con los que cuenta la empresa. Por último en la etapa 5 se planteó el control de los datos de producción aplicando un control estadístico de procesos, que permita el monitoreo de la información para el desarrollo de proyectos de mejora que permitan eficientar las actividades de resinación dando como resultado mayor producción de resina.


CONCLUSIONES

Con la implementación del proyecto de mejora al proceso de resinación, se logró identificar áreas de oportunidad para aumento de la productividad utilizando los mismos recursos. A través de este análisis se logró observar el comportamiento de los colaboradores de campo, evaluando su rendimiento operativo, estableciendo parámetros muy puntuales de mejora, derivados de las causas potenciales encontradas con la aplicación de metodologías de calidad y herramientas estadísticas que coadyuvaron a la propuesta de proyectos de mejora integral. Por lo tanto se concluye que la hipótesis desarrollo de la metodología y herramientas de Lean Seis Sigma en el proceso de extracción de resina y cosecha de pino hibrido y caribean, se logrará eficientar la productividad y mejora del proceso de resinación durante un cierto periodo de tiempo, coadyuva para maximizar la producción y mejora del proceso de resinación en la empresa UUMBAL agroforestal.
Garcia Olivas Samantha, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

RELOJ SOLAR BUHO


RELOJ SOLAR BUHO

Garcia Olivas Samantha, Universidad de Sonora. Lopez Ocaño Valeria, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La  falta de interés en la comunidad por el recurso solar como energía renovable y la apreciación de eventos como ciclos lunares, movimientos aparentes del sol (solsticios y equinoccios) es un problema que se presenta en la conducta de la sociedad en la actualidad. Este tipo de eventos  suceden diariamente y por lo general pasan desapercibidos por la mayoría de las personas. Este tipo de temáticas, como la astronomía y en especial los fenómenos causados por el solo como la trayectoria solar, pueden ser temas que enriquezcan de mucho conocimiento a las personas que los estudien o los conozcan. Además su aprovechamiento puede resolver problemáticas que se viven en la actualidad como consumo excesivo de energía, contaminación ambiental, etc.  En concreto, el sol y el aprovechamiento de su movimiento debería de ser un tema en el que adultos y niños se interesen. Algo tan sencillo como tener la hora exacta del dia sin tener conocer la hora sin tener que observar un reloj analogico o digital, solo con saber donde esta ubicado el sol o bien, con un reloj solar. El proyecto que se presenta se encarga de promover las oportunidades de aprendizaje permanente para todos, mediante un dispositivo que se ha utilizado desde remotos años pero que no muchas personas conocen, el reloj solar. Además asegurar el acceso a energías asequibles, fiables, sostenibles y modernas para todos.



METODOLOGÍA

Estudiamos distintos temas relacionados con la trayectoria solar y su aprovechamiento como recurso solar, a partir de esto se decidió que el proyecto que realizaríamos sería un reloj solar. La primera pauta de diseño que analizamos, fue la selección de ubicación del reloj solar. La selección de la ubicación es estratégica para que el reloj quedará a la vista del mayor número de personas posibles, que este resultara llamativo y agradable a la vista, y que a su vez pudiera funcionar de la manera más óptima, estando ubicado en un lugar donde hubiera incidencia solar la mayoría del dia y no que fuera un lugar sombreado.    Desde un principio nuestra intención fue aportar algo a nuestra institución, por lo cual queríamos destinar este proyecto a la Universidad de Sonora. Después de investigar decidimos ubicar el reloj en la entrada principal de la Universidad de Sonora, frente a rectoría, junto al asta de la bandera. Después de esto comenzamos con la selección del tipo de reloj que se propondría, en este caso se seleccionó el tipo bifilar, para una mejor implementación de un método tradicional con un diseño moderno y fácil de apreciar para el usuario.   El reloj bifilar nos permitirá tener dos elementos de sombreado, una cadena que forma una catenaria la cual nos daría como respuesta la estación del año, y un gnomon, el cual nos daría como respuesta la hora del dia por medio de la sombra que estos elementos provocan en el analema. El analema es la plataforma donde se reflejarán las sombras de los elementos de sombreado, el cual tendrá en él una gráfica grabada, para poder leer la hora y la estación del año.   Al comenzar el diseño artístico se buscó reflejar la identidad de la universidad en cuestión, por lo cual se decidió que el foco principal de este diseño sería la mascota de la universidad la cual es el búho. Para implementar esta figura en el reloj en propuesta decidimos adecuar la forma abstracta de un búho en la forma del gnomon el cual nos indicaría con su sombra reflejada en el suelo del reloj la hora exacta en la que se encuentra en el momento que se observe, y junto a él se encontrara dos sahuaros los cuales sostendrán la cadena que formará la la catenaria del proyecto, la cual refleja con su sombra en el suelo de la misma manera que el gnomon pero la catenaria indica la época en la que se encuentra el observador como podrían ser solsticios y equinoccios respectivamente. El concepto de los sahuaros lo implementamos en el diseño para representar la zona en la que estamos proyectando, una zona desértica, como lo es la región sonorense.   Hicimos uso de las herramientas como Sketchup y Lumion para realizar el modelo del diseño en propuesta, esto nos permitió representar de una forma más realista la ubicación prácticamente exacta con dimensiones aproximadas y figuras mejor definidas, aterrizando los bocetos que dibujamos proponiendo formas, estilos, materiales, etc. Lumion, nos permitió simular la realidad del modelo en 3D con simulación de iluminación solar en sus distintas horas, también este software nos permite seleccionar la ubicación deseada para poder reflejar con mayor realidad la iluminación y las sombras en el proyecto.   Para el buen funcionamiento de nuestro reloj y crear una grafica solar adecuada, la cual nos permitirá leer e interpretar el sombreado de nuestros elementos de sombra se formuló a partir de la plataforma Python. Para utilizar este  programa primero recopilamos ciertos datos importantes como latitud del lugar, la longitud estándar y local, la hora que se quiere visualizar en las proyecciones en tiempo estándar (en minutos), así como el dia y si hay horario de verano, esto principalmente para visualizar la sombra del gnomon y de la catenaria a una hora específica. Después determinamos el tamaño y la posición de la catenaria por medio de cálculos, y con esto se hicieron dos ciclos para obtener las coordenadas de los puntos de discretización, la información se fue obteniendo de arreglos.


CONCLUSIONES

Durante la estancia, adquirimos muchos conocimientos relacionados con el tema en investigación, esto nos ayudó a enriquecer nuestras habilidades de investigación, sobre todo a expandir nuestros horizontes como futuras arquitectas en otros temas, en este caso las energías renovables especializadas en el recurso solar, el cual puede llegar a estar estrechamente ligado con nuestra principal rama de estudio. La programación y el diseño de un reloj solar puede llegar a ser complicado y un extenso trabajo, ya que requiere de muchos cálculos, sin embargo se realizó de la mejor manera dentro de lo posible con los conocimientos adquirido, con la ayuda de nuestros asesores y el apoyo de nuestros compañeros. La construcción de este reloj solar podría ser un proyecto muy llamativo e interesante para la Universidad de Sonora, esto traería interés al tema a las personas que lo vieran y utilizaran.  
Garcia Pérez Juan Antonio, Instituto Politécnico Nacional
Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa

DISEñO DE UN SISTEMA OUTDOOR PARA CRECIMIENTO DE MICROALGAS EN MAZATLáN SINALOA ALIMENTADO CON ENERGíA SOLAR FOTOVOLTAICA


DISEñO DE UN SISTEMA OUTDOOR PARA CRECIMIENTO DE MICROALGAS EN MAZATLáN SINALOA ALIMENTADO CON ENERGíA SOLAR FOTOVOLTAICA

Contreras Sabrina, Instituto Tecnológico de Culiacán. Garcia Pérez Juan Antonio, Instituto Politécnico Nacional. Torróntegui Chávez Geraldyne, Instituto Tecnológico de Culiacán. Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Teniendo como enfoque la Agenda 2030 para el Desarrollo Sostenible y sus objetivos de producción de energía limpia para combatir el cambio climático, las investigaciones y avances tecnológicos para la implementación de alternativas menos contaminantes se han vuelto una necesidad. Una de las principales causas del calentamiento global es la quema de combustibles fósiles por emisión de COX, debido en gran parte al uso de los petrolíferos (gasolinas, diésel) por lo que deben presentarse alternativas como el diésel de biomasa de tercera generación (microalgas) y el diésel fósil ultra bajo azufre (DUBA). La producción de Diesel a partir de microalgas ha llamado la atención debido a las características que tiene, principalmente bajo contenido de azufre, alta biodegradabilidad y debido a que existen muchas especies de microalgas con un contenido considerable de lípidos transesterificables y cuyo crecimiento celular permite condiciones extremas de temperaturas, iluminación y nutrientes. Particularmente en Sinaloa no se han desarrollado investigaciones a gran escala de diésel a partir de microalgas, solo a escala laboratorio en la Universidad Politécnica de Sinaloa (UPSIN), por lo que es necesario el desarrollo de proyectos que permitan  implementar sistemas de cultivo de microalgas que puedan desarrollarse bajo las condiciones climatológicas propias de la región (sistemas outdoor).



METODOLOGÍA

El objetivo del proyecto fue diseñar un sistema de cultivo para microalgas tipo outdoor alimentado con un sistema solar fotovoltaico autónomo para ser implementado en UPSIN, Mazatlán Sinaloa. Se empleo SolidWorks como software CAD para diseño y modelado en 2D y 3D. El sistema outdoor se conformó por un sistema biológico (fotobioreactores para crecimiento de microalgas) y por un sistema solar fotovoltaico autónomo que operará bajo las condiciones ambientales de Mazatlán y protegerá de la intemperie los fotobioreactores, equipos de monitoreo y baterías de ciclo profundo. Los fotobioreactores para el cultivo microalgal serán tubos de vidrio transparente tomados de colectores solares para agua caliente. Para el sistema solar fotovoltaico autónomo en Ing. en Energía UPSIN se dispone de paneles solares fotovoltaicos base Si policristalino y baterías de ciclo profundo. Se dimensionó para cubrir la potencia que requieren las luminarias para que el cultivo de microalgas se mantenga por las noches. 


CONCLUSIONES

El diseño del sistema biológico consta de 04 fotobioreactores tubulares con capacidad para 20 L sellados con tapón de polimetilmetacrilato con 03 orificios para insertar sensor de temperatura, sensor de pH y aire atmosférico filtrado. Se soportan verticalmente sobre una base de madera de 1.5x0.4 m2. La microalga de trabajo será una cepa Dunaliella tertiolecta porque se dispone de cultivos en el lab. de bioenergía UPSIN, el medio de cultivo será F/2 de Guillard, temperatura ambiental variable, luz suministrada por la radiación solar y por luminarias por las noches. Los fotobioreactores serán desmontables para su lavado y llenado. El sistema fotovoltaico estará orientado al sur con ángulo de inclinación igual a la latitud de Mazatlán (23.5°) consta de 02 paneles solares policristalinos 250 Wp, 36.97 V (Voc), 9.29 A (Isc) conectados en serie (para un voltaje de 74 V) un controlador de carga de 800 W, 150 V , 60 A y 02 baterías de ciclo profundo 115 Ah, 12 V conectadas en paralelo que suministran la energía eléctrica a 10 focos Led de 9.0 W, 12 V corriente directa que trabajaran en un espacio de 12 h. Para las protecciones correspondientes, interruptores termomagnéticos y cable AWG calibre 12 para las conexiones. El sistema final diseñado (denominado outdoor) estará en un terreno de UPSIN donde se reciba una cantidad considerable de irradiación solar, consta de una estructura de madera de 2.5 m de alto, 2.0 m de ancho (cimentada en el terreno) cubierta por una lámina de policarbonato transparente que permita por lo menos un 90% del aprovechamiento de la irradiancia solar para el crecimiento celular de la microalga diario. Permite el ingreso de personas para el cómodo monitoreo del crecimiento de la microalga y brinda protección meteorológica de todos los materiales. De esta manera, se aporta en primera instancia un sistema a escala piloto  bajo condiciones ambientales y aprovechando la radiación solar de la localidad de Mazatlán para el crecimiento de microalgas con potencial para la producción de biodiesel y de presentar factibilidad y viabilidad elevarlo a gran escala.
García San Luis María Belém, Instituto Politécnico Nacional
Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez

ORGAN-ON-A-CHIP DE RIñóN: AVANCES DE LA TECNOLOGíA EMERGENTE HACIA MODELOS CLíNICAMENTE RELEVANTES


ORGAN-ON-A-CHIP DE RIñóN: AVANCES DE LA TECNOLOGíA EMERGENTE HACIA MODELOS CLíNICAMENTE RELEVANTES

García San Luis María Belém, Instituto Politécnico Nacional. Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Los riñones son los encargados de excretar productos metabólicos de desecho y sustancias químicas extrañas, regulan el equilibrio hídrico y electrolítico, y también cumplen con una función regulatoria del equilibrio ácido-base. Cuando dichas funciones renales no se están llevando a cabo correctamente puede haber alguna enfermedad renal. Dentro de las enfermedades renales más comunes se encuentra la ERC (enfermedad renal crónica), esta es un gran problema en México y en su mayor parte es consecuencia de enfermedades crónicas no transmisibles mal atendidas, entre ellas: sobrepeso, obesidad, diabetes, hipertensión arterial sistémica, dislipidemias, entre otras. La guía del consorcio KDIGO (Enfermedad renal: mejora de los resultados mundiales) define la ERC como anormalidades en la estructura o función del riñón, presente por más de tres meses, con implicaciones para la salud. Cuando la TFG (tasa de filtración glomerular) es menor a 60 ml/min/1.73 m2  se considera ERC, y esta se clasifica en cinco etapas con base en la TFG, en la etapa 5 la TFG es <15 ml/min/ 1.73 m2 y se considera como falla renal, en esta es necesario el uso de una terapia de sustitución renal. La terapia de sustitución renal incluye diálisis peritoneal, hemodiálisis y trasplante renal, sin duda este último es la mejor opción para tratar la ERC, sin embargo, en México no es muy viable debido al nivel de deterioro orgánico que presentan los pacientes por las enfermedades primarias, los altos costos iniciales y sobre todo la falta de donaciones. De acuerdo con el CENATRA, en México 17 425 personas esperan recibir un riñón y en este año solamente se han realizado 641 trasplantes, está claro que no ha sido posible cubrir la demanda de trasplantes de riñón, pues tan solo en 2017 había 13 634 personas necesitando de un trasplante y a pesar de que se realizaron trasplantes la cifra de personas que requieren un riñón aumentó. Es por ello que la implementación de nuevas alternativas que puedan sustituir las funciones que llevan a cabo los riñones es muy importante. En el presente trabajo analizamos el progreso en los diferentes modelos propuestos para la implementación de un microambiente que simule las condiciones fisiológicas renales y así pueda ser analizada la fisiología renal así como la evolución de una enfermedad, pero sobre todo nos enfocamos en los dispositivos que incluyen  cultivos celulares para la formación de estructuras renales, en los dispositivos microfluídicos (organ-on-a-chip) y en la combinación de ambos o diversas técnicas que dan pauta a la posibilidad de crear un riñón artificial.



METODOLOGÍA

Mediante la biblioteca virtual BiVir y la plataforma CONRICyT se realizó la búsqueda de artículos sobre dispositivos o modelos encaminados a la futura realización de un riñón artificial implantable, tales como modelos de cultivo de células renales, dispositivos microfluídicos (organ-on-a-chip de riñón), modelos impresos 3D o bien la combinación de diferentes técnicas.La búsqueda de información se realizó utilizando palabras clave como kidney,device, chip, artificial, implantable. Primero se recopiló artículos del año 2010, posteriormente del año 2011 y así sucesivamente hasta recopilar la información del presente año. Adicionalmente, se utilizó la plataforma Biorender para ilustrar la metodología o el funcionamiento de los dispositivos con mayor relevancia, logrando con esto una mayor comprensión de las técnicas utilizadas o el funcionamiento de los dispositivos. Finalmente realizamos la búsqueda de dispositivos en pruebas clínicas que son los más cercanos a un riñón artificial.


CONCLUSIONES

Durante la estancia de investigación se conoció la fisiología renal, la enfermedad renal crónica y los principales fundamentos de un organ-on-a-chip de riñón, así como de otros dispositivos que utilizan la combinación de diferentes técnicas, reconocemos que estos simulan un microambiente de la fisiología renal y aunque su aplicación más común es evaluar la evolución de una enfermedad o bien realizar estudios de nefrotoxicidad, estos también se pueden encaminar hacía el desarrollo de un riñón artificial implantable. Se encontraron dispositivos en fases clínicas que son portátiles y aunque mostraron ciertas implicaciones sus resultados son prometedores. Actualmente se está desarrollando un dispositivo que busca ser implantable y aunque está en pruebas preclínicas, confiamos en que en los próximos años se realicen las pruebas clínicas.
García Venegas José Raymundo, Universidad Autónoma de Baja California
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

REVISIóN CRíTICA PARA EVALUAR LA DEGRADACIóN DE FáRMACOS EN EFLUENTES RESIDUALES A TRAVéS DEL ACOPLAMIENTO HONGOS-BACTERIAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES POR FERMENTACIóN EN ESTADO SóLIDO.


REVISIóN CRíTICA PARA EVALUAR LA DEGRADACIóN DE FáRMACOS EN EFLUENTES RESIDUALES A TRAVéS DEL ACOPLAMIENTO HONGOS-BACTERIAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES POR FERMENTACIóN EN ESTADO SóLIDO.

García Venegas José Raymundo, Universidad Autónoma de Baja California. Gutierrez Redondo Jose Luis, Universidad de la Guajira. Toncel Manotas Esjeisson Rafael, Universidad de la Guajira. Torres Ustate Luis Miguel, Universidad de la Guajira. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El aumento de la población y factores como la calidad de vida han desencadenado problemáticas ambientales en todo el mundo, como el incremento en la producción de desechos y el aumento de los contaminantes emergentes (CE) en las aguas residuales (AR), lo que ha llevado a replantear el modelo de desarrollo social de los países, con vistas al cumplimiento de los Objetivos de Desarrollo Sostenible (ODS). Los CE comprenden una amplia gama de compuestos químicos, compuestos farmacéuticos (CF), productos de cuidado personal, agentes tensoactivos, plastificantes y aditivos industriales presentes en AR (Janet et al., 2012). Los CF son un grupo perjudicial para el medio ambiente y la salud humana, (Morsi et al., 2020) reporta que estos compuestos podrían reducir el crecimiento de las plantas, causar trastornos metabólicos, alteraciones reproductivas, desequilibrios hormonales, entre otros. Como respuesta a esta problemática, la comunidad científica a evaluado diversas opciones para el tratamiento de estos compuestos, entre las alternativas evaluadas, se encuentra el tratamiento biológico, utilizando hongos de podredumbre blanca o marrón. estudios han investigado el potencial de degradación de contaminantes emergentes, a través del tratamiento biológico. (Morsi et al., 2020). En general, para transformar los residuos en producto valioso, deben ser sometidos a procesos físicos, químicos o biológicos, ejemplos de estos métodos son la reducción, la oxidación y la descomposición realizadas por las enzimas (Bilal et al., 2019; Janusz et al., 2013). Estas comprenden múltiples sustratos orgánicos e inorgánicos, de los cuales se puede aprovechar el material lignocelulósico en la contigua producción de biocombustibles mediante procesos de digestión anaerobia (AD) para la obtención de biogás o una posible fermentación de los sustratos en estado sólido (SSF) para la obtención de etanol, gracias al potencial redox de las enzimas (Momayez et al., 2018). La producción de etanol derivado de subproductos lignocelulósicos se está probando actualmente en escalas piloto (Taherzadeh y Karimi, 2008). La SSF para la producción de bioetanol consiste básicamente en dos pasos básicos: la hidrólisis enzimática de la lignocelulosa (para liberar los azúcares fermentables) y la conversión de los azúcares en etanol (Kumar et al., 2020). Otro proceso que interviene en la producción de biocombustible (biogás/biometano) es la digestión anaeróbica en estado sólido (SS-AD), que es un proceso biológico de cuatro etapas (hidrólisis, acidogénesis, acetogénesis y metanogénesis) que se produce por la descomposición de materiales lignocelulósicos por diversos microorganismos (bacterias/hongos) en condiciones anaeróbicas para producir biogás o metano (Pečar et al., 2020). En el presente estudio se pretende evaluar la factibilidad de la degradación de fármacos en efluentes residuales y la capacidad de producción de biocombustibles mediante el acoplamiento hongos-bacterias en un sistema de tratamiento en estado sólido, mediante la identificación de las principales especies fúngicas utilizadas para la degradación de fármacos en efluentes residuales, el establecimiento de las condiciones óptimas operaciones para la fructificación de hongos en fermentación de estado sólida y determinar la capacidad de producción de biocombustibles en sistemas acoplados macromicetos – bacterias.



METODOLOGÍA

Revisión bibliográfica En primer lugar, se efectuó una exhaustiva revisión bibliográfica la cual se orientó por medio de criterios técnicos relacionados con el objeto de la investigación. realizando búsquedas dentro de bases de datos, como: Scopus, Sciencedirect, Scielo, entre otras. Donde, se introdujeron las palabras claves (cultivo de hongos, degradación de fármacos, pretratamiento fúngico, AD en estado sólido, sustratos, eficiencia biológica, actividad enzimática, producción de etanol, producción de metano), finalmente se revisaron más de 40 referencias, compuestas por: libros, capítulos de libro, artículos de revisión e investigación, a esta información se realizó un análisis comparativo sintetizando los resultados mediante tablas y figuras. Análisis procedimental El proceso experimental para el tratamiento de los CF y la generación de biogás y etanol se subdividen en tres momentos: degradación de contaminantes emergentes, fermentación en estado sólido y producción de biocombustibles. Dentro de la degradación de contaminantes emergentes se estudian las enzimas que participan en la degradación de los fármacos y los hongos que producen estas enzimas, los tipos de tratamientos usados para mejorar la actividad enzimática, así como las condiciones operacionales óptimas para cada hongo y enzima de interés. Para la fermentación en estado sólido, se detallan las condiciones operacionales para la fermentación en estado sólido, los tipos de tratamientos que se aplicaron, los productos a obtener y las variables de respuesta utilizadas junto a los valores obtenidos. Por último, se evalúa la producción de biocombustibles, identificando condiciones óptimas y tipos de pretratamientos e inhibidores existentes.


CONCLUSIONES

Se concluye que el sistema de acoplamiento estará integrado por: El cultivo de hongos-bacterias para la degradación de fármacos. Digestión Anaerobia en Estado sólido de sustratos pretratados por hongos para la producción de biogás. Este sistema tiene la principal ventaja de que el costo del pretratamiento puede compensarse con la obtención de un subproducto de valor agregado (hongos). También, se concluye que existe una viabilidad en cuanto a la utilización de sustratos pretratados para la degradación de fármacos y producción de biogás a través de un cultivo integrado de hongos-bacterias en estado sólido.
Garibaldi López Castro Andrea Jeannette, Universidad Politécnica de Sinaloa
Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa

INGENIERíA DE SOFTWARE BASADA EN AGENTES PARA IMPLEMENTAR MODELOS DE SIMULACIóN: CASO DE ESTUDIO PROPAGACIóN DE VIRUS


INGENIERíA DE SOFTWARE BASADA EN AGENTES PARA IMPLEMENTAR MODELOS DE SIMULACIóN: CASO DE ESTUDIO PROPAGACIóN DE VIRUS

Garibaldi López Castro Andrea Jeannette, Universidad Politécnica de Sinaloa. Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Como  todo enfoque informático para la solución de problemas, el uso de los sistemas multiagente propone una ayuda metodológica en conjunto con la  ingeniería de software para el estudio de casos. En esta investigación se estudiaron metodologías de Ingeniería de Software Orientadas a Agentes y las notaciones respectivas, es decir, artefactos de desarrollo que son específicamente concebidos para crear y simular sistemas basados en agentes. Una herramienta útil para poder experimentar en entornos controlados son las simulaciones, las cuales permiten reproducir un experimento dentro de un equipo de cómputo, usando variables que permiten orientar la simulación al resultado esperado; bajo esta perspectiva se tomó como caso de estudio la propagación de virus en una zona determinada.  Para esta investigación se trabajó en la conceptualización de los agentes desde  una arquitectura BDI a través de creencias, objetivos y planes que permiten iterar las características y comportamientos de los agentes. Para este caso de estudio se utilizaron dos tipos de agentes, aquellos que siguen los planes preventivos para evitar la propagación y contagio y aquellos que no toman ninguna medida preventiva. El escenario propuesto  es una playa de la zona turística de Mazatlán, Sinaloa, al representar escenarios la simulación permite mostrar el incremento y decremento en la tasa de infección conforme a la propagación de un virus, en un espacio dimensional.



METODOLOGÍA

Para la realización de este proyecto se trabajó con la plataforma de simulación GAMA y se estudiaron diversas metodologías y modelos para la  conceptualización  de un agente inteligente. La más adecuada para esta investigación es la  arquitectura BDI porque permite caracterizar a los agentes en concordancia con su entorno. Como primer paso, se  identificaron los comportamientos y escenarios.  Una vez  identificado el caso de estudio, se realizó el diseño de cada agente que iba a interactuar en la simulación siguiendo una  arquitectura BDI, organizando sus creencias, deseos e intenciones en una tabla para definir mejor cada característica. Por otro lado, se siguieron técnicas de ingeniería de software para establecer el cómo, cuándo y por qué iba a interactuar nuestro agente con su entorno. Entre estas técnicas se encuentran las historias de usuario, narrativas y diagramas de caso de uso. Una vez definida la estructura de los agentes, se implementaron haciendo uso del entorno GAMA para poder iniciar con la construcción de la simulación en un entorno digital. Para poder integrarlos de manera correcta se utilizó el lenguaje GAML para su programación y pruebas. La simulación sigue en una etapa de pruebas por lo que es necesario continuar corrigiendo las variables y agentes utilizados para poder obtener los valores ideales.


CONCLUSIONES

La ingeniería de software basada en agentes y el uso de un framework para representar escenarios de comportamientos (simulaciones) permiten visualizar y  proponer alternativas de solución a  diversos problemas en la sociedad. Es por esto que la ciencia e investigación se ha visto obligada también a modificar sus técnicas de experimentación, creando nuevas herramientas o utilizando las ya existentes. Dentro de estas herramientas se encuentra la simulación y el uso de agentes para diseñar entornos de acuerdo a las necesidades del experimento tal como se describió en esta investigación para representar el nivel de propagación de un virus, de acuerdo al uso de reglas definidas por parámetros. GAMA es una herramienta muy útil para esto, ya que acepta diferentes tipos de arquitecturas para la creación de los agentes en sus simulaciones, permitiendo al usuario crear y diseñar sus agentes de la manera que considere más viable. El uso  apropiado de metodologías, métodos, técnicas, herramientas y el adecuado análisis (conceptualización), diseño e implementación bajo el enfoque de una arquitectura de agentes, permiten en diversos entornos y en diversas dimensiones (pequeñas y grandes) o que siguen un flujo cambiante en su comportamiento,  simular escenarios previsores para diversos casos de estudio en la sociedad sin necesidad de poner en riesgo vidas humanas.
Garibay Gomez Ramón, Instituto Tecnológico Superior de Uruapan
Asesor: Mg. Jaime Trujillo Manrique, Universidad Antonio Nariño

MODIFICACIóN LOGíSTICA A PARTIR DE VARIABLES DE PROCESO EN LA CADENA DE PRODUCCIóN DE CAFé EN LENGUPá COLOMBIA


MODIFICACIóN LOGíSTICA A PARTIR DE VARIABLES DE PROCESO EN LA CADENA DE PRODUCCIóN DE CAFé EN LENGUPá COLOMBIA

Garibay Gomez Ramón, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Jaime Trujillo Manrique, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

Colombia tiene características especificas en calidad y volumen de producción de café, sus técnicas de cultivo evolucionan constantemente aportando alternativas en cultivo y productividad, sin embargo existen preocupaciones para los caficultores principalmente ligadas a costos de producción; a su vez los precios internacionales y nacionales varían considerablemente, situación que genera afectación diferenciada para los caficultores a nivel nacional, en el caso del departamento de Boyacá los caficultores se encuentra ubicados en zonas que son aptas para este cultivo presentando diferencias entre sus cadenas de abastecimiento en factores como clima, altitud, infraestructura y acceso a condiciones que facilitan los cultivos. La provincia de Lengupá registra cerca de 2.600 caficultores, se caracteriza por tener más del 70% de cultivos tecnificados de tipo joven, situación que favorece la productividad de los cafetales, no obstante existen diferencias importantes entre los municipios que componente la provincia, entre los factores importantes se encuentra la distancia y costo de transporte, sin embargo, no hay análisis previos que indiquen la importancia de este factor en las condiciones logísticas de los pequeños productores de café de esta zona; representada principalmente por condiciones de infraestructura con afectación en la rentabilidad de los participantes de la cadena de abastecimiento del café, y con presencia importante de intermediación y baja oportunidad de alternativas relacionadas con medidas operativas que modifiquen las condiciones de costos y rentabilidad para los productores.



METODOLOGÍA

La investigación es de tipo descriptivo aplicado, representa las condiciones logísticas para los caficultores de la provincia de Lengupá Colombia, el enfoque cuantitativo sigue tres fases caracterización, análisis de condiciones, solución a la problemática. Propone mejoras a las condiciones críticas que afectan a los caficultores; el desglose metodológico muestra que es descriptivo por las condiciones de caracterización de nodos y aplicado por que su finalidad es aportar soluciones que modifican las variables que determinan las condiciones de la problemática en la cadena de suministro del café de la provincia de Lengupá Colombia Hernández, Fernández & Baptista (2010). En cuanto al diseño metodológico, el proyecto toma en cuenta tres fases de desarrollo Fase 1. Caracterización: recopila información bibliográfica, analiza los actores, determina la estructura productiva obteniendo análisis preliminar de la problemática en la región En esta fase se consolida la información por parte de las entidades y el trabajo de campo, los cuales sirven como insumo para analizar y caracterizar las condiciones de la red de producción y transformación del café en la zona de estudio. Fase 2. Análisis de condiciones logísticas: son clasificadas las variables y determinados los procesos, se realiza valoración del aporte a la problemática y se determina elementos estructurales de la cadena de suministros, se realizó la verificación de los procesos a partir de las variables y se establecen los niveles de desempeño de la red. Fase 3. Solución a la problemática: A través del modelo se identifican las variables, los costos y utilidades que permiten tomar decisiones a los actores de la cadena de abastecimiento para mejorar el desempeño económico del ciclo productivo del café, también permite identificar las variables de cada nodo a fin de establecer correcciones de proceso que contribuyen en el análisis general. El trabajo hace parte del proyecto de investigación: Diseño de un modelo matemático para la optimización de la logística de los pequeños productores en las cadenas de suministros de café en Colombia y té en Argentina, apoyado y financiado por la Universidad Antonio Nariño- Colombia y ha recibido apoyo de bibliográfico y de campo por parte del Comité Departamental de Cafeteros de Boyacá


CONCLUSIONES

El proyecto permite concluir que sobresalen transportes, mano de obra y maquinaria con porcentaje importante dentro de los costos de producción y de igual forma se identifican variables que están relacionadas con estos factores productivos, finalmente el modelo permite determinar decisiones de tipo operativo y estratégico para mejorar los resultados del ciclo de productivo del café, esta situación afecta a más del 15% de los caficultores de la provincia de lengupá Colombia.
Garzón Restrepo Alvaro Andrés, Institución Universitaria de Envigado
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.


ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.

Cadavid Restrepo Juan Camilo, Institución Universitaria de Envigado. Garzón Restrepo Alvaro Andrés, Institución Universitaria de Envigado. Gómez Narváez Yeison, Institución Universitaria de Envigado. Macias Ramirez Jairo Yael, Universidad de Guadalajara. Monsalve Guzman Jacobo, Institución Universitaria de Envigado. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

Con el avance de las nuevas tecnologías como las proporcionadas por la Industria 4.0 y la gran cantidad de datos, que posibilitan el manejo de la información mediante el uso de la Big Data, ha permitido a investigadores abordar el gran campo de la inteligencia artificial haciendo uso de todo este material libre para la investigación. Uno de los mayores contribuyentes de esta información es el área de la medicina que a partir de diferentes tipos de registros han consolidado grandes bases de datos de diversos temas de interés como, por ejemplo, diagnósticos sobre enfermedades cardíacas, como se menciona en (Ciechowski, 2013) Las muertes a causa de enfermedades cardíacas en países desarrollados se está volviendo cada vez más común, muy posiblemente se deba al estilo de vida sedentario que viven muchas personas, que además no se puede obtener un diagnóstico temprano para tratar la enfermedad debidamente. Por este motivo muchos investigadores en conjunto con profesionales médicos se han encargado de aprovechar las técnicas de IA utilizando y creando algoritmos para procesar los diferentes tipos de datos provenientes de las evaluaciones de pacientes que están disponibles para su uso.



METODOLOGÍA

Con el fin de abordar el diagnóstico de enfermedades mediante el trabajo realizado por el campo de la Inteligencia artificial, este trabajo se fundamentó desde un metodología que permitiera conocer el estado actual de las investigaciones relacionadas con a los términos expuestos anteriormente (IA, diagnostico, modelos, métodos, algoritmos) que han sido utilizados recientemente para el tratamiento de dicha enfermedad, por eso este trabajo considero en desarrollar un Estado del arte, que recopila los artículos más recientes que permitan dar a conocer a toda la comunidad científica la manera en la que están trabajando estos dos grandes campos , la medicina y la inteligencia artificial, basándose en el planteamiento de Vélez y Calvo sobre Estado del Arte Maestría en Educación, en el que sugieren cuatro pasos a seguir para la realización del estado del arte: a. Contextualización b. clasificación c. Categorización d. Análisis El desarrollo de estos pasos se llevaron a cabo a groso modo de la siguiente manera : La ejecución del primer paso consistió en una contextualización la cual hace alusión a una exploración previa sobre la documentación bibliográfica, en este caso empleado mediante las diferentes bases de datos electrónicas, (Scopus, Science Direct, Google Scholar, DOAJ, entre otras) ofrecidas por las universidad a, así como también en algunas páginas web ,indagando sobre: Un estado del arte, señales biomédicas provenientes de corazón, la evolución de las tecnologías informáticas con fines de automatización en procesamientos de datos, la inteligencia artificial como herramienta para el diagnóstico clínico, y enfermedades cardiacas, planteando además el problema de estudio, como también definiendo el alcance del trabajo con el fin de dar claridad sobre el curso de la investigación. El paso siguiente consiste en una clasificación sobre toda la información recolectada, según el tiempo de publicación que permita dar un orden cronológico, los objetivos de dichas investigaciones y además el nivel de aporte a la investigación en curso. Luego en la siguiente etapa de categorización, como lo afirma (García, 2014) implica una recuperabilidad importante de la información, lo cual facilitará el estudio del fenómeno a investigar, y como plantea (Molina Montoya, 2005) desde la documentación bajo el enfoque de las temáticas, metodologías, hallazgos, teorías, estudios prospectivos o retrospectivos, y a través de la conexión entre temáticas investigativasencontrando esas singularidades y aspectos comunes que han trabajo empleado en previos investigaciones. Finalmente, el último paso del análisis trata de exponer tendencias y perspectivas mediante una valoración de las implementaciones que se esperan a futuro según las perspectivas de la documentación consultada. Como lo indica Molina citado en (García, 2014), El estudio previo y sistemático de las investigaciones precedentes, además de contribuir al mejoramiento de la teoría y la práctica de un tema particular, permite llegar a conclusiones y respuestas nuevas que se proyecten a futuro. de tal manera que los resultados de esta investigación se puedan aplicar en futuras investigaciones o proyectos, generando un valor agregado a partir de los resultados obtenidos.


CONCLUSIONES

Las técnicas utilizadas en los más recientes artículos consultados han implementado algoritmos de machine learning y Deep learning, dejando atrás los métodos estadístico que eran utilizados anteriormente, que han permitido el procesamiento y el aprendizaje de una gran cantidad de información, aprendiendo patrones y categorizando por ejemplo el tipo de enfermedad, el grado o la etapa en la que esta se encuentra , así como también han podido diagnosticar de forma preventiva el padecimiento de una enfermedad cardiaca, disminuyendo los errores de diagnóstico humano que se podrían encontrar en la práctica real. Sin embargo en estos mismos estudios los autores expresan que aunque es indudable el gran trabajo que se ha logrado, debe pasar algún tiempo que permita revisar la precisión de estos métodos mediante el resultado del paciente en cuanto a su salud o una verificación externa con dato clínicos reales, Igualmente al considerar un factor como el constante aprendizaje que requieren dichos programas para mantenerse al tanto de los nuevos diagnósticos y los nuevos resultados o conocimiento sobre la enfermedad en cuestión. Se espera que en un futuro no muy lejano estos programas ayuden al personal médico a mejorar la precisión y dar conocer al paciente su situación médica de manera oportuna mediante el apoyo inteligente de percepción de una máquina, logrando un tipo de consultor experto sofisticado.  
Germain Ramirez Cristal Esmeralda, Universidad Politécnica de Sinaloa
Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa

AGENTES INTELIGENTES CON ARQUITECTURA BDI PARA IMPLEMENTAR MODELOS DE SIMULACIóN: CASO DE ESTUDIO SISTEMA DE VIGILANCIA


AGENTES INTELIGENTES CON ARQUITECTURA BDI PARA IMPLEMENTAR MODELOS DE SIMULACIóN: CASO DE ESTUDIO SISTEMA DE VIGILANCIA

Germain Ramirez Cristal Esmeralda, Universidad Politécnica de Sinaloa. Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La ingeniería de software basada en agentes puede ser aplicada de muchas maneras. En este caso, se estudió el modelo BDI (Belief-desire-intention) desarrollado para proporcionar soluciones en entornos dinámicos o inciertos, en los que el agente o los agentes sólo tienen una visión parcial del problema (el acceso a la información está limitado) y posiblemente manejan un número limitado de recursos (recursos informáticos finitos). Las creencias, los deseos, las intenciones, y los planes son una parte fundamental del estado de ese tipo de sistemas. Esta investigación se desarrolla analizando y conceptualizado el caso de estudio en particular un modelo basado en agentes que consistió en un sistema de vigilancia asistida por drones, donde se plantean dos tipos de agentes: drones localizadores y drones clasificadores; los primeros localizan puntos de interés y los segundos clasifican dicho punto como amenaza o no amenaza. Este modelo puede ser previsto en muchas situaciones, por lo que la simulación del mismo es valiosa para implementar proyectos. Entonces, se analizó la arquitectura BDI en el modelo particular para adaptarlo a una situación real. En este caso, la situación consiste en un sistema de vigilancia en la zona de Pradera Dorada - Conchi en Mazatlán, Sinaloa, ya que en dicha zona existe un conglomerado de varias instituciones educativas (una secundaria, un kínder, cuatro universidades y una primaria) y en la zona tiende a haber riesgo de asaltos de civiles a estudiantes. Aquí, el dron localizador identifica sectores vacíos, con dos o más personas y con menos de ¼ (un cuarto) de personas por haber en el sector (para esto, toda la región habrá de dividirse en sectores cuadrados). Mientras que el dron clasificador va a categorizar como: amenazas, cuando se juntan dos o más personas en un mismo punto durante cierta cantidad de tiempo; no amenaza, cuando no hay personas juntas y existe un flujo constante.



METODOLOGÍA

En esta investigación se toman como base los temas de agentes inteligentes, modelos basados en agentes y Gama framework.  Todo esto fue visualizado en GAMA, que es un framework que facilita la elaboración de simulaciones basadas en agentes. Dicho framework trabaja con el lenguaje GAML. De tal manera, se trabajó con el caso de estudio en particular bajo el contexto de GAMA. La investigación se desarrolla analizando los temas anteriormente mencionados para contextualizar y se documentó una síntesis de dicha información junto con fichas cibergráficas como referencias.  Después, se investigó sobre la metodología BDI y, posteriormente, se analizaron algunas simulaciones basadas en agentes existentes con el fin de identificar esta metodología en un contexto real. Al identificar el caso de estudio sistema de vigilancia asistida por drones se representa en tablas para conceptualizar la arquitectura del agente en creencias, deseos e intenciones. Una vez revisada y discutida la arquitectura conceptual  de los  agentes, se realizaron  narrativas de caso de uso para escenificar los eventos  y comportamiento del agente en la simulación,  así como la utilización de  diagramas de transición de estado para visualizar el flujo del proceso dentro del framework de simulación.


CONCLUSIONES

Durante el verano, se obtuvo conocimiento sobre agentes inteligentes,  modelos basados en agentes,  sentando bases de ingeniería de software basada en agentes. Se trabajó la plataforma GAMA para el análisis del caso de estudio de vigilancia asistida por drones. Esta área tiene un amplio esquema de investigación y el alcance es muy amplio para diversos enfoques.  El resultado principal de la investigación fue el análisis y representación (arquitectura) del caso de estudio, así como su simulación aportando un mecanismo  de oportunidad para mejorar la seguridad en algunos sectores de la ciudad. Esta investigación representa un gran avance en el estudio del caso  de forma conceptual y de implementación.
Gil Apastillar Eduardo José, Instituto Tecnológico Superior de Apatzingán
Asesor: Esp. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica

CIUDADES INTELIGENTES: MONITOREO DE SISTEMAS FOTOVOLTAICOS


CIUDADES INTELIGENTES: MONITOREO DE SISTEMAS FOTOVOLTAICOS

Gil Apastillar Eduardo José, Instituto Tecnológico Superior de Apatzingán. Hernández López Bruno, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Esp. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Las ciudades inteligentes apuntan a que en el futuro su energía sea generada totalmente por energías renovables, una de ellas está basada en la obtención de energía por medio de los rayos solares por medio de sistemas fotovoltaicos, estos sistemas brindan la oportunidad que la generación de la energía puedan ser realizadas por cada habitante o comunidad de habitantes de una ciudad. Al momento en que suceda esto, existe la necesidad de crear un sistema de monitoreo que pueda brindar información tanto de la generación eléctrica, como el consumo eléctrico que se está teniendo para tener un control ordenado de la red eléctrica de las ciudades. Cuando se tenga el monitoreo de los diferentes sistemas, se alimentará por medio de los diversos dispositivos conectados, a una base de datos que servirá para generar una red eléctrica inteligente, y a partir de ello poder realizar tomas de decisiones, predicciones e incluso control sobre algunos elementos de consumo que se tengan en cada ciudad. Al analizar las posibilidades que puede ofrecer el sistema de monitoreo de sistemas fotovoltaicos, se plantea en la investigación la pregunta de, ¿puede un dispositivo de monitoreo ser de utilidad para brindar información confiable, rápida y precisa acerca de la producción y consumo energético de sistemas fotovoltaicos?   



METODOLOGÍA

Esta investigación se basa en el tipo de investigación de desarrollo tecnológico ya que se aprovechan conocimientos existentes en los campos tecnológicos actuales. Posteriormente se empieza a desarrollar el dispositivo de monitoreo a partir de la información recopilada y se hacen pruebas a un prototipo modular para comprobar la viabilidad de la tecnología que se desea desarrollar.      Esta investigación también corresponde a un enfoque cuantitativo debido a que el dispositivo de monitoreo presenta variables numéricas cuyos resultados son numéricos y pueden ser graficados, además de que es posible realizar comparativas entre los datos obtenidos con la finalidad de generar informes e indicadores que ayuden a generar una red de datos que permitan realizar tomas de decisiones e incluso predicciones a partir de ellos. Para el desarrollo de la metodología, lo primero que se realizó fue el análisis de los parámetros a monitorear en un sistema fotovoltaico, para obtener los parámetros a monitorear. Posteriormente, se efectúa la obtención de datos del sistema fotovoltaico por medio de distintos sensores, los cuales pasarán por un proceso de calibración, para que se asegure que las medidas obtenidas sean reales, precisas y por ello, confiables, ya que de lo contrario no podrían realizarse decisiones o predicciones basados en resultados que podrían ser incorrectos. Finalmente, se establece un análisis de la tecnología a usar para la transmisión de los datos, haciendo una comparación entre las tecnologías existentes y obteniendo a partir de ello, la tecnología que más se adecúe a la implementación de la tecnología que se encuentra realizando.  


CONCLUSIONES

En esta investigación se presenta una propuesta para implementar un dispositivo de monitoreo para un sistema fotovoltaico, con el propósito que se generen datos, información e indicadores representativos que puedan ayudar a que los usuarios y las ciudades, puedan tomar decisiones basadas en los datos obtenidos y que, una vez se conecten a una misma red varios dispositivos, pueda formarse una red eléctrica inteligente. Dicho dispositivo está determinado por la adquisición de datos, la calibración de ellos y la transmisión de manera remota utilizando la tecnología adecuada para asegurar que los datos del sistema fotovoltaico se transmiten de forma efectiva logrando realizar la transmisión remota de los datos.   Para poder llegar a la primera versión de este dispositivo se realizaron ciertos pasos, algunos dentro de un sistema modular y otros más de forma documental que sirvieron para que se planteara un camino, el cuál indicará el paso para realizar la versión final, por lo que dentro de lo realizado se encuentra: Análisis de parámetros a monitorear en un sistema fotovoltaico. Obtención de datos por medio de sensores. Calibración de sensores para parámetros elementales Análisis de la tecnología de transmisión de datos a usar en el dispositivo de monitoreo Una vez que se conjuntan todos estos elementos, se obtiene el elemento de dispositivo de monitoreo, el cual, al juntarse a otros dispositivos serán de utilidad para la generación de redes eléctricas inteligentes Los dispositivos de monitoreo generarán una forma eficiente de gestión de la electricidad que, a partir de la interpretación de los datos pueda ser implementada en las ciudades inteligentes como ayuda en la búsqueda que las ciudades puedan tener una red eléctrica capaz de integrar el comportamiento de los usuarios conectados a ella y pueda proporcionar un suministro de electricidad seguro, económico y sostenible consiguiendo que las ciudades sean asentamientos humanos inclusivos, seguros y resilientes.
Giraldo Morales Madeleyne, Universidad Santo Tomás
Asesor: Mg. Sergio Andrés Ardila Gómez, Universidad Autónoma de Bucaramanga

EVALUACIÓN DEL TORNILLO DE ARQUÍMEDES EN LA MICROGENERACIÓN EN LA ZONA NO INTERCONECTADA DE SAN ANTONIO DE GUAJUI, CAUCA.


EVALUACIÓN DEL TORNILLO DE ARQUÍMEDES EN LA MICROGENERACIÓN EN LA ZONA NO INTERCONECTADA DE SAN ANTONIO DE GUAJUI, CAUCA.

Giraldo Morales Madeleyne, Universidad Santo Tomás. Asesor: Mg. Sergio Andrés Ardila Gómez, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

El territorio Colombiano cuenta con una gran diversidad de climas y un gran recurso hídrico, lo que le permite usar este dentro de diferentes procesos, como lo es la obtención de energía. También posee condiciones geográficas altamente accidentadas, lo que dificulta el acceso a algunas zonas del país y por tanto la conexión a la red nacional energética. UPME en conjunto con el Ministerio de Minas y Energía indican en el Plan de expansión de referencia generación- transmisión 2017 - 2031, la incorporación de recursos renovables como fuente de generación energética. Por otro lado, recientemente se ha investigado acerca del uso del tornillo de Arquímedes en la generación de energía a diferentes escalas. En tal sentido, es importante para los ingenieros encargados de diseñar este tipo de sistemas, entender y evaluar la influencia que tiene cada uno de los elementos constitutivos y las condiciones del ambiente en el rendimiento final de este tipo de generadores. Para lograr este objetivo, se pueden realizar pruebas experimentales de modelos funcionales o estudios CFD, que permitan desarrollar procesos de prototipado virtual. Esta última alternativa, ha ido ganando terreno en la comunidad científica, dado que su aplicación es mucho más económica que el desarrollo de prototipos físicos, así como permite medir y visualizar aspectos físicos del fenómeno que experimentalmente no se podría.



METODOLOGÍA

La metodología aplicada al proyecto consta de cinco fases, la primera de estas es la revisión bibliográfica, la cual consistió inicialmente en la búsqueda de información sobre la teoría aplicada para el funcionamiento del tornillo, las bases para el desarrollo del modelo computacional del generador de tornillo de Arquímedes a partir de la Dinámica de Fluidos Computacional (CFD), las ecuaciones de Navier Stokes que describen el movimiento de una partícula de fluido y el funcionamiento de ANSYS Fluent para el desarrollo del modelo. En segundo lugar, se realizó la búsqueda investigaciones, aplicaciones y demás trabajos nacionales e internacionales relacionados con el tornillo de Arquímedes en la generación de energía. Y se realizó la búsqueda y obtención de los datos de caudal y de las Zonas No Interconectadas (ZNI) de toda Colombia. La segunda fase es la definición de la zona de estudio, donde a partir de los datos de las ZNI identificadas por la IPSE, monitoreadas por el CNM y la información de caudal proporcionada por el IDEAM, la selección de la zona de estudio dependía de la cercanía de la estación a la ZNI. La ZNI seleccionada se encuentra ubicada en el departamento del Cauca, municipio de Guapi, localidad de San Antonio de Guajui, la cual cuenta con 110 usuarios. La estación Sangaral (53047010) se encuentra a 6 km de la zona de estudio. Los datos de esta corresponden a datos mensuales multianuales, los cuales son tratados para obtener información diaria mensual multianual. Uno de los datos de entrada a usar para el modelo corresponde a los flujos másico de 0.24 y 0.41 kg/s, obtenidos a partir del caudal máximo y mínimo presentados en el afluente hídrico.  La tercera fase es la definición del volumen de control (Dominio computacional), la geometría de este se da a partir de las medidas proporcionadas por la empresa HIDROMETÁLICA, la cual tiene estandarizadas las medidas de los tornillos. De forma que el modelo seleccionado fue el TARQ-900 con altura geométrica de 2 m y ángulo de inclinación de 35°. Con un radio exterior de hélice de 0.45 m, radio interior hélice de 0.203 m, paso de 0.8 m y longitud del tornillo de 5.23 m. Seguido de esto se generó la malla en el software ANSYS, donde se seleccionó el método hexaédrico dominante, para mejorar la convergencia a la solución del modelo, con un tamaño de 0.05 m, se obtuvieron un total de 17420 elementos y 17911 nodos.  La cuarta fase es la simulación y pruebas del modelo, donde el modelo usado corresponde al K-épsilon Standard con tratamiento de Non-Equilibrium WallFunctions, modelo de turbulencia que tiene en cuenta los efectos de la viscosidad del fluido, captando los fenómenos presentes en la capa límite del fluido. La condición de frontera para la entrada y la salida del modelo corresponde al flujo másico determinado en la primera fase. Para la hélice y el eje se selecciona pared móvil, donde los elementos giran en torno a eje inclinado que se define en el vector unitario (0, 2.9998, 4.284) a diferentes RPM (35, 40, 45, 50, 55 y 60). Y para la carcasa de Pared estática.  El método de solución usado corresponde al Acoplamiento Presión-Velocidad: Acoplado. Se realiza una inicialización híbrida con 130 iteraciones, y se ejecuta con un total de 2000 iteraciones por cada RPM y Caudal. Por último, se realiza el cálculo de la potencia generada, a partir del par axial entregado por el tornillo (Cscrew) y la velocidad de rotación de este (n). Este resultado es multiplicado por un factor de eficiencia de 0.7 según la teoría. Con esto y los resultados obtenidos en la fase anterior se realiza la fase cinco resultados, análisis y conclusiones.


CONCLUSIONES

El sistema de microgeneración por tornillo de Arquímedes simulado en el presente estudio permite obtener una potencia mecánica en su eje entre 37 y 190 KW cuando se maneja un caudal de entrada de 0,54 m^3/s. La potencia generada varía dependiendo de las revoluciones por minuto que genere el tornillo. Con un caudal de 0,91 m^3/s en la entrada del sistema se podrá obtener potencias mecánicas de eje entre 54 y 220 KW, nuevamente dependiendo de las revoluciones por minuto que adopte el tornillo del sistema. El tornillo de Arquímedes cumple como fuente de energía es renovable y no contaminante, ya que permite generar energía eléctrica se alterar el ecosistema donde se instale. El sistema de generación por tornillo de Arquímedes es asequible a comunidades donde recursos energéticos no se encuentran establecidos, debido a que estructuralmente no requiere de grandes obras y su instalación y función no dependen del sistema nacional.
Gómez Arroyo Anel Michel, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA


MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA

Casas Frutis Liliana, Tecnológico de Estudios Superiores de Valle de Bravo. Garcia Medina Andrea, Tecnológico de Estudios Superiores de Valle de Bravo. Gómez Arroyo Anel Michel, Tecnológico de Estudios Superiores de Valle de Bravo. Pineda Ortiz Guadalupe Marlen, Tecnológico de Estudios Superiores de Tianguistenco. Sánchez Rojas Félix Alexis, Instituto Tecnológico de Zitácuaro. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

Se observó que en el área de trabajo de la empresa UUMBAL, el no tener controlado los lotes en producción conlleva a tener una variación en la productividad mensual de la plantación, teniendo un impacto significativo en las metas planificadas. La empresa consideró oportuno los estudios de calidad en su proceso para optimizar los tiempos de recolección, tiempo efectivo de trabajo, recursos humanos y distintos costos de herramientas, para consigo mejorar su capacidad de estrías y aplicación de pastas ante los factores cambiantes del entorno, utilizando diferentes metodologías, para saber qué problemas se presentan en cada localización o subproceso, así mismo identificar los factores que intervienen en el estriado y cosecha de pino para generar alternativas que ayuden a tener una meta más alta de recolección.



METODOLOGÍA

Se desarrolló una investigación no experimental, la cual se basa en variables que ya ocurrieron o se dieron en la realidad sin intervención directa del investigador, es de tipo cualitativa ya que con la recolección de datos que se tiene se pretende analizarlos para la comprobación de hipótesis y es un estudio correlacional ya que la investigación es conducida en lugar de la experimentación por la relación estadística causal entre las variables. Con datos sobre el proceso de resinación de la empresa UUMBAL se realizó un diagnóstico en el proceso de resinación aplicando un Mapa de Cadena de Valor (VSM) para identificación del flujo de materiales, la información desde el proveedor, proceso y cliente, plasmando las actividades productivas para identificar la cadena de valor y detectar donde se producen desperdicios durante el proceso, se identificaron dos cuellos de botella, el primero fue en la parte de la aplicación de pasta, ya que dicho proceso es de 7 días para posteriormente realizar la cosecha de resina y el segundo fue en el almacén final, ya que la resina que llega se queda en resguardo para posteriormente ser enviada a Grupo Allen. Se empezó con la aplicación de la metodología de Seis Sigma,en la etapa 1 se realizó un diagrama de Ishikawa, se observó que la mayoría de los problemas que existen en el proceso de resinación son generados a raíz de la mano de obra ya que no cuentan con las capacitaciones pertinentes para realizar sus tareas, así mismo el rendimiento es afectado por factores como la disciplina o habilidades con las que cuentan. Con la finalidad de hacer un análisis minucioso y preciso de las problemáticas detectadas se elaboró un diagrama de Pareto, examinándolo se aprecia que hay 4 causas principales asociadas al proceso de resinación, las cuales son; herramientas, EPP no requisitado, habilidades, capacitación y experiencia del colaborador. Estas representan el 20% del total de las causas que afectan al rendimiento y calidad del estriado, es necesario hacer énfasis a dar solución a estas causas detectadas, ya que resolviendo esto se elimina el 80% de las afectaciones en el proceso. En la etapa 2 se elaboró un histograma con los datos de producción, en el cual se observa el rendimiento de estriado mostrando un histograma tipo binomial, la desviación indica variabilidad en la producción de estrías ya que hay colaboradores que están realizando entre 800 estrías mientras que otros hacen hasta 1400. Se hizo un diagrama de caja y bigotes para mostrar la distribución de los datos y dio como resultado que no se está cumpliendo con la producción, debido a que la media de los datos es 1096.25 y la producción requerida es de 1200, asi mismo se encuentran 2 datos atípicos uno de 657 y otro de 1581 los cuales pueden ser atribuibles a algunas de las principales causas que se encontraron en los diagramas de Ishikawa y Pareto. En la etapa 3 con referencia al análisis de la capacidad del proceso en donde se cuenta con varios lotes de producción de pino híbrido y caribean, especialmente la resina que es el proceso que nos interesa, en la etapa 2 se determinó la capacidad del proceso en donde se evidencia que el proceso no es estable debido a que no cumple con el rendimiento de trabajo por colaborador asignado por jornada, derivado de esto se requiere un ajuste en la capacidad del proceso, es decir, establecer la contratación de nuevo personal o disminuir el rendimiento establecido a través de un buen estudio de tiempos y movimientos con la finalidad de llegar a las metas establecida de producción por año de la empresa UUMBAL. Con relación a la etapa 4, se genera un área de oportunidad en donde se establece un diseño de experimento de varios factores incluido un análisis de varianza de 2 factores, donde se determina áreas de mejora para maximizar la producción de resina aprovechando los recursos con los que cuenta la empresa. Por último en la etapa 5 se planteó el control de los datos de producción aplicando un control estadístico de procesos, que permita el monitoreo de la información para el desarrollo de proyectos de mejora que permitan eficientar las actividades de resinación dando como resultado mayor producción de resina.


CONCLUSIONES

Con la implementación del proyecto de mejora al proceso de resinación, se logró identificar áreas de oportunidad para aumento de la productividad utilizando los mismos recursos. A través de este análisis se logró observar el comportamiento de los colaboradores de campo, evaluando su rendimiento operativo, estableciendo parámetros muy puntuales de mejora, derivados de las causas potenciales encontradas con la aplicación de metodologías de calidad y herramientas estadísticas que coadyuvaron a la propuesta de proyectos de mejora integral. Por lo tanto se concluye que la hipótesis desarrollo de la metodología y herramientas de Lean Seis Sigma en el proceso de extracción de resina y cosecha de pino hibrido y caribean, se logrará eficientar la productividad y mejora del proceso de resinación durante un cierto periodo de tiempo, coadyuva para maximizar la producción y mejora del proceso de resinación en la empresa UUMBAL agroforestal.
Gómez Coronel Leonardo, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan

DISEÑO Y SIMULACIÓN DE UN INTERCAMBIADOR DE CALOR TUBULAR POR MEDIO DE ANSYS FLUENT.


DISEÑO Y SIMULACIÓN DE UN INTERCAMBIADOR DE CALOR TUBULAR POR MEDIO DE ANSYS FLUENT.

Avila Lopez Brian, Instituto Tecnológico Superior de Ciudad Serdán. Gómez Coronel Leonardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martínez Soto Mauro Osvaldo, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Se presenta una propuesta de  diseño para un intercambiador de calor de tipo tubular, y su simulación empleando el módulo de FLUENT del software ANSYSTM Academic, con la finalidad de corroborar los valores obtenidos para los valores de la temperatura de los fluidos en sus respectivas entradas y salidas al intercambiador de calor. Partiendo de una serie de datos de entrada para un problema de diseño dado, se determina la longitud adecuada para el intercambiador de calor que deberá de ser empleado en este tipo de aplicación, y posteriormente se realiza el diseño en CAD del modelo simplificado del intercambiador de calor con las trayectorias y dominios de los fluidos involucrados. Posteriormente se realiza un mallado adecuado para simulación CFD  y se ejecuta la simulación insertando las condiciones de borde adecuadas para el fenómeno físico, tales como los materiales, modelo de turbulencia seleccionado, tasa de flujo másico para los fluidos, temperaturas de entrada, condiciones y materiales para el muro, etc. La simulación es llevada a cabo por medio del Método del Elemento Finito. A manera de discusión de resultados se realiza la comparación de los resultados obtenidos que fueron obtenidos de la simulación con los cálculos teóricos obtenidos de las ecuaciones que son proporcionadas por la bibliografía. De obtener cálculos lo suficientemente cercanos en ambos casos, podríamos concluir que nuestra  simulación fue llevada a cabo de forma satisfactoria  y de esta forma validar el modelo.  



METODOLOGÍA

El objetivo principal de la investigación consiste en realizar una simulación referente al diseño de un intercambiador de calor de tipo tubular, al cual son aplicables todas las ecuaciones especificadas anteriormente. El primer paso consistió en resolver el problema de diseño por  medios analíticos, empleando las ecuaciones correspondientes al tipo de intercambiador y arreglo de flujo. Se planteó un problema de diseño con datos que pueden ser manejados en el entorno de simulación y, de igual modo, los resultados de esta misma deben de coincidir, o cuando menos, aproximarse en la medida de lo posible a los resultados que fueron obtenidos analíticamente. El problema de diseño a tratar es el siguiente: Un intercambiador de calor a contraflujo de una sola tubería se emplea para reducir la temperatura del agua que se extrae del condensador de un equipo de refrigeración a 80°C hasta 35°C. El agua caliente se extrae a un flujo másico de 0.01 kg/s. Se emplea agua de enfriamiento que está disponible a 20°C y que se bombea al intercambiador de calor a un flujo másico de 0.3 kg/s en una tubería de 50 mm de diámetro, concéntrica y externa a la tubería interna por donde fluye el agua caliente. La tubería interna del intercambiador es de cobre (K = 387.6 ) con un diámetro externo de 1 in (25.4 mm) y un espesor de pared de 2 mm. Asumiendo que el coeficiente de transferencia de calor en la superficie externa de la tubería es de 500 , determinar el valor de la longitud requerida para el intercambiador de calor. Asumir  constante a lo largo de toda la extensión del intercambiador de calor. Con lo cual se concluye que la longitud adecuada para el intercambiador de calor es de aproximadamente 1.47 m, lo cual por simplicidad se redondea a un valor cerrado de 1.5 m. Obteniendo un valor adecuado para la longitud del intercambiador de calor, se procedió al modelado del mismo empleando SolidWorksTM. El modelo obtenido es el que se aprecia en las figuras 9 a 11. Este modelo, conformado por dos sólidos diferentes (uno para el dominio del agua fría y otro para el dominio del agua caliente) fue guardado en un formato de modelo universal de CAD (en este caso, en un modelo tipo PARASOLID), y posteriormente importado a un proyecto nuevo en ANSYSTM Academic, en el módulo de “Geometry”, de donde se importa al resto de módulos que serán empleados para la simulación. El mallado resultante consiste de 50,964 nodos y 212,946 elementos, según el apartado de estadísticas. Un mallado inferior a los 70,000 nodos sería deseable en términos de la potencia computacional disponible.  Una vez que se cuenta con un mallado adecuado, y con las condiciones de frontera con su nombre correspondiente, es posible acceder al módulo de “Fluent” para introducir las condiciones de frontera en la simulación.


CONCLUSIONES

Haciendo referencia a valores anteriormente mencionados, recordemos que los valores de temperaturas a la entrada y la salida para el agua caliente eran de 80  (353.15 ) y de 35  (308.15 ), respectivamente, obtenido el valor a la salida después de la transferencia de calor resultante de la interacción con el agua de enfriamiento a 20 (293.15 ). Según la escala que acompaña al contorno de temperaturas, la temperatura del agua a la salida del intercambiador de calor se encuentra en el rango de entre los 305 a 309  los cuales son lo suficientemente cercanos a los 308.15 que se esperaba obtener por medio de cálculos. De este contorno de temperaturas es posible visualizar y concluir que los resultados calculados son lo suficientemente cercanos a los valores que fueron arrojados por los resultados de la simulación, validando de esta forma el modelo del intercambiador de calor propuesto. De cualquier modo también sería posible hacer que los resultados sean incluso más cercanos a los que son obtenidos de forma analítica realizando un mallado más fino con una mayor cantidad de nodos y elementos a cambio de un mayor recurso computacional invertido en su resolución. De igual forma sería necesario realizar un refinamiento del mallado en ciertas zonas con cambios de sección o curvaturas en las cuales los elementos se encuentran deformados o no cuentan con la perpendicularidad adecuada. Así también, en el apartado de simulación asignar un valor de error más pequeño en los residuales, y una cantidad más elevada de iteraciones podría traducirse en resultados más cercanos a los resultados analíticos.
Gómez Espinoza Uriel Ignacio, Universidad Autónoma de Chiapas
Asesor: Dr. Ricardo Bonett Díaz, Universidad de Medellín

ANÁLISIS DEL COMPORTAMIENTO SÍSMICO DE EDIFICIOS DE MUROS DE CONCRETO REFORZADO BASADO EN MACRO PARÁMETROS.


ANÁLISIS DEL COMPORTAMIENTO SÍSMICO DE EDIFICIOS DE MUROS DE CONCRETO REFORZADO BASADO EN MACRO PARÁMETROS.

Chávez Méndez Dorismar, Instituto Tecnológico de Colima. Estudillo Camacho Brenda, Universidad Autónoma de Chiapas. Gómez Espinoza Uriel Ignacio, Universidad Autónoma de Chiapas. Martínez Bojorges Iván, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Bonett Díaz, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

La tendencia del desarrollo vertical en los grandes entornos urbanos motivado por la ausencia de espacio ha impulsado el uso de sistemas industrializados en el sector de la construcción en Colombia. Uno de los sistemas de mayor uso, es el sistema de muros vaciados de concreto reforzado, conocido también como muros industrializados o de corte. En la actualidad las propuestas arquitectónicas sugieren espacios libres de muros para generar sensaciones de amplitud, por lo que la implementación de muros cortantes proporciona resistencia y rigidez ante carga laterales. La optimización de espacios, así como la reducción de costos y algunos vacíos normativos a nivel de parámetros de control sobre el dimensionamiento de los elementos estructurales, ha promovido el uso de muros delgados y esbeltos, es decir, elementos estructurales altos y de poco espesor, en los cuales no es posible incluir estribos o ganchos de confinamiento. Los muros son subsistemas estructurales sólidos rígidos, que brindan estabilidad a la estructura de una edificación. Los muros de corte son paredes de concreto armado que absorben fuerzas laterales coplanares (sismo, viento) rigidizando la estructura con el propósito de reducir las deformaciones excesivas y por consiguiente los daños, que puedan afectar el comportamiento integral de la misma. En la presente investigación se realizó el análisis estructural de un edificio de 20 y 12 niveles localizados en la ciudad de Bucaramanga departamento de Santander (Colombia), zona de alta sismicidad. Los edificios se analizaron a partir de una metodología desarrollada por la Red Colombiana de Investigación en Ingeniería Sísmica, CEER, la cual involucra los principales macro parámetros que controlan el comportamiento sísmico. La problemática surge con base a la necesidad de realizar una evaluación conceptual rápida y eficiente a partir de las características geométricas de los edificios construidos con el sistema de muros de concreto reforzado localizados dentro del nido sísmico de Bucaramanga, con el fin de identificar casos críticos que puedan generar una catástrofe durante un determinado evento sísmico. Es por ello que el correcto análisis de los elementos que conforman la configuración estructural de los edificios permite conocer si la disposición estructural es favorable o desfavorable en términos del desempeño sísmico esperado.  



METODOLOGÍA

Para la evaluación se empleó una metodología simplificada desarrollada por la Red Colombiana de Investigación en Ingeniería Sísmica, CEER. Para determinar el funcionamiento de los muros de corte presentes en ambos edificios, se analizaron los siguientes parámetros: Densidad de muros: permite determinar el área existente de cada uno de los muros de corte en edificio, a mayor densidad de muros menor carga axial, si la densidad es mayor que 3% la configuración del edificio se considera favorable desde el punto de vista de rigidez lateral. Relación de esbeltez: el cálculo de la esbeltez de cada uno de los muros permite conocer qué muros son capaces de soportar cargas laterales y cuáles son más propensos a que se pandeen. Relación de aspecto influye en la capacidad de rotación inelástica del muro:  los indicadores muestran el tipo de cada uno de los muros (cortos, intermedios o largos) y su capacidad deformación lateral. Porcentaje de cortante sísmico: determina el valor porcentual de carga sísmica que soporta cada uno de los muros de los edificios. Detallado del acero de refuerzo de los muros principales: permite calificar el tipo de refuerzo que tiene el elemento y si cuenta o no con confinamiento. Para cada uno de los casos de estudio, se realizó un análisis de la distribución de los macro parámetros y a partir de unos rangos o intervalos definidos por la Red CEER, se determina el nivel de diseño o el comportamiento esperado de ambos casos de estudio. Los cálculos mencionados anteriormente se obtuvieron por medio de hojas de cálculo de Excel ya que facilita el manejo de los parámetros para determinar el análisis estructural.


CONCLUSIONES

El desarrollo de infraestructura por medio de muros cortantes permite una nueva visión al momento de tomar decisiones estructurales en México, ya que las edificaciones predominantes en el país son por medio de pórticos, así que el conocer diversas alternativas estructurales ofrece un estudio detallado sobre los cimientos y la estructura del edificio en base a la región en la que se localiza y el entorno inmediato que demanda. Los resultados obtenidos presentan una herramienta útil para determinar la configuración estructural del edificio, en donde se demostró el comportamiento estructural de cada uno de los muros presentes en ambos edificios. La investigación brinda una pauta para que en un futuro sean analizadas edificaciones por medio de macro parámetros, ya que es una manera rápida y eficiente en la toma de decisiones sobre configuración estructural. En caso de que los resultados obtenidos sean desfavorables se requerirá un segundo análisis más detallado, en donde se incorporen modelos numéricos, procesos de análisis no lineal, así como modelados en tercera dimensión para evaluar el comportamiento de cada edificio con simulaciones de eventos sísmicos.
Gomez Gutierrez Aurelio, Instituto Tecnológico de Tapachula
Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula

DISEÑO, SIMULACIÓN Y CONSTRUCCIÓN DE ÁLABES PARA AEROGENERADORES A BAJAS VELOCIDADES PARA CASA HABITACIÓN


DISEÑO, SIMULACIÓN Y CONSTRUCCIÓN DE ÁLABES PARA AEROGENERADORES A BAJAS VELOCIDADES PARA CASA HABITACIÓN

Gomez Gutierrez Aurelio, Instituto Tecnológico de Tapachula. Robaldi Vazquez Antonio Alonso, Instituto Tecnológico de Tapachula. Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula



PLANTEAMIENTO DEL PROBLEMA

El consumo de combustibles fósiles actualmente es insostenible, solventarlo, conlleva una conciencia social, humana y ambiental, esto ha provocado que la demanda por fuentes de energía renovables crezca en los últimos años, la tecnología no contamina durante su operación. Sin embargo, se han presentado en parques eólicos impactos negativos en el paisaje, generando microclimas y afectando de forma directa la fauna del ecosistema. El conocimiento de la curva de potencia de un aerogenerador es de gran importancia, ya que define la potencia generada por el aerogenerador de acuerdo a la velocidad del viento a la cual está sometido, en este trabajo plantearemos 2 modelos de aerogeneradores residenciales, considerando no tener el impacto negativo que tienen los parques eólicos.



METODOLOGÍA

En el desarrollo de las actividades de este proyecto, se encuentra el diseño y la simulación de álabes que se puedan acoplar aun generador eléctrico, tomando como parámetros principales: baja velocidad del viento, bajos decibeles generados por el movimiento de los álabes y un diseño que pueda ser descrito matemáticamente. Para esto haremos la simulación de los modelos utilizando herramientas de mallado con el uso del software ANSYS y la configuración de solvers CFD (FLUENT & CFX). El primer modelo que emplearemos será el de la curva braquistócrona para la configuración horizontal del aerogenerador, agregando el mecanismo de veleta. El segundo modelo empleará el modelo de la curva tautócrona para la configuración vertical, agregando de igual manera el mecanismo de veleta La metodología empleada en esta investigación es cuantitativa, es decir, recurre a la definición, medición y al control de las variables traducidas en datos cuantificables y aplicables a las condicones aerodinámicas de los álabes utilizando técnicas estadísticas y modelos matemáticos.


CONCLUSIONES

Una vez desarrollado los diseños en las configuraciones planteadas con eje vertical y horizontal, nos damos cuenta de la importancia de las simulaciones y el impacto que tiene sobre los resultados, dejando interés y curiosidad en el uso y aplicaciones y la diversidad de modelos que se pueden crear.
Gómez Monroy Luis Alberto, Universidad Politécnica de Tecámac
Asesor: Mtra. Graciela Margarita Cetina Quijano, Universidad Politécnica de Tecámac

PLATAFORMA PARA EL PROCESO DE EVALUACIóN DE ESTUDIANTES EN EDUCACIóN DUAL, DESARROLLADA CON PHP, HTML5, CSS3 Y JAVASCRIPT PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC


PLATAFORMA PARA EL PROCESO DE EVALUACIóN DE ESTUDIANTES EN EDUCACIóN DUAL, DESARROLLADA CON PHP, HTML5, CSS3 Y JAVASCRIPT PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC

Cabrera Sanchez Itzel, Universidad Politécnica de Tecámac. Gómez Monroy Luis Alberto, Universidad Politécnica de Tecámac. Ledesma López Andrea Guadalupe, Universidad Politécnica de Tecámac. Martinez Gonzalez Obed Noe, Universidad Politécnica de Tecámac. Asesor: Mtra. Graciela Margarita Cetina Quijano, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la gestión del Sistema Dual en la Universidad Politécnica de Tecámac, la cual es una opción educativa, en la que los estudiantes reciben, de manera alternada, formación teórica en los planteles educativos y formación práctica en las empresas, con la finalidad de facilitar la inserción de los egresados en el ámbito laboral. Sin embargo, la plataforma que se usa actualmente es independiente de la universidad, por lo que sólo permite dar de alta a los estudiantes y no llevar un seguimiento de su desempeño académico y dentro de la empresa. En el año 2015 la Educación Dual comenzó a tener su auge en la educación media superior y superior, su finalidad es cualificar profesionalmente a personas trabajadoras en un régimen de alternancia, que combina la formación de los alumnos en el centro educativo y la formación en la empresa, integrando al estudiante en la empresa para desarrollar sus competencias profesionales, al tiempo que desarrolla competencias genéricas y disciplinares a fin de lograr una educación integral. El principal problema a resolver durante la investigación, fue lograr diseñar y crear un sistema que cumpliera todas las necesidades, que fueron requeridas por nuestro asesor empresarial, y una vez comenzado el desarrollo, ir resolviendo las dudas y problemáticas que se iban presentando al momento de la codificación del sistema.



METODOLOGÍA

El proyecto se realizó en el lenguaje de programación PHP el cual está destinado para el desarrollo web, con el uso del espacio de trabajo, mejor conocido como framework, Laravel. La plataforma está diseñada en base a la arquitectura de software; Modelo Vista Controlador, la cual separa los datos de una aplicación, la interfaz de usuario y la lógica de control. El modelo contiene una representación de los datos que maneja el sistema, en el caso de la vista, es la encargada de proporcionar la información enviada al cliente y el controlador actúa como intermediario entre los dos anteriores. Por ejemplo, para el llenado del formulario de inicio de sesión del estudiante, este usuario ingresa sus datos en la vista y da clic en un botón, por medio de este , la plataforma realiza una petición al controlador y este a su vez por medio del modelo busca los datos del usuario y verifica que sean compatibles con alguno registrado en la base de datos, si la consulta es exitosa, el controlador retornará una respuesta positiva a la vista, en este caso, lo dejaría entrar a su perfil personal, en caso de que no se encuentren los datos, el controlador lanzará una respuesta de error, que se visualizará en la misma vista de inicio de sesión. Para del Front-end, es decir, la interfaz gráfica de la plataforma utilizamos el lenguaje HTML5 el cual nos permite estructurar y presentar el contenido web, nos apoyamos de las Hojas de Estilo en Cascada, CSS3, para mayores detalles de diseño, como colores y tamaños en los elementos de la cada página, así como del framework Bootstrap, el cuál es una biblioteca de código abierto para el diseño de sitios web que contiene plantillas para formularios, botones, menús, entre otros elementos. Del mismo modo utilizamos el lenguaje de programación JavaScript para el diseño de tablas que permitan al usuario visualizar información importante, como lista de tareas, lista de becarios, biblioteca de archivos, registro de asistencia, por mencionar algunos. Sin embargo, JavaScript no sólo lo utilizamos para el diseño, también nos permitió establecer vínculo con el Sistema Único de Información Escolar de la Universidad Politécnica de Tecámac (SUIE), por medio de peticiones para la obtención de información que ayudara a abastecer la Plataforma de Evaluación de Estudiantes en Educación Dual, principalmente los catálogos de estudiantes, docentes, materias, cuatrimestres, carreras, áreas, plan educativo e inscripciones, con la finalidad de no repetir la captura de datos para la plataforma.


CONCLUSIONES

Durante nuestra participación en este verano virtual, logramos obtener un mejor conocimiento tanto de manera personal, pues el hecho de poder convivir con nuestro investigador de una manera mas personal para mejorar nuestro ser, así como el poder aprender nuevas tecnologías de desarrollo de proyectos y convivir con profesores que manejen estas mismas, teniendo asesorías de calidad. Logrando concluir que se espera lograr un impulso en nuestro plantel sobre estos sistemas, logrando una automatización de todos los sistemas posibles hasta ahora.  Se seguira dando seguimiento a este trabajo de investigación con la finalidad de obtener los mejores resultados y estos sean de calidad.
Gómez Narváez Yeison, Institución Universitaria de Envigado
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.


ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.

Cadavid Restrepo Juan Camilo, Institución Universitaria de Envigado. Garzón Restrepo Alvaro Andrés, Institución Universitaria de Envigado. Gómez Narváez Yeison, Institución Universitaria de Envigado. Macias Ramirez Jairo Yael, Universidad de Guadalajara. Monsalve Guzman Jacobo, Institución Universitaria de Envigado. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

Con el avance de las nuevas tecnologías como las proporcionadas por la Industria 4.0 y la gran cantidad de datos, que posibilitan el manejo de la información mediante el uso de la Big Data, ha permitido a investigadores abordar el gran campo de la inteligencia artificial haciendo uso de todo este material libre para la investigación. Uno de los mayores contribuyentes de esta información es el área de la medicina que a partir de diferentes tipos de registros han consolidado grandes bases de datos de diversos temas de interés como, por ejemplo, diagnósticos sobre enfermedades cardíacas, como se menciona en (Ciechowski, 2013) Las muertes a causa de enfermedades cardíacas en países desarrollados se está volviendo cada vez más común, muy posiblemente se deba al estilo de vida sedentario que viven muchas personas, que además no se puede obtener un diagnóstico temprano para tratar la enfermedad debidamente. Por este motivo muchos investigadores en conjunto con profesionales médicos se han encargado de aprovechar las técnicas de IA utilizando y creando algoritmos para procesar los diferentes tipos de datos provenientes de las evaluaciones de pacientes que están disponibles para su uso.



METODOLOGÍA

Con el fin de abordar el diagnóstico de enfermedades mediante el trabajo realizado por el campo de la Inteligencia artificial, este trabajo se fundamentó desde un metodología que permitiera conocer el estado actual de las investigaciones relacionadas con a los términos expuestos anteriormente (IA, diagnostico, modelos, métodos, algoritmos) que han sido utilizados recientemente para el tratamiento de dicha enfermedad, por eso este trabajo considero en desarrollar un Estado del arte, que recopila los artículos más recientes que permitan dar a conocer a toda la comunidad científica la manera en la que están trabajando estos dos grandes campos , la medicina y la inteligencia artificial, basándose en el planteamiento de Vélez y Calvo sobre Estado del Arte Maestría en Educación, en el que sugieren cuatro pasos a seguir para la realización del estado del arte: a. Contextualización b. clasificación c. Categorización d. Análisis El desarrollo de estos pasos se llevaron a cabo a groso modo de la siguiente manera : La ejecución del primer paso consistió en una contextualización la cual hace alusión a una exploración previa sobre la documentación bibliográfica, en este caso empleado mediante las diferentes bases de datos electrónicas, (Scopus, Science Direct, Google Scholar, DOAJ, entre otras) ofrecidas por las universidad a, así como también en algunas páginas web ,indagando sobre: Un estado del arte, señales biomédicas provenientes de corazón, la evolución de las tecnologías informáticas con fines de automatización en procesamientos de datos, la inteligencia artificial como herramienta para el diagnóstico clínico, y enfermedades cardiacas, planteando además el problema de estudio, como también definiendo el alcance del trabajo con el fin de dar claridad sobre el curso de la investigación. El paso siguiente consiste en una clasificación sobre toda la información recolectada, según el tiempo de publicación que permita dar un orden cronológico, los objetivos de dichas investigaciones y además el nivel de aporte a la investigación en curso. Luego en la siguiente etapa de categorización, como lo afirma (García, 2014) implica una recuperabilidad importante de la información, lo cual facilitará el estudio del fenómeno a investigar, y como plantea (Molina Montoya, 2005) desde la documentación bajo el enfoque de las temáticas, metodologías, hallazgos, teorías, estudios prospectivos o retrospectivos, y a través de la conexión entre temáticas investigativasencontrando esas singularidades y aspectos comunes que han trabajo empleado en previos investigaciones. Finalmente, el último paso del análisis trata de exponer tendencias y perspectivas mediante una valoración de las implementaciones que se esperan a futuro según las perspectivas de la documentación consultada. Como lo indica Molina citado en (García, 2014), El estudio previo y sistemático de las investigaciones precedentes, además de contribuir al mejoramiento de la teoría y la práctica de un tema particular, permite llegar a conclusiones y respuestas nuevas que se proyecten a futuro. de tal manera que los resultados de esta investigación se puedan aplicar en futuras investigaciones o proyectos, generando un valor agregado a partir de los resultados obtenidos.


CONCLUSIONES

Las técnicas utilizadas en los más recientes artículos consultados han implementado algoritmos de machine learning y Deep learning, dejando atrás los métodos estadístico que eran utilizados anteriormente, que han permitido el procesamiento y el aprendizaje de una gran cantidad de información, aprendiendo patrones y categorizando por ejemplo el tipo de enfermedad, el grado o la etapa en la que esta se encuentra , así como también han podido diagnosticar de forma preventiva el padecimiento de una enfermedad cardiaca, disminuyendo los errores de diagnóstico humano que se podrían encontrar en la práctica real. Sin embargo en estos mismos estudios los autores expresan que aunque es indudable el gran trabajo que se ha logrado, debe pasar algún tiempo que permita revisar la precisión de estos métodos mediante el resultado del paciente en cuanto a su salud o una verificación externa con dato clínicos reales, Igualmente al considerar un factor como el constante aprendizaje que requieren dichos programas para mantenerse al tanto de los nuevos diagnósticos y los nuevos resultados o conocimiento sobre la enfermedad en cuestión. Se espera que en un futuro no muy lejano estos programas ayuden al personal médico a mejorar la precisión y dar conocer al paciente su situación médica de manera oportuna mediante el apoyo inteligente de percepción de una máquina, logrando un tipo de consultor experto sofisticado.  
Gonzalez Coca Gabriel Mauricio, Instituto Politécnico Nacional
Asesor: Dr. Francisco Humberto Estupiñan Lopez, Universidad Autónoma de Nuevo León

ANáLISIS TERMO GRAVIMéTRICO (TGA) DE ALEACIONES DE TITANIO (TI-6AL-4V) FABRICADAS POR MANUFACTURA ADITIVA.


ANáLISIS TERMO GRAVIMéTRICO (TGA) DE ALEACIONES DE TITANIO (TI-6AL-4V) FABRICADAS POR MANUFACTURA ADITIVA.

Gonzalez Coca Gabriel Mauricio, Instituto Politécnico Nacional. Asesor: Dr. Francisco Humberto Estupiñan Lopez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Las aleaciones de Titanio, principalmente la aleación Ti-6Al-4V o Ti64 ha tenido un gran desarrollo en el ámbito militar, automotriz, químico, biomédico y sobre todo en la industria aeroespacial. Estas aleaciones se caracterizan por sus excelentes propiedades mecánicas, su resistencia a la corrosión y su alta estabilidad térmica a temperaturas por debajo de los 600°C. Durante los últimos años la manufactura aditiva a tenido un gran desempeño en múltiples campos como lo es el biomédico. Las técnicas de impresión 3D más destacables son la Fusión Selectiva por Laser y la Fusión por Haz de Electrones, SLM y EBM respectivamente por sus siglas en ingles.   La impresión 3D de piezas fabricadas con Ti-6Al-4V ha mostrado un mejor desempeño en sus propiedades mecánicas y sobre todo en su resistencia a la oxidación. Sin embargo, la manufactura aditiva esta lejos de considerarse perfecta, debido a que, por el proceso de fusión y solidificación a altas tasas, algunos defectos quedan remanentes, como porosidades y polvos superficiales semi fundidos. Este tipo de manufactura aditiva genera un área de oportunidad para la evaluación de distintas propiedades tanto mecánicas, químicas, físicas, etc. Con base a lo anterior el objetivo de este trabajo fue hacer un compendio documental, para ver los alcances obtenidos en piezas fabricadas por EBM, las cuales fueron sometidas a temperaturas por encima de los 600°C.



METODOLOGÍA

La investigación documental se realizó a través de navegar en distintas Bases de Datos como Science Direct o ResearchGate, usando palabras clave como Ti-6Al-4V, Alta temperatura, Oxidación, Manufactura Aditiva, EBM y Capa protectora de Oxido. Además, se implementó un rastreo de documentos referenciados, es decir, se usó como guía las mismas referencias que se hacían en las literaturas.


CONCLUSIONES

Piezas fabricadas con polvos de Ti-6Al-4V por manufactura aditiva presentan microestructuras de granos más finos que por métodos convencionales y debido a esto presentan una mejora en propiedades mecánicas, mejora en la resistencia a la corrosión y sobre todo una mayor resistencia a la oxidación. El tratamiento HIP proporciona una mejor estabilidad térmica, elimina defectos y propicia cambios microestructurales como es el caso de piezas procesadas por SLM, donde la martensita acicular se transforma a una mezcla de fases: α´→α+β A mayores temperaturas y mayores tiempos de oxidación mayor crecimiento la capa de oxido y por lo tanto mayor es la distancia difusiva de oxígeno. La cinética de oxidación de la aleación Ti-6Al-4V se clasifica en tres tipos: Ley logarítmica: Se da por debajo de los 400°C, aquí se da en un primer instante la reacción entre el substrato y el oxígeno, formando una película delgada de oxido.     Ley parabólica: Este comportamiento se da entre los 500-700°C, la oxidación se da por la difusión de iónica del substrato a la interface oxido-aire o la difusión del oxígeno a través de la película de oxido. Aquí se almacenan esfuerzos de compresión y tensión sobre la capa de oxido, los cuales a medida que aumenta la temperatura o el tiempo provoca un agrietamiento. Ley lineal: Se da arriba de los 700°C o cuando el tiempo de oxidación es muy prolongado y debido a la formación de grietas en la capa de oxido, se desprende y vuelve a exponer al substrato.
González González Joas Othoniel, Universidad Autónoma de Chiapas
Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo

DISEÑO DE REDES DE ABASTECIMIENTO DE AGUA POTABLE UTILIZANDO EPANET


DISEÑO DE REDES DE ABASTECIMIENTO DE AGUA POTABLE UTILIZANDO EPANET

González González Joas Othoniel, Universidad Autónoma de Chiapas. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Como es bien sabido, el agua es uno de los principales recursos de los que depende el ser humano para prácticamente todas sus actividades. Esto ha sido así a lo largo de toda la historia. Su uso varía de tantas formas, desde el propio consumo hasta para actividades recreativas. Y es por su gran importancia que la humanidad a lo largo del tiempo ha buscado poder almacenar grandes cantidades de este valioso recurso, así como también poder distribuirlo a los lugares donde es requerido.   Es aquí donde una gran problemática surge y que su solución ha ido evolucionando con el paso del tiempo. El abastecimiento de agua a la población es un reto a vencer ya que se tiene que tomar diversos aspectos en cuenta, como por ejemplo la cantidad de agua que se vaya a requerir tiene que ser tal que se pueda disponer de ella sin afectar el medio de donde es tomada sin mencionar que tiene que ser suficiente para poder satisfacer todas las necesidades.   También es de suma importancia, para poder llevar agua de un lugar a otro, que se cumplan con ciertas condiciones como presión y velocidades, ya que la falta o exceso de alguno de estos elementos pondría en riesgo la infraestructura utilizada para transportar el agua o incluso podría afectar el agua misma.   Cabe destacar que no es una tarea sencilla poder llevar el agua a todos lados, esto debido a que a veces los lugares a abastecer no son constantes tanto en elevaciones como en longitudes, por lo que hay que tener en cuenta cosas como material y dimensiones de tuberías o incluso ver si habrá que hacer uso de dispositivos especiales, como bombas o válvulas, para poder cumplir con los requisitos deseados.   Un sistema moderno de abastecimiento de agua se compone de instalaciones para la captación, almacenamiento, conducción, bombeo, tratamiento y distribución [1]   En este caso, el enfoque estará principalmente sobre el tema de la conducción. La metodología de análisis y diseño es sencilla, aunque algo laboriosa si se pretende resolver a lápiz y papel. Hoy día existen diversos softwares que nos hacen la vida más fácil ayudándonos a resolver esta clase de problemáticas de una manera más rápida, eficaz y confiable   [1] Tomado de MANUAL DE AGUA POTABLE, ALCANTARILLADO Y SANEAMIENTO de la COMISION NACIONAL DEL AGUA



METODOLOGÍA

Se hizo uso del software EPANET, que es para analizar, y diseñar, redes de abastecimiento de agua potable.   Se comenzó analizando las herramientas que este software provee aprendiendo su uso y funcionalidades.   Antes de poder analizar una red se tiene que conocer los datos de esa red, es decir, la población de proyecto, la longitud total de la red, la dotación y el gasto medio, máximo diario y máximo horario, con la finalidad de poder conocer el gasto base del sistema para saber cuanta demanda hay en la red en su totalidad y en cada punto de interés (en los nodos), además de poder conocer otros datos que son de gran importancia.   El producto final a entregar será un análisis de una red de abastecimiento de agua potable de una localidad ficticia. Esta habrá que analizarla desde cero, primeramente, conociendo la cantidad de habitantes que en ella residen, esto se estimó haciendo un calculo de que aproximadamente habría 5 habitantes por cada vivienda en la localidad. El calculo resulto en 231 viviendas dándonos un total de 1155 habitantes de población de proyecto. La longitud total de la red es de 1539.68 m. Se tomó en cuenta una dotación para un clima cálido siendo un aproximado de 200 l/hab/día. Los gastos obtenidos fueron los siguientes: Gasto medio 2.67 L/s Gasto máx diario 3.74 L/s Gasto máx horario 5.80 L/s Gasto específico 0.00377 L/s/m Teniendo estos datos ya se puede determinar el consumo base de cada nodo y con esto se procede a dibujar la red de abastecimiento en el software para poder hacer el análisis.   Antes que nada, habrá que establecer ciertas características por defecto, que son las etiquetas, unidades, formulas a utilizar y propiedades que son con las que se trabajaran en el análisis.   Lo que nos interesa establecer sería principalmente las unidades y formulas a utilizar, ya que lo demás dependerá meramente de la red en sí. Las unidades las manejaremos en litros por segundo (L/s) y de fórmula utilizaremos la de Darcy-Weisbach.   Teniendo establecido lo anterior y con los cálculos obtenidos previamente, se dibuja la red de abastecimiento definiendo las propiedades de cada nodo y tubería, estas son gasto base y elevación para los nodos y, longitud y diámetro para las tuberías.   En esta red las elevaciones varían de entre 2 454 y 2 474 metros. Los diámetros, por conveniencia, se establecieron todos en 150 mm ya que al ser un problema de análisis no requiere que se cumplan algunas otras condiciones, solo se necesita saber cómo está trabajando el sistema. En cambio, si el problema hubiera sido de diseño en el cual normalmente se exigen ciertos criterios de funcionamiento, ahí si se tendría que modificar los diámetros de las tuberías o incluso hacer uso de bombas y/o válvulas para garantizar la correcta operación de la red para que se cumplan los criterios.   Con todos los parámetros ya establecidos lo único que queda es correr el programa para que realice el análisis de la red y así obtener los datos que se necesiten (flujo, velocidades, presiones, ect.)  


CONCLUSIONES

Durante esta estancia de verano se logró adquirir y reforzar conocimientos en el área de hidráulica, además de adquirir el conocimiento para poder hacer uso de un software que nos ayuda a resolver problemas de diseño y análisis de redes de abastecimiento de agua potable con una mayor facilidad pudiendo así ahorrar tiempo y esfuerzos. EPANET es un programa que, si bien al principio pareciera que es difícil de utilizar, es de un uso muy sencillo e intuitivo.
González Gutiérrez Alfredo, Instituto Tecnológico de Querétaro
Asesor: Dr. Francisco Humberto Estupiñan Lopez, Universidad Autónoma de Nuevo León

CORROSIóN ELECTROQUíMICA EN ALEACIóN ALSI10MG FABRICADA POR FUSIóN SELECTIVA POR LáSER (SLM)


CORROSIóN ELECTROQUíMICA EN ALEACIóN ALSI10MG FABRICADA POR FUSIóN SELECTIVA POR LáSER (SLM)

González Gutiérrez Alfredo, Instituto Tecnológico de Querétaro. Asesor: Dr. Francisco Humberto Estupiñan Lopez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La Fusión Selectiva por Laser (SLM) en la manufactura aditiva es una tecnología emergente para la fabricación capa por capa de componentes metálicos. Para los métodos de procesamiento convencionales, las aleaciones de aluminio se fabrican mediante fundición, forja y deformación plástica, las cuales no son técnicas adecuadas para procesar componentes con geometrías complejas. La manufactura aditiva genera un área de oportunidad a estudiar debido a que permite crear piezas con geometrías complejas, reducir costos, tiempo de manufactura y evitar el material de desperdicio. Las aleaciones que han experimentado resultados prometedores en términos de capacidad de procesado por SLM son, en general, las aleaciones de fundición, con la aleación AlSi10Mg recibiendo la mayor atención. Esto se debe a su buena capacidad de fundición, junto con su baja contracción debido a la larga fracción de Al-Si eutéctico. Esa aleación ofrece buena relación entre densidad y resistencia, además de ser relativamente barata. Partes fabricadas por SLM son ampliamente usadas en sectores aeroespaciales, microelectrónica y productos automotrices.  La resistencia a la corrosión de las aleaciones de Al-Si fabricadas por SLM depende, en gran medida, de las condiciones superficiales. Tener una superficie rugosa puede degradar tanto el rendimiento electroquímico como la vida útil del material bajo cargas dinámicas. Además, la resistencia a la corrosión también está relacionada con la capacidad natural del material para formar una capa pasiva y adherente en condiciones atmosféricas regulares. Ha sido reportado que las aleaciones de aluminio fundido y forjado son susceptibles al ataque de corrosión por picadura en entornos que contienen cloruro debido a poros residuales que actúan como sitios preferentes para la iniciación de un ataque localizado. Lo que resulta en un problema específicamente en aplicaciones susceptibles a ambientes salinos. Las piezas fabricadas por SLM sufren de grandes cantidades de esfuerzos residuales inducidos térmicamente debido a los altos gradientes de temperatura experimentados, causando distorsión de la forma de las partes deseadas. Un tramiento térmico T6 resulta efectivo para liberar de esfuerzos resiuales a la aleación, con el problema de modificar  su microestructura del material y por lo tanto su resistencia a la corrosión. Se ha detectado anisotropía en aleaciones de Al-Si fabricadas por manufactura aditiva,  como consecuencia de la dirección de las pistas producidas por el láser en el proceso de fabricación, lo cual causa diferentes comportamientos en la resisitencia a la corrosión dependiendo la cara que se esté evaluando. Se tiene como objetivo resumir avances recientes sobre el comportamiento corrosivo en aleaciones AlSi10Mg en un medio salino fabricadas mediante manufactura aditiva por la técnica fusión selectiva por láser, con particular atención en el entendimiento del papel del acabado superficial, tratamiento térmico y anisotropía.



METODOLOGÍA

Se realizó una investigación documental y revisión bibliográfica donde se detalló el fenómeno de corrosión en aleaciones de Al-SI fabricadas mediante manufactura aditiva. Se estableció una visión sobre el estado actual del tema mediante la revisión de artículos científicos publicados en diferentes recursos, fuentes de información científica y técnica: sciencedirect, Microsoft Academic, WorldWideScience. 


CONCLUSIONES

El proceso de fusión selectiva por láser muestra resultados destacables en cuanto a resistencia a la corrosión debido a su particular microestructura.  Las piezas sin tratamiento térmico de AlSi10Mg producidas por SLM presenta la mejor resistencia a la corrosión debido a la presencia de una red continua de Si. La corrosión microgalvánica es limitada en las regiones individuales de la celda de Si, acelerando la formación de una película que protege al sustrato de Al. Por otra parte, la muestra tratada a 300°C con tratamiento térmico T6, presenta la peor resistencia a la corrosión debido a la red rota de Si. Tal microestructura no puede formar una película protectora, además un tratamiento térmico promueve una capa protectora cristalina y no densa. Finalmente, la muestra tratada a 400°C con tratamiento térmico T6, forma partículas de Si aisladas. La corrosión toma lugar alrededor de esas partículas permitiendo una corrosión por picadura modera y más generalizada. El tratamiento térmico posterior las procesado no se recomienda. En caso de que una alta resistencia a la corrosión sea requerida, por ejemplo, un intercambiador de calor o aplicaciones aeroespaciales, se sugiere una alta temperatura en el plato de construcción para evitar los esfuerzos residuales internos de la pieza. La resistencia a la corrosión incrementa desde la superficie más rugosa hasta la superficie menos rugosa. Las muestras relacionaron el incremento de la rugosidad con grandes cavidades, porosidades y otros defectos superficiales inherentes producidos por SLM. Dentro de esas porosidades, la superficie permanece inalterada, haciendo de las porosidades sitios para corrosión localizada. Por lo tanto, los potenciales de picadura dependen de los números y dimensiones de los poros. Finalmente, si se desea mejorar la resistencia a la corrosión de una aleación Al-Si fabricada por SLM, un pulido mecánico en acabado espejo es la mejor alternativa como post-procesado. La diferencia de densidad de poros superficiales y el alta concentra de bordes de melt pools o albercas de fusión sobre superficies XZ presentan una resistencia a la corrosión inferior con respecto a las superficies XY.Así que los puntos a tener en cuenta en fases iniciales del diseño no solo son las condiciones geométricas y el material, sino también la orientación de impresión que resulta ser algo imprescindible para tener un control sobre la anisotropía y alcanzar así la máxima optimización.
González Hernández Francisco, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mg. Darwin Jose Mendoza Galvis, Universidad de Santander

NIVEL DE IMPLEMENTACIÓN DE LAS HERRAMIENTAS 5S EN DOS EMPRESAS METALMECÁNICAS EN VALLEDUPAR COLOMBIA Y TOLUCA MÉXICO


NIVEL DE IMPLEMENTACIÓN DE LAS HERRAMIENTAS 5S EN DOS EMPRESAS METALMECÁNICAS EN VALLEDUPAR COLOMBIA Y TOLUCA MÉXICO

González Hernández Francisco, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Darwin Jose Mendoza Galvis, Universidad de Santander



PLANTEAMIENTO DEL PROBLEMA

Actualmente las industrias en México no llevan a cabo las metodologías 5 s ya que diversos estudios de investigación sobre esta metodología lo expresan de esa forma, ( Ingosis 1999), muestra que gran variedad de empresas en el mundo sufren desabastos de materiales por no llevar un control claro en ellos, una investigación realizada en Alemania muestra que no llevan a cabo las filosofías 5S ya que cuentan con problemas de planteamientos en las empresas y los trabajadores no cuentan con seguros médicos. Gran parte del mundo sufre consecuencias por no tener conocimientos sobre las filosofías de producción, pero la más presente es la filosofía 5s. El desarrollo de las industrias ha ido decayendo con el paso de los años (Oriana Godoy 2004), no se ha planteado una mejora para esto, un plan; ¿A que nos referimos con esto?, las industrias no han tenido un buen desarrollo administrativo por no tener un buen plan de desarrollo y estandarización en las empresas industriales. La complicación que se presenta es que al momento de ejecutar el plan de las 5´s no sabríamos como este afectaría en la empresa, si produciría resultados positivo o negativo en ella. Este programa 5`s se desarrolló en Japón en la empresa Toyota en los años 1960 con la finalidad de mejorar su producción y calidad de vida laboral, ya que la empresa estaba a punto de bancarrota. (Jorge Sayago, Eliany Ojeda 2000). El plan de las 5´s se ha utilizado en varias empresas para mejorar su eficiencia laboral y su desarrollo administrativo para tener buenos ingresos monetarios y sacar adelante las empresas. Este plan tiene una metodología que se basa en 5 fases unas diferentes de otras que son: La organización y descarte, El Orden, La Limpieza, La Estandarización y La de Mantener la disciplina. La investigación realizada por la revista (the scientific 2010), nos dice que muchas empresas extranjeras y de México han visto cambios en la producción y estandarización de ellas gracias a la implementación de las herramientas 5S, han tenido grandes resultados en las producciones y en sus planes de mejora, así como en el ambiente laboral que se vive día con día y sus trabajadores han mostrado entusiasmo en las actividades realizadas día a día. El cambio es un fenómeno social que ocurre en diversos contextos, con diferentes magnitudes, de tipos muy variados y manifestaciones diferentes. El cambio ha sido y es, inherente a la sociedad y al hombre desde el mismo inicio de su existencia y aunque su ocurrencia es diaria, las personas no pueden asumir sus repercusiones tan rápido como para no sufrir trastornos por ello. De esta forma podemos identificar cuatro elementos dentro de una organización a tener en cuenta ante un cambio: estructura, personas, tareas y tecnologías (León, 2002).



METODOLOGÍA

El presente trabajo recopila información de distintos artículos de investigación sobre la filosofía 5S en México y Colombia, partiendo de esta información se aplicaron metodologías de producción con las herramientas 5S para identificar problemas dentro de la empresa y así poder identificar qué factores desencadenan dichos problemas en la empresa se realizó un instrumento para investigar estos problemas y dar posibles solución siempre buscando la mejora continua de la empresa en México y Colombia. Se delimito la zona geográfica de estudio asi que se seleccionaron dos países de acuerdo a sus características de producción los cuales fueron México y Colombia. México cuenta con gran utilidad de esta filosofía ya que la empresa de México es una de las mas importantes del país y reconocida a nivel nacional cuenta con varias certificaciones estadounidenses que la acreditan como una de las mejores empresas metalmecánicas en todo el país, por lo contrario, la empresa colombiana no cuenta con estándares suficientes de la investigación realizada para tener una buena reseña ante esta investigación. Posteriormente se realizo un análisis de los problemas dentro de las empresas con el instrumento realizado que en este caso fue una auditoria, así cada problema puede visualizarse de tal manera que se muestran las raíces de dichos problemas y de esta manera proporcionar alternativas de solución, resulta una tarea aún más sencilla. Se aplicaron estudios con estadísticas realizadas con los resultados arrojados de la investigación con la auditoria utilizada, es posible mejorar la estandarización y producción de ambas empresas llevando a cabo la filosofía antes mencionada. De cada dato y de cada grafica se realizó una interpretación de los resultados con la finalidad de poder sacar la comparación de cada una de las empresas a analizar con el instrumento realizado. Con cada uno de los resultados obtenidos sacaremos conclusiones de la investigación realizada.


CONCLUSIONES

Al desarrollar la filosofía de 5s se pudo encontrar que la empresa metalmecánica en la ciudad de México cuenta con un mayor desarrollo de implementación de las herramientas 5s, en el caso de Colombia le hace falta tomar más en cuenta la metodología de las herramientas 5S. A pesar que las herramientas 5S es una metodología que se está ocupando a nivel mundial y existe evidencia que hay empresas que no están ocupando la metodología de 5S correctamente para una mejor calidad de la empresa. La filosofía de las herramientas 5S es un proceso de mejora continua, que no exige un nivel de conocimientos elevados, si no que trata temas bastante elementales y que lo conforman 5 procesos. Las fases son eliminar lo sobrante, ordenar, limpiar e inspeccionar, estandarizar y la autodisciplina de mantener los pasos anteriores. Se obtienen beneficios como el aumento de productividad, disminución de números de averías y aumento de vida de herramientas, aumento de seguridad laboral. El desarrollo de los 5 pasos hace que salga a la luz problemas cultos derivados del proceso productivo.
González Martínez Karla Lizbeth, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Mg. Hugo Hernández Palma, Corporación Universitaria Latinoamericana

MODELOS DE TOMA DECISIONES INVERSIÓN


MODELOS DE TOMA DECISIONES INVERSIÓN

Cruz Rodríguez Ramon, Universidad Tecnológica de Nayarit. González Martínez Karla Lizbeth, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Mg. Hugo Hernández Palma, Corporación Universitaria Latinoamericana



PLANTEAMIENTO DEL PROBLEMA

Uno de los temas más relevantes en la discusión sobre la sostenibilidad se relaciona con la reducción de la huella ambiental; especialmente por parte del sector energético, que es considerado como uno de los que genera un mayor aporte a la emisión de gases contaminantes y residuos. De este modo la búsqueda de energías alternativas resulta ser una de las propuestas con mayor relevancia en la actualidad; razón por la cual el presente proyecto se enfoca en las áreas que urgentemente necesitan la aplicación de una energía renovable, haciendo un especial énfasis en el sector salud como eje fundamental de la calidad de vida de los seres humanos.



METODOLOGÍA

El objetivo planteado para ello es el de analizar las diversas propuestas provenientes de fuentes de información científica que estudien la aplicación y el desarrollo de proyectos de energía solar fotovoltaica en sistemas hospitalarios y que contribuya al impacto económico, ambiental y social; aportando a la gestión dentro del sector energético regional, nacional y global. La investigación es de tipo no experimental,  y  transeccional; en cuanto a la amplitud de la investigación será una investigación comparativa, se hará comparación entre los métodos de análisis financieros tradicionales de valoración y el método de opciones reales; donde las fuentes de recolección de datos serán de fuente mixta (de campo y documental), dichas fuentes documentales serán de tipo primario, tales como: publicaciones periódicas, artículos en revistas, documentos oficiales, informes técnicos, normas, tesis, y fuentes documentales de tipo secundario, como: bibliografías, catálogos, boletines de sumarios, índices de citas o índices de impactos, dicha revisión se realizara en un rango de los últimos cinco años y se tomarán en cuenta las bases de datos de alto nivel como Scopus, WOS, Scielo o Google Académico.


CONCLUSIONES

Con esta revisión se espera obtener en primera instancia una línea de tiempo que permita comprender la evolución y el desarrollo de la implementación de sistemas de energía fotovoltaica, haciendo un especial énfasis en el sector salud, así como también un análisis comparativo entre los métodos tradicionales y el método de opciones reales para la puesta en marcha de dichos proyectos. Se concluye que, la importancia de esta investigación radica en la propuesta metodológica y construcción de instrumentos que viabilicen el desarrollo de proyectos de energía solar fotovoltaica, que contribuyendo al impacto económico, ambiental y social. Palabras clave: sistemas energéticos renovables, método de opciones reales, energía fotovoltaica.
González Meneses Karla Estela, Universidad de La Salle Bajío
Asesor: Post-doc Manuel Romero Sáez, Instituto Tecnológico Metropolitano

USO DE RESIDUOS AGROINDUSTRIALES COMO MATERIALES CEMENTANTES SUPLEMENTARIOS


USO DE RESIDUOS AGROINDUSTRIALES COMO MATERIALES CEMENTANTES SUPLEMENTARIOS

González Meneses Karla Estela, Universidad de La Salle Bajío. Asesor: Post-doc Manuel Romero Sáez, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, atravesamos por una grave problemática a nivel mundial, donde el aumento poblacional está provocando una elevada demanda de productos agrícolas e industriales. Esto provoca a su vez una disminución de los recursos naturales, y una alta generación de subproductos y residuos, que se acumulan cada vez más en nuestros campos y ciudades. La acumulación de residuos hace que aumenten sitios insalubres, debido a que en su descomposición proliferan hongos, bacterias y muchos otros microorganismos, además de presentar un grave riesgo de contaminación de suelos y aguas, tanto superficiales como subterráneas. Por otro lado, la industria de la construcción está en continuo crecimiento en todo el mundo, y requiere el consumo de gran cantidad de recursos, como arena, grava y cemento. En particular, el cemento portland es el material con mayor uso a nivel mundial, y su producción representa el 7% de emisiones mundiales de CO2, con una tonelada de CO2 emitida por tonelada de cemento producido.  Por lo tanto, esto hace que sea necesaria una responsabilidad mayor y una generación de conciencia inmediata, obligando a hacer uso de estrategias para desarrollar materiales de construcción más sostenibles. Ambas problemáticas anteriores se pueden minimizar mediante el uso de residuos agroindustriales como material cementante suplementario (MCS). Un MCS es un material que sustituye al cemento, lo que hace que su uso sea menor a la hora de producir concretos o morteros. Los MCS deben tener efecto puzolánico, es decir, deben sufrir reacción puzolánica en la mezcla. En algunos casos, el uso de residuos agroindustriales como MCS contribuye a las propiedades mecánicas y de trabajabilidad del concreto o mortero. Por tanto, esta estrategia no solo evita la mala disposición de residuos agroindustriales y evita la emisión de grandes cantidades de CO2 al reducir la demanda de cemento, si no que puede también mejorar las propiedades del concreto o mortero producido En la actualidad, son numerosas las investigaciones que estudian el uso de diferentes residuos agroindustriales como MCS.  La investigación realizada la estancia ha consistido en la realización de un artículo científico de revisión o Review acerca del uso a nivel mundial de residuos agroindustriales como MCS.



METODOLOGÍA

En primer lugar, con el objetivo de aumentar los conocimientos acerca del tema a investigar, se realizó una lectura de varios artículos científicos de revisión sobre la temática. A continuación, se comenzó con la búsqueda de artículos científicos publicados en los últimos 10 años sobre el uso de distintos residuos agroindustriales como MCS, así como el tratamiento previo que se les da, las características y propiedades de los productos obtenidos y el impacto positivo que se genera por la disminución de residuos contaminantes al ser empleados como MCS. Para ello se emplearon diferentes bases de datos, como Google Scholar o Science Direct. El prestigio de los artículos encontrados se verificó en la web Scinmago J&CR. En base en la lectura crítica de los diferentes artículos, y en función de la información extraída y el agrupamiento de ésta, se decidió que el Review contendría la siguiente información general: Materiales cementantes suplementarios Residuos agroindustriales como materiales cementantes suplementarios Mezclas de residuos agroindustriales como materiales cementantes suplementarios Mezclas de residuos agroindustriales e industriales como materiales cementantes suplementarios De acuerdo con la información recopilada, se realizó la investigación en primera instancia, en búsqueda de los tipos de residuos agroindustriales que se han empleado como MCS en los últimos 10 años, determinando que los principales son las cenizas de los siguientes residuos: Cascarilla de arroz Bagazo de caña Residuos de madera Mazorca de maíz Fibra de tronco de aceite de palma Cascarilla de avena Luego de la determinación de los residuos agroindustriales, se indagó acerca de los métodos y condiciones de calcinación, sus características químicas, las proporciones, resistencias y particularidades de cada uno de estos al ser incorporados en diferentes tipos de mezclas de concreto y mortero. Un ejercicio similar se hizo con los otros apartados principales del Review, en los que se investiga acerca del uso de mezclas de diferentes residuos agroindustriales entre sí y con otros tipos de residuos no provenientes de actividades agrícolas. Aspectos como porcentajes de cada residuo, modo de mezclado, posibles sinergias y propiedades de los productos son las más importantes en estos apartados Según la metodología para la escritura de este tipo de artículos científicos, la búsqueda y revisión de información se debe hacer de forma paralela a la escritura, y es así como se ha trabajado.


CONCLUSIONES

Durante la estancia se logró conseguir conocimientos acerca de la metodología para la búsqueda de artículos científicos con relevancia y validez, así como los pasos a desarrollar para la realización de un documento científico tipo Review con referencias de valor. De igual manera, se adquirieron fundamentos teóricos acerca de los MCS, sus propiedades físicas y químicas, ventajas y desventajas de uso, así como un sentido de conciencia mayor por la implementación de técnicas a favor de la realización de materiales verdes que generen un impacto positivo a favor del desarrollo sostenible. La investigación realizada está directamente relacionada con cuatro de los objetivos de desarrollo sostenible de la Agenda 2030 para el Desarrollo Sostenible: Objetivo n.º 8 Trabajo decente y crecimiento económico Objetivo n.º 11 Ciudades y comunidades sustentables Objetivo n.º 12 Producción y consumo responsables Objetivo n.º 13 Acción por el clima
González Moreno Sergio, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DISEñO Y SIMULACIóN DE UN ANIMATRóNICO TIPO NARRADOR CONTROLADO MEDIANTE TARJETA DE DESARROLLO


DISEñO Y SIMULACIóN DE UN ANIMATRóNICO TIPO NARRADOR CONTROLADO MEDIANTE TARJETA DE DESARROLLO

González Moreno Sergio, Instituto Tecnológico Superior de Huauchinango. Martinez Gutierrez Gilberto Rene, Instituto Tecnológico de Colima. Ramírez García David, Instituto Tecnológico de Colima. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La animatrónica es una técnica que recrea el movimiento de seres vivos aprovechando los recursos técnicos que brinda la ingeniería y robótica, estos seres mecánicos son controlados y alimentados externamente. Se entiende como un intento de imitación de los seres vivos, figuras animadas en tres dimensiones, ya sea un humano o un animal y, usualmente, del tamaño real. En algunos casos, los animatrónicos podemos ver que se implementan en un ámbito académico cuyo objetivo principal está orientado hacia el desarrollo tecnológico. Pero en casi en todos tienen el propósito de entretenimiento siendo comúnmente empleados en la construcción de animales y criaturas de ciencia ficción para la industria cinematográfica, museos o en los zoológicos, dónde buscan exponer criaturas mitológicas o animales para imitar sus movimientos y comportamiento para el entretenimiento del público. La idea de este proyecto es diseñar y simular una figura animatrónica de grandes dimensiones que posea movimientos humanos muy similares con la ayuda de softwares de diseño CAD, empleando sistemas electrónicos y mecánicos para los movimientos de ojos, boca, cuello y brazos que serán realizados con mecanismos simples que serán controlados y programados a través una tarjeta de desarrollo Arduino nano. Además, con el fin de que el animatrónico se llamativo al público contará con un sistema de luces de leds RGB y humo artificial y un sistema de seguimiento vocal que sincroniza el movimiento de la boca con el sonido simulando así que el animatrónico hable.



METODOLOGÍA

Este trabajo se realizó en el Centro Universitario de los Valles de la Universidad de Guadalajara, México. Para el diseño del animatrónico se utilizó la metodología de desarrollo de productos descrita por Ulrich. Conceptualizar: a través de una lluvia de ideas se generaron los conceptos adecuados para que el animatrónico cumpliera con las siguientes características: llamativo, fácil de construir y fácil de implementar. Diseñar: Una vez definido todas las características del animatrónico, el diseño estará dividido en tres partes: mecánico, electrónico y control. Los cuales se desarrollaron en los softwares de diseño CAD SolidWorks versión 2018, Proteus 1.810 y IDE de Arduino respectivamente. Simular: Una vez terminadas las características y componentes de cada uno de los diseños, se realizaron simulaciones de cada uno de los sistemas en el mismo software donde fueron diseñados. Evaluación: para la parte de evaluación, se realizó un análisis de los resultados de la simulación para poder detectar algún detalle o error relevante para poder realizar los ajustes necesarios al diseño.


CONCLUSIONES

A partir de la conceptualización general se definió que el animatrónico estará compuesto principalmente por la cabeza y brazos, los cuales se colocarán sobre una base en la que contendrá los sistemas de control y de sonido. También el animatrónico contará con cinco movimientos principales, ojos, cejas, boca, cuello y brazos. Y para hacer que el animatrónico se más llamativo se decidió que el animatrónico tenga la capacidad de realizar un movimiento sincronizado de la boca con el sonido, simulando que el animatrónico esté hablando. Para que el animatrónico realice los movimientos de los ojos, boca y brazos decidimos utilizar actuadores lineales, ya que este dispositivo cuenta con un motor de corriente directa conectado a un tornillo sin fin, que dependiendo de la dirección del motor genera un movimiento lineal en el tornillo sin fin. Para el movimiento del cuello se decidió utilizar un motor bipolar nema 23, ya que este motor permite realizar un movimiento preciso y proporciona un alto torque. Y por último para el movimiento de las cejas se decidió utilizar microservos. Se procedió a realizar los diseños necesarios para los mecanismos de la cabeza, cuello y brazos, así también la estructura para la base, todo esto desarrollado a través del software SolidWorks. Después se procedió a realizar el diseño electrónico y tarjetas PCB para el control de los movimientos a través del software Proteus. Para la parte de control se desarrollo un diagrama de flujo del comportamiento del animatrónico que fue programado a través del entorno de desarrollo integrado (IDE) de Arduino. Una vez realizados los diseños se procedió a realizar las simulaciones, tanto de funcionamiento como de resistencia mecánica. En las simulaciones de resistencia mecánica ponemos aprueba el diseño mecánico del animatrónico bajo vectores de fuerzas representando la carga de los componentes que lo constituyen. Se analizó la deformación total de cada uno de los elementos críticos que lo conforman como: el eje principal, cabeza y base. Además de asegurarnos en cumplir con un factor de seguridad por arriba de 3. Toda esta simulación fue realizada en el software SolidWorks. Para las simulaciones de funcionamiento se puso a prueba el diseño electrónico y de control a través del software Proteus, utilizando el microcontrolador Atmega328p de la tarjeta de desarrollo Arduino nano, representando cada uno de los componentes del animatrónico. Los resultados de la simulación dieron la posibilidad de corregir unos detalles de diseño electrónico y de control, para poder obtener un resultado más satisfactorio. Para concluir, se obtuvo un diseño un animatrónico con aspectos humanos, logrando que los mecanismos recrearan movimientos propuestos, también se logró controlar por medio de sistemas electrónicos dichos mecanismos con el desarrollo de tarjetas de control y programación. Se planea perfeccionar los detalles estéticos del animatrónico, también se pretende implementar un sistema de proyección holográfico de imágenes y videos para elevar el impacto visual en el prototipo asiendo más atractivo para poder implementar este animatrónico en presentaciones demostrativas o incluso temáticas, estas últimas alusivas a tradiciones mexicanas con la simple razón de presentar el trabajo realizado.
González Naranjo César Isaac, Instituto Tecnológico de Colima
Asesor: Mg. Mary Alejandra Mendoza Pérez, Universidad Católica de Colombia

TENDENCIAS INVESTIGATIVAS ASOCIADAS A LA INDUSTRIA 4.0


TENDENCIAS INVESTIGATIVAS ASOCIADAS A LA INDUSTRIA 4.0

González Naranjo César Isaac, Instituto Tecnológico de Colima. Pacheco Villanueva Esmeralda, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Mg. Mary Alejandra Mendoza Pérez, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Las pequeñas y medianas empresas enfrentan desafíos en su intento por usar innovaciones tecnológicas. Este artículo argumenta la importancia del diseño de una herramienta para medir  la adaptabilidad de la industria 4.0 en las SME en Latinoamérica, en sus 34 países se vive de diferente manera el desarrollo, por lo que su nivel de adopción es diferente. Las pymes en América Latina constituyen más del 99,5% del total de las empresas,  la gran mayoría son microempresas (88,4% del total), tienen una participación en el producto interno bruto (PIB) regional de tan solo el 25% comparado con el  56% de la Unión Europea y absorben más del 60% del empleo de la región; (Elorza, 2017). La importancia de las mipymes o SME  en América Latina se fundamenta por la cantidad de empresas y su aporte al empleo. Sin embargo, su contribución a la producción es más limitada, dado que el 75% de la misma es generado por las grandes empresas. En promedio la productividad de las microempresas es apenas el 6% de la de las grandes empresas; en el caso de las pequeñas empresas es un 23% y para las medianas un 46%. Si bien esos valores esconden diferencias entre los países de la región, esas brechas son mucho más altas de las registradas en la Unión Europea.  [ 4 ], la aplicación de una herramienta para medir el nivel de adaptabilidad en las tecnologías de la información en la industria y la matriz energética de los países crea oportunidades de diversificación productiva en las Pequeñas y medianas empresas de Latinoamérica. Hacer énfasis en el conocimiento y desarrollo de esta industria 4.0, mejorar el desarrollo de la tecnología e innovación como elemento determinante de cambio estructural en los planes de desarrollo nacional, así como disminuye la brecha tecnológica que se vive entre las distintas regiones, que sin duda es de ayuda para toda Latinoamérica aun cuando la aplicación de cada país depende de la capacidad para absorber conocimiento para su desarrollo, es el trabajo que se mostrará en este artículo.



METODOLOGÍA

La estructura metodológica de la investigación está integrada por tres fases importantes: Estudio sistemático para la revisión de la literatura, así como profundizar el tema, estudio de hipótesis dentro de este estudiar las variables para establecer hipótesis de evaluación y prueba piloto se desarrolla la herramienta para obtener resultados sobre nuestras hipótesis. 1.Estudio sistemático En Latinoamérica tradicionalmente se han manejado los términos de monitoreo, vigilancia o mapeo tecnológico para referirse a las herramientas de gestión de información enfocadas a la tecnología, sin hacer un clara diferenciación entre los alcances que tienen cada una de ellas.La importancia del entorno tecnológico en los contextos productivos y empresariales, así como la necesidad de un enfoque sistemático para la observación y evaluación de tecnologías han sido, sin duda, aspectos reconocidos en los modelos de gestión moderna (Aguilar, 1967; Ansoff, 1975).[1] En este caso, el sistema sistemáticos se orientó en la metodología planteada para la recopilación de información, basada en la obtención de artículos relacionados utilizando la siguiente bitácora de búsqueda en las bases de datos de SCOPUS y ScienceDirect, en la tabla 3 se muestran los resultados de la búsqueda.  La estructura de metodológica desarrollada para la consolidación de la vigilancia tecnológica aplicada a las ecuaciones, observar, analizar y utilizar la información según Palop,Martinez y Bedoa (2012), el análisis de artículos de revisión sobre la identificación del concepto de una herramienta de evaluación de la industria 4.0 en las pequeñas y medianas empresas (SME) de latinoamérica. 2.Estudio de hipótesis Se plantearon 8 hipótesis para la prueba piloto, con el objetivo de medir el nivel de adopción de las tecnologías de la industria 4.0 en las Pequeñas y Medianas empresas de latinoamérica, con esto determinar qué variables de análisis son las que tiene mayor peso en el nivel de adopción. 3.Prueba piloto  Para el desarrollo definición de la industria 4.0 es la integración técnica de sistemas ciber-físicos en la manufactura y la logística y el uso del Internet de las cosas y de los Servicios en los procesos industriales Kagermann, Wahlster & Helbig (2013) [ 20 ], existen 3 usos de la industria 4.0, el uso de las tecnologías, para monitorear continuamente procesos desde logística interna y externa, producción y procesos autónomos dependiendo de los cambios en el ambiente.


CONCLUSIONES

La información encontrada en esta investigación nos llevó a concluir que el tema abordado fue de aportación importante para las SME de latinoamérica para que tengan conocimiento y actualización de estas tecnologías que abarca la industria 4.0. Se encuentra dentro de la prueba piloto, la ausencia de información sobre esta revolución industrial, se reconoce la cultura de los empresarios y sus colaboradores  al resistirse al uso de las tecnologías por miedo a ser reemplazados. La obtención de la herramienta da incapie en el cambio o mejora de la información que las SME pueden obtener para  ser accesibles a adoptar las tecnologías y metodología que brinda la industria 4.0.
González Ramírez Kevin de Jesús, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Fabiola Virginia Cruz García, Instituto Tecnológico Superior de Los Ríos

PLANEACIóN, ANáLISIS Y DISEñO DE UNA PEDAGóGICA DE EDUCACIóN A DISTANCIA MEDIANTE TECNOLOGíAS APLICADAS EN LA MODALIDAD SEMI ESCOLARIZADO DE LA ISC DEL ITSR.


PLANEACIóN, ANáLISIS Y DISEñO DE UNA PEDAGóGICA DE EDUCACIóN A DISTANCIA MEDIANTE TECNOLOGíAS APLICADAS EN LA MODALIDAD SEMI ESCOLARIZADO DE LA ISC DEL ITSR.

González Ramírez Kevin de Jesús, Instituto Tecnológico Superior de Los Ríos. Jiménez Toscano Eréndira del Carmen, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Fabiola Virginia Cruz García, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

El área en el que se trabajó esta investigación fue en el Instituto Tecnológico Superior de los Ríos, el tema en cuestión se tratara en específico en la academia de Ingeniería en Sistemas Computacionales, tomando como muestra los valores estadísticos que se encuentran en la jefatura de Estadística y Evaluación, en el Departamento de Planeación y Vinculación de dicha institución, enfocado en el área de la carrera de Ingeniería en Sistemas Computacionales.



METODOLOGÍA

La investigación realizada es de enfoque cualitativo, debido a que es necesaria la recolección de datos en una población específica para poder conocer de qué manera se puede mejorar el proceso enseñanza - aprendizaje en el Instituto Tecnológico Superior de los Ríos ubicado en Balancán, Tabasco, México que ofrece en modalidad sabatina distintas carreras entre las que se pretende estudiar específicamente a Ingeniería en Sistemas Computacionales.


CONCLUSIONES

Actualmente hoy en día nos tenemos que adaptar a un nuevo estilo de vida y debemos llevar la modalidad a distancia y para esto ya existen varios softwares de educación, esto también ayuda a que el estudiante sea autodidacta, aparte se usan pedagogías innovadoras para la educación también se desarrollan nuevas competencias, además que hace más responsables a los alumnos para buscar solución a sus problemas, cada día se van innovando más y más herramientas para facilitar al alumno la educación como lo son video conferencias, bibliotecas digitales entre otros, también existen plataformas para ayudar al docente a calificar y que puedan revisar los trabajos de los alumnos. La tecnología es algo que avanza a grandes pasos, lo que hoy puede ser tendencia en nuestro país, mañana ya es obsoleto en el resto del mundo, por ello es necesario implementar de manera inteligente, eficaz y continua un modelo que se adapte al proceso de enseñanza - aprendizaje y que sea flexible para complementar las cátedras de los docentes y el aprendizaje del alumno. De igual manera, los egresados son parte importante de la institución, ya que llevan en alto el nombre de ésta, por lo que, es aceptable que su alma mater se preocupe por su desarrollo como profesional y que siga habiendo oportunidades de mantenerse a la vanguardia para la mejora continua de su profesión.
González Rodríguez Angel, Universidad Autónoma del Estado de México
Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla

DISEñO Y DESARROLLO DE UNA ARQUITECTURA DE PROCESAMIENTO PARA EL CENSADO Y TRATAMIENTO DE VARIABLES METEOROLóGICAS EN SISTEMAS MULTIPROCESAMIENTO EN BAJO NIVEL CON FPGAS EN TIEMPO REAL.


DISEñO Y DESARROLLO DE UNA ARQUITECTURA DE PROCESAMIENTO PARA EL CENSADO Y TRATAMIENTO DE VARIABLES METEOROLóGICAS EN SISTEMAS MULTIPROCESAMIENTO EN BAJO NIVEL CON FPGAS EN TIEMPO REAL.

González Rodríguez Angel, Universidad Autónoma del Estado de México. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Estudios recientes llevados a cabo por la NASA han revelado que la temperatura media global ya ha aumentado casi un grado desde el inicio de la revolución industrial en 1750. El planeta se encuentra dentro del rango permisible para evitar un cambio climático peligroso, es por lo que es urgente tomar acción efecto que permitan reducir emisiones y preparen, a la sociedad en general.  El diseño e interacción con el usuario que ofrece el sitio web del Servicio Meteorológico Nacional es vasto de información, es confiable y seguro, pero, es poco interactivo, no es amigable y predictivo. Aunado a esta problemática, la información que brinda el sistema esta retrasada, no se presentan variaciones de parámetros en tiempo real, a causa de hacer uso de información tanto nacional como local. La información de cada variable meteorológica tiene una actualización constante cada 15 minutos, dentro de cada estación meteorológica, sin embargo, él envió de información ocurre casi 2 horas después de la notificación. El tiempo es crucial dentro de las decisiones y pronósticos meteorológicos, un segundo hace la diferencia, por esta razón, lo que se busca dentro de este proyecto es la comunicación y visualización en tiempo real, de cualquier variación sobre las variables meteorológicas antes mencionadas. 



METODOLOGÍA

Para llevar a cabo el desarrollo de la arquitectura se opto por utilizar el software de Quartus II que brinda Altera, debido a su sencillez, eficacia y compatibilidad con las tarjetas con las que se cuenta, del mismo fabricante.  Al comenzar a describir el código en VHDL se consideraron las 3 posibles entradas de los paquetes de información, como lo son la posición, la temperatura y el tiempo, con la idea principal de obtener la ecuación de la recta que se ajuste a un conjunto de datos dispersos, considerando 3 posibles resultados, temperatura con base en la posición, temperatura con base en el tiempo, y la posición con base en el tiempo. Se presentan 3 relaciones o procesos a obtener con base en la ecuación de la recta definida por (y= mx + b). Se opto por utilizar la técnica de mínimos cuadrados, dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados, como lo es la variable independiente (x), y la variable dependiente (y), además de una familia de funciones, se intenta encontrar la función continua, dentro de dicha familia, que mejor se aproxime a los datos, con un mejor ajuste. Para llevar a cabo la técnica se modificó la ecuación de la recta con base en los parámetros y especificaciones que rige la técnica de mínimos cuadrados, considerando las variables a y b como el par ordenado de los datos, y n como el número de muestras requerido, generando así, la ecuación de la recta con las aproximaciones que se basan en la técnica de mínimos cuadrados.  A referencia de lo mencionado con anterioridad, se realizo la mayor parte del código VHDL, realizando las operaciones básicas de suma, resta, multiplicación y división sobre los vectores generalmente definidos por std_logic_vector (x downto 0) en la arquitectura del lenguaje VHDL. En la descripción de la arquitectura, se presentan 3 procesos principales, cada uno de estos presenta la aproximación de pares ordenados para cada una de las 3 relaciones o líneas rectas necesarias. En cada proceso se utiliza la forma general para obtener la aproximación, se presentan algunas limitantes que son consideradas y resueltas en cada proceso. Como se observa, se requiere de sumas, restas, multiplicaciones y divisiones, así como de variables acumulativas que aumentan su valor en cada ciclo de reloj, hasta llegar al numero máximo de muestras requerido e inicializar su valor en cero nuevamente, para llevar a cabo esta tarea se realizó el diseño de un sistema acumulativo.  El código consiste en considerar 2 señales de entrada, de 8 bits cada una, realizar la multiplicacion de las señales considerando como respuesta un vector con el doble de bits, en este caso 16 bits, este resultado entra a un proceso de incremento acumulativo, es decir a este valor se suma el valor anterior (0) y se toma dicho resultado, para la siguiente interacción, posteriormente, se vuelve a realizar la multiplicacion y en este caso ya se presenta un resultado diferente de cero, el cual es sumado a la variable acumulativa. El proceso se realiza hasta que el número de muestras totales se alcanza, en ese momento se reinicializan los valores en 0, y comienza nuevamente la cuenta y el proceso. Dentro del registro acumulativo se considera una entrada de reloj y un clear, el cual permite sincronizar los procesos, cuando se cambia de bajo a alto en el reloj se realiza el proceso para cada uno de los valores de entrada, pero mientras el clear se mantenga en alto, todos los valores se vuelven cero y no se registra la cuenta. Como se presenta en el código se debe de cumplir un cambio a alto en el reloj y un cambio a bajo del clear para procesar la información. La señal clear permite organizar los paquetes de datos, otorgando así el número de muestras y el tiempo de muestreo.  


CONCLUSIONES

Se presenta una alternativa con una arquitectura flexible, al poderse modificar conforme a las necesidades del usuario en el caso de múltiples sensores, número de muestras y tiempos de muestreo, considerando siempre las limitaciones del sistema y de la tarjeta de desarrollo físico.  Durante el desarrollo se presentaron limitaciones en el correcto funcionamiento del sistema, para corregirlo, se consideraron paquetes de información de tipo entero, omitiendo la parte fraccionaria de la información, así como el signo de cada uno de los datos, esto debido a la complejidad que se genera. La carencia de los recursos físicos necesarios durante el desarrollo de cada etapa del proyecto tuvo vital importancia en los resultados, como solucion, se opto por considerar el diseño en el  nivel de simulación con ayuda de la herramienta University Program VWF que el software Quartus II de Altera, presenta como documento.
González Sánchez Andrea, Universidad Tecnológica de Nayarit
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

MACHINE LEARNING & CIENCIA DE DATOS PARA EL ESTUDIO DE COVID-19 EN MéXICO


MACHINE LEARNING & CIENCIA DE DATOS PARA EL ESTUDIO DE COVID-19 EN MéXICO

González Sánchez Andrea, Universidad Tecnológica de Nayarit. Ugalde Sánchez Jaime Zuriel, Instituto Politécnico Nacional. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Desde el punto de vista sanitario, existe la necesidad de desarrollar un algoritmo para la prevención o detección de la gravedad de los pacientes que padecen COVID-19 y de esta forma predecir si el paciente se encuentra en riesgo con base en los modelos de Machine Learning que se implementarán durante el proyecto a la base de datos proporcionada por la Dirección General de Epidemiología.



METODOLOGÍA

Para llevar a cabo el preprocesamiento de información se estableció la siguiente metodología.  Se normalizaron las fechas de inicio de síntomas, fecha de ingreso en el hospital y fecha de defunción, tomando como referencia al primer paciente registrado en México; así mismo, en caso que el paciente no haya fallecido, el criterio FECHA DEF posee un atributo estilo 9999/99/99 por lo que se cambi´o la fecha al 01/01/2021.  Se normalizaron los atributos de cada criterio, i.e. si al principio el atributo del sexo femenino era 2 se cambió a 0, esto para tener un control binario de este rubro.   Se descartaron los pacientes que hayan dado negativo al COVID-19 y aquellos a los que a´un no se les hubiese dado resultado.   Se eliminaron las columnas con los siguientes criterios : FECHA SINTOMAS, FECHA DEF, RESULTADO.  Se optó por utilizar el 80 % de la Base de Datos para entrenar el modelo de Machine Learning y por consiguiente el 20 % para validar dicho modelo.  Se imputaron los valores faltantes (no registraron) con la estrategia (most frequent).  Se definió el modelo a utilizar y se escogió el método (RandomForestClassifier ). Se establecieron 50 ´arboles de decisiones con un Random State = 0. Se entrenó el modelo. Se ajustaron los datos (data fitting)  Se predijeron los valores nuevos haciendo uso de una Base de Datos actualizada.  Se calculó y validó el modelo con un porcentaje de exactitud del 94,77 %.  Materiales Los materias que utilizamos fueron: Una PC Google Colab Kaggle Jupiter Notebook Anaconda Spyder Base de Datos de la Direcci´on General de Epidemiología


CONCLUSIONES

Este trabajo de investigación nos permitió desarrollar habilidades en el campo de la Inteligencia Artificial a partir del lenguaje de programación Python. Por el cual se diseñó un modelo de clasificación para predecir los decesos relacionados con el nuevo virus SARS-CoV-2, generando una eficacia del 94.77 % y percibiendo una correlaci´on del 33 % al 41 % entre los decesos y los atributos: neumon´ıa, edad, intubado, hipertensión y diabetes.  Se dio un énfasis en la manipulación de bases de datos, preprocesamiento de información, técnicas de imputación y diseño de modelos de machine learning para aumentar la eficiencia del modelo.  Un proyecto a futuro constaría en comparar bases de datos de diferentes instituciones para corroborar el modelo diseñado, además de analizar la duración de la enfermedad en los pacientes con respecto a los atributos de la base de datos.
González Torres Javier, Instituto Politécnico Nacional
Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla

LOT E IA CONTRA EL CALENTAMIENTO GLOBAL. DESARROLLO DEL CANSAT


LOT E IA CONTRA EL CALENTAMIENTO GLOBAL. DESARROLLO DEL CANSAT

González Torres Javier, Instituto Politécnico Nacional. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

IoT e IA Contra el Calentamiento Global: Desarrollo de un Cansat González Torres Javier Dr. Rubín Linares Gustavo Trinidad, Benemérita Universidad Autónoma de Puebla (BUAP) Instituto Politécnico Nacional (IPN) Javiergt3710@gmail.com Hoy en día en nuestro planeta se encuentra en un estado en el que el calentamiento global no permite el mantener las condiciones necesarias para albergar la vida, esto es debido a la intervención de las actividades humanas sean directa o indirectas, llevando en aumento la concentración de Gases de Efecto Invernadero. La NASA ha revelado que la temperatura media global ha aumentado casi un grado desde que inicio la Revolución Industrial (1750). El planeta se encuentra en un estado de poder evadir un cambio climático peligroso, Al no poder contrarrestar las alteraciones en el clima tomando en cuenta que cada vez se presentan con mayor frecuencia y concentración de GEI, podemos obtener mayor riesgo en la salud, afectación de los ecosistemas, Impacto negativo en la agricultura y de la ganadería, por lo tanto a dicha situación es necesario tomar acción al reducir las emisiones y preparar a las comunidades y ecosistemas de una forma conveniente para un mundo más caluroso. A motivo con lo que se encuentra en nuestro planeta en tanto con situaciones meteorológicas es adecuado el implementar un proyecto en el cual sea de gran ayuda al recolectar datos necesarios acerca de los cambios climáticos con los que enfrentamos.



METODOLOGÍA

El sensor LM35D es uno de los componentes mas utilizados para medir los cambios térmicos, comúnmente encuentra con el encapsulado TO-92, el componente actúa como un sensor de temperatura (midiendo entre 0 a 100ºC) calibrado en grados centígrados, siendo que por cada grado entrega un voltaje de salida de 10mV. Dentro del programa de Temperatura Para poder obtener el valor en grados Centígrados se utilizará la parte analogía (A0) se puede leer el valor presente en dicha entrada siendo asignada a la variable sensor, para obtener el valor en mV se ocupará una regla de 3 1023 - 5000mV SENSOR - X => X=SENSOR * 5000mV /1023 TEMPERATURA = X/10            siendo que 10mV=1ºC Una vez teniendo los datos del programa y funcione el componente LM35 se mostraría la temperatura para lo cual se usó un lcd (16*2) declarando los pines de conexión del componente así mostrando la temperatura que se iba obteniendo.       El componente NTC es un sensor o bien denominado Termistor que sirve para detectar temperatura a través de cambios de resistencia según el calor o frio que este detecta. Para obtener el valor de temperatura en el termistor ocuparemos la entrada analógica de Arduino y un modelo matemático diferente al del componente LM35, el modelo matemático a ocupar es la Ecuación de Steinhart-hart 1/T= A + B ln( R )+ C[ln (R )]¨3 DONDE : T: TEMPERARTURA (en grados kelvin) en programación convertiremos ese valor a grados centígrados R: Valor de la resistencia A, B, C: Coeficientes de Steinhart-Hart (los coeficientes pueden ser obtenidos desde la hoja del fabricante o bien desde una pagina web que nos ayudara a encontrar los coeficientes)                                                       En el programa se declararon las variables del tipo flotante al igual la resistencia sin embargo en el caso del resistor1 podemos notar que se encuentra en 100Kohm por lo que se tuvo que representar en el programa como 100000 ohms, mientras que en R2 es la resistencia del termistor, de igual forma se declaran las constantes ya sean adquiridas de las hojas de datos del componente o bien de la pagina (http://www.thinksrs.com/downloads/programs/Therm%20Calc/NTCCalculator.htm)           En las primeras 5 líneas de void loop(), declaramos el uso de la entrada analógica de Arduino,  convertimos el valor de tensión a un valor de resistencia así obteniendo el logaritmo de R2, así pudiendo aplicar la ecuación de Steinhart-Hart, Una vez obtenido el valor de TEMPERATURA  en grados Kelvin este se pasara a grados Celsius mostrando lo siguiente TEMPERATURA = TEMPERATURA - 273.15; , poco después podremos enviar el valor de la variable de temperatura a la LCD que implementamos para observar los valores que se den en el proceso de prueba.     Módulo de presión con MPX4115   El sensor MPX4115 esta diseñado para detectar la presión del aire absoluta (BAP) aplicaciones del altímetro o barómetro ,proporciona una señal analógica de alto nivel ,     Módulo de comunicación RF 433Mhz   Los módulos EF 433Mhz funciona como un enlace de datos simplex, esto quiere decir que transfiere información en un solo sentido , estos módulos resultan útiles para una comunicación idireccional, estos módulos son usado en aplicaciones inalámbricas de enlace de datos  de uno a uno o de varios nodos. Para esta parte del desarrollo de comunicación del CanSat se realizan dos programas uno como EMISOR y otro como RECEPTOR, donde el emisor obtenia los datos de los sensores para procesarlos y así compartirlos al modulo terrestre , el programa RECEPTOR recibiría los datos así mandándolos a la pantalla de la computadora o bien a una lcd mostrando los datos en tiempo actual               2. DESCRIPCION DEL SISTEMA Una vez finalizados cada uno de los módulos , se implementaron así uniéndolos los tres y haciendo sus respectivas pruebas para obtener un comportamiento eficaz en el trabajo, para proceso de datos y transferencia del mismo .  


CONCLUSIONES

  Durante el tiempo que dediqué al proyecto pude adquirir conocimientos teóricos prácticos acerca del desarrollo de MINI-laboratorios móviles como el CanSat, para implementar los módulos de medición de temperatura, presión y transferencia de datos, diseñándolos con el simulador Proteus para verificar su funcionalidad, siendo una forma de adquirir los datos de manera eficaz. Sin embargo, tomando en cuenta que no fue posible comprobar las señales de salida de forma física y experimental, con los estudios que se realizaron el proyecto está listo para integrarse a los demás elementos que conformarán posteriormente el proyecto global.
Grajales Sanchez Neffer Yinari, Universidad La Gran Colombia
Asesor: Dr. Jesus Gerardo Cruz Alvarez, Universidad Autónoma de Nuevo León

EL IMPACTO DE LEAN MAUFACTURING Y LA INDUSTRIA 4.0 EN LA PRODUCTIVIDAD EN LA CADENA AUTOMOTRIZ


EL IMPACTO DE LEAN MAUFACTURING Y LA INDUSTRIA 4.0 EN LA PRODUCTIVIDAD EN LA CADENA AUTOMOTRIZ

Diaz Cruz Jhoana Michelle, Universidad Mexiquense del Bicentenario. Grajales Sanchez Neffer Yinari, Universidad La Gran Colombia. Asesor: Dr. Jesus Gerardo Cruz Alvarez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de este artículo tiene como objetivo determinar las herramientas lean manufacturing que en conjunto con las tecnologías industria 4.0 automatizan la producción y maximizan la productividad laboral. Por eso pretendemos averiguar ¿cuáles son las herramientas de lean manufacturing tecnologías de industria 4.0 que maximizan la productividad laboral? Estamos en la transición de una industria física (Revolución 3.0) a una digital (Revolución 4.0), en la cual es necesaria la globalización de las herramientas mediante la digitalización de estas, esto conlleva a un cambio en la forma en la que el factor humano realiza sus actividades y en la preparación específica que se necesitara.



METODOLOGÍA

La metodología que se usó para la realización de este artículo de investigación fue mediante la búsqueda de artículos en base de datos como, Mendeley, Scielo, Gale Onefile, Oxford academic, y Scopus. Además de la búsqueda en revistas de artículos científicos como, Interntional Jounal of Production Research, Total Quality Managemet & Business Excellence, Iternational Journal of Advance Manufacturing Technology, Forbes, Efficient manufacturing, Power and Energy Magazine, GRD Journals-Global Research and DeveloMent, Economics & Management Innovations, Elservier BV, Esmerald Insigh. Los parámetros de búsqueda fueron los siguientes: -Artículos científicos entre los años 2015 y 2020 -Búsqueda en español e ingles -Palabras claves utilizadas para la búsqueda: Industria 4.0, Revolución 4.0, Manufactura Esbelta, Industria Automotriz, Industry 4.0 Lean Manufacturing, Revolution 4.0 y Automotive Industry Para mejor cumplimiento con el objetivo se entrevistó a 4 profesionales relacionados con el tema, la entrevista se realizó en dos partes, la primera fue desarrollada mediante una matriz que el entrevistado debía diligenciar y la segunda mediante preguntas abiertas.


CONCLUSIONES

Las herramientas de Lean Manufacturing e Industria 4.0 han demostrado ser estrategias muy importantes para las empresas a nivel mundial debido a su impacto positivo en la industria. Por un lado, Lean Manufacturing obtiene mejores resultados con menos recursos y la industria 4.0 mediante el uso de altas tecnologías contribuye a la mejora de procesos de una empresa adaptándola a procesos de manufactura avanzada. Sin embargo, al ser entrelazadas aumentan su nivel de impacto positivo: facilitan el trabajo, automatizan los procesos repetitivos y limitan los errores en las empresas manufactureras. Algunos empresarios son excéntricos respecto a la implementación de la Industria 4.0, y una de las razones puede ser por los costos, dado que la mano de obra de México es muy económica a comparación con otros países y no hay la suficiente colaboración entre el Gobierno, la educación y las organizaciones privadas. También se piensa que si se implementarán las tecnologías de la industria 4.0 en conjunto con la filosofía lean manufacturing se obtendrían resultados diferentes y más favorables a una escala sin precedentes, puesto que, las tecnologías de la industria 4.0 son eso, tecnologías, pero realmente las filosofías de lean manufacturing vienen a darle una dirección orientada a mejorar la productividad como no se había visto en revoluciones pasadas.
Guadarrama Sanchez Francisco, Universidad Mexiquense del Bicentenario
Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo

REALIDAD AUMENTADA PARA EL APRENDIZAJE SIGNIFICATIVO EN ALUMNOS CON DISLEXIA EN EL COLEGIO MI DIVINO NIñO JESúS GUADALUPANO


REALIDAD AUMENTADA PARA EL APRENDIZAJE SIGNIFICATIVO EN ALUMNOS CON DISLEXIA EN EL COLEGIO MI DIVINO NIñO JESúS GUADALUPANO

Guadarrama Sanchez Francisco, Universidad Mexiquense del Bicentenario. Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

¿Cómo influye la realidad aumentada en el aprendizaje significativo en alumnos con dislexia en el colegio Mi Divino Niño Jesús Guadalupano?



METODOLOGÍA

Para la presente investigación se utilizó un método Hipotético Deductivo Consiste en tomar unas aseveraciones en calidad de hipótesis y en comprobar tales hipótesis deduciendo de ellas, junto con conocimientos de que ya disponemos, conclusiones que confrontamos con los hechos. (Filosofia, 1965) La investigación aplicada busca la generación de conocimiento con aplicación directa a los problemas de la sociedad o el sector productivo (Dialnet, 2020) La investigación aplicada permitió tomar una relación entre la realidad aumentada y el aprendizaje significativo en los alumnos del Colegio Mi Divino Niño Jesús Guadalupano, tomando como variable el aprendizaje significativo estudiándolo detalladamente para poder determinar la razón de porque existen problemas de aprendizaje en los estudiantes. La investigación cuantitativa es aquella en la que se recogen y analizan datos cuantitativos sobre variables y estudia las propiedades y fenómenos cuantitativos llegando a las conclusiones de acuerdo a los datos (UJA, 2020). Y por último se utiliza el Diseño Cuasi, este diseño nos ayuda a reflejar de manera mas clara los resultados obtenidos el diseño consiste en tener dos grupos a los cuales se les aplicaran los test, el primer grupo es el grupo de control y el segundo grupo es el grupo experimental a ambos grupos se les aplica un pre-test y un post-test con la diferencia que al grupo experimental antes de realizar el post-test se le aplica el aprendizaje con la realidad aumentada.


CONCLUSIONES

En el estudio utilizado para recabar los datos se utilizó la realidad aumentada para analizar de forma la velocidad lectora, la compresión lectora, y el rendimiento del lector. Para la obtención de los datos se realizaron dos pruebas una a la que se le denomino Pre-Test la cual evaluó a los alumnos justo antes de utilizar la realidad aumentada y la segunda prueba la cual se llamó Post-Test los resultados estadísticos descriptivos se describen a continuación. Velocidad Lectura Durante el Pre-test se obtuvo una media de 79 palabras por minuto, mientras que durante el post-test tenemos una mejora que es de 116 palabras por minuto a pesar de que los mínimos y máximos durante ambos tests son los mismos.  Compresión Lectora Durante el pre-test el mínimo obtenido es de 50 y con un máximo de 100 mientras que durante el post- test se puede observar un mínimo de 50 y un máximo de 100 logrando una media de 75 la cual supera a la media obtenida durante el pre-test que fue de solo 56.25.  Rendimiento Lector En el caso del rendimiento lector en el aprendizaje significativo, durante el pre-test se tuvo un valor de 43% como media en contraste con el post-test el cual duplico el valor el cual fue de 87% dando buenos resultados además de que el máximo rendimiento durante el pre-test fue de 69 gracias a la realidad aumentada este dato subió hasta 137 lo cual quiere decir que la realidad aumentada es efectiva. Gracias a los resultados obtenidos durante la investigación en el Colegio Mi divino Niño se pudo notar un aumento considerable en cada una de las tres áreas analizadas. Se tuvo como resultado que la realidad aumentada mejoro el rendimiento lector en el aprendizaje significativo de los alumnos con dislexia de un 43.55% a un 87.45%, lo que equivale a un aumento de 43.90%.
Guerrero López Julio Leonardo, Instituto Tecnológico Superior de Uruapan
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

DETERMINACIÓN DEL CAMBIO CLIMÁTICO PARA EL MUNICIPIO DE MORELIA, MICHOACÁN


DETERMINACIÓN DEL CAMBIO CLIMÁTICO PARA EL MUNICIPIO DE MORELIA, MICHOACÁN

Guerrero López Julio Leonardo, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es una alteración de los parámetros climatológicos dada por cambios en la energía del Sol y en la posición de la Tierra; sin embargo, el uso de combustibles fósiles y la deforestación debido a la actividad humana han acelerado este proceso. Los efectos de este fenómeno ya son visibles, lo cual presentará riesgos importantes para el ser humano y los luegares donde habita, especialmente las zonas altamente pobladas. Por ello es importante analizar el impacto que tendrá el cambio climático en estas zonas. En este proyecto la zona de estudio es el Municipio de Morelia, Michoacán; la importancia de la zona radica en que es un importante centro económico, turístico, social, educativo y cultural al ser la capital del Estado, así como ser el municipio más poblado del mismo. 



METODOLOGÍA

Se analizarán los datos de precipitación y temperatura promedio tanto a nivel histórico como en proyecciones futuras. Se extraen los datos históricos de la plataforma de la Base de Datos Climatológica Nacional (CLICOM) y estos se analizan con ayuda del software GESTAD y Excel, seleccionandose aquellas estaciones climatológicas que cumplan con los criterios de aceptación. Los datos futuros se extraerán en forma de rasters de la página del Instituto Nacional de Ecología y Cambio Climático (INECC) tomando en cuenta dos RCP (4.5 y 8.5) y tres periodos de tiempo (2015-2039, 2045-2069, 2075-2099), para su estudio se usará el software ArcGIS. Tras la obtención de los datos históricos y futuros en un formato mensual, estos se suman con el objetivo de obtener un índice de cambio climático. Con este índice, se obtendrán los cambios porcentuales individuales de cada estación. Por último, estos cambios porcentuales se representan en mapas con el uso de ArcGIS.


CONCLUSIONES

Como resultados de la metodología anterior se pueden apreciar cambios importantes entre las proyecciones futuras y los datos históricos. En el caso de la precipitación, se puede apreciar un aumento de las mismas en el corto plazo a futuro; sin embargo, este comportamiento cambia en las proyecciones a mediano y largo plazo, comprobando que la temporada de lluvias sufrirá modificaciones con el transcurso del tiempo. En el caso de la temperatura promedio, se puede pareciar que muestra un aumento conforme transcurre el tiempo en las proyecciones a futuro. Con esto se concluye que el cambio climático tendrá efectos en el corto, mediano y largo plazo respectoa las precipitaciones y temperatura del municipio de Morelia.
Guillén Pérez María Fernanda, Instituto Politécnico Nacional
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEÑO DE UNA CASA ECOLÓGICA AUTOSUSTENTABLE (PANELES SOLARES, PISO RADIANTE COMO ALTERNATIVA DE CALEFACCIóN Y SISTEMA DE TELEMETRíA PARA INVERNADERO )


DISEÑO DE UNA CASA ECOLÓGICA AUTOSUSTENTABLE (PANELES SOLARES, PISO RADIANTE COMO ALTERNATIVA DE CALEFACCIóN Y SISTEMA DE TELEMETRíA PARA INVERNADERO )

Guillén Pérez María Fernanda, Instituto Politécnico Nacional. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

Hoy en día México obtiene la mayor parte de su energía mediante la quema de combustibles fósiles, con esto la emisión de gases efecto invernadero (GEI) aumenta al igual que el calentamiento global. Si el problema continúa de esta forma a largo plazo la calidad del aire y agua decrecerán, habrá un aumento en inundaciones, y días de calor, así como de enfermedades gastrointestinales y respiratorias. El uso de energías como la eléctrica, son necesarias para las actividades diarias, no se puede prescindir de ellas fácilmente. Una alternativa para disminuir la producción de GEI es la implementación de energía limpia como suplemento para producir energía eléctrica y abastecer las necesidades del hogar. Por ello durante el verano de investigación se ha analizado el funcionamiento y aplicación de la energía solar con el uso de paneles solares, como propuesta para abastecer de una manera limpia y eficaz,  y así reducir la huella de carbono cubriendo las necesidades de energía demandada en una casa.



METODOLOGÍA

La metodología empleada se realizó bajo una investigación documental acerca del uso de energía solar para abastecer la demanda de electricidad en una casa, considerando las características entre varias empresas de paneles solares, sus fichas técnicas y el cálculo de levantamiento de cargas eléctricas. Para el rubro de la calefacción se tomó como base una investigación realizada en 2007 sobre un piso radiante como alternativa de calefacción. Así mismo se tomó como referencia la investigación sistema de telemetría para invernadero agrícola para implementarlo en el diseño de un sistema para el hogar.   PANELES SOLARES La energía solar está formada por radiaciones electromagnéticas conformadas por fotones, estos contienen distintas cantidades de energía que al incidir sobre las celdas generan una corriente eléctrica debido a los materiales semiconductores con los que están fabricadas. El panel produce una mayor cantidad de electricidad en las horas solares pico. Dentro de la industria existen empresas con propuestas acerca de la implementación de energía renovable; una de ellas es Sunpower, su diseño de células solares MAXEON 3 375W cuenta con células que utilizan conductividad de contacto trasero, así como metal para una mayor resistencia a  la corrosión de los elementos que  les permite doblarse en condiciones difíciles, y la incorporación de un sistema de alivio de tensión y conectores gruesos y triplemente redundantes, con una conexión que permite el paso de energía incluso con sombra. Cuentan con una garantía de duración de 25 años, y en 1.6 m2 pueden generar 310w de potencia.   FUNCIONAMIENTO DE UN PISO RADIANTE PARA DISEÑAR UN SISTEMA DE CALEFACCIÓN. El piso radiante es una alternativa favorable para el diseño de una calefacción, ya que genera un calor uniforme que es disipado lentamente hacia arriba y la calidad del aire no se ve afectada por problemas de polvo o humedad. Para una mejor la instalación y especificaciones se analizó un estudio térmico de un piso acumulador con conductos de aire, construido en dependencias del INENCO. El prototipo utiliza colectores solares para el calentamiento del aire realizado durante el periodo invernal 2007. El piso radiante monitoreado tiene un área de 3m x 2.5m y un espesor de 30cm. El aire circula a través de 18 conductos de chapa galvanizada, la conexión de los conductos es del tipo paralelo. Dos canales colectores rectangulares con tapas de hormigón, de 18cm x 24cm cada uno, distribuyen el aire entre los conductos. El piso está aislado térmicamente por debajo para evitar las pérdidas de calor hacia el suelo. Su prototipo se completó con paredes de ladrillo cerámico hueco y techo de chapa con aislación térmica. (Avances en Energías Renovables y Medio Ambiente; vol. 11, 2007, p. 2) Dentro del diseño se debe tomar en cuenta factores como el espesor del contrapiso, una vez considerado esto los resultados muestran la viabilidad del piso radiante como método de calefacción.   SISTEMA DE TELEMETRÍA PARA UNA RED DE CELDAS FOTOVOLTAICAS INSTALADAS EN INVERNADERO AGRÍCOLA Se ha desarrollado una tarjeta de adquisición de datos con componentes electrónicos comerciales, que permiten el monitoreo automático de la energía eléctrica generada por la celda y la energía consumida al interior del invernadero. (Daniel Robles, Julio Ramos, Alejandro Téllez, 2017, p. 2)  El modelo IoT se basa en la identificación y el uso de un gran número de objetos físicos y virtuales, que están conectados a Internet y permite la comunicación entre ellos. (Suciu, 2014). Este es un proyecto que aprovecha la tecnología para poder tener el control de un invernadero a nivel agrícola, esto por medio de un sistema que se conforma de: el invernadero agrícola, un inversor de CD a CA, un banco de baterías, celdas fotovoltaicas, un sistema embebido para la adquisición de datos, un servidor (Raspberry), un servidor espejo, http, internet y de esta manera llega hasta el usuario. Con las bases y componentes descritos en el artículo del sistema de telemetría se puede llevar a cabo la elaboración de un sistema para tener un seguimiento respecto a las necesidades de las plantas o vegetales dentro del hogar, permitiendo al habitante cuidar de un invernadero para  su autoconsumo.


CONCLUSIONES

Durante la estancia de verano se logró conjuntar el uso de paneles solares para su aplicación en la instalación eléctrica con 156. 077 m2 así como los necesarios para alimentar el piso radiante y el invernadero, logrando así abastecer todas las necesidades de la casa con energía limpia. Considero que la aplicación de esta investigación hará un cambio considerable en el planeta, ya que se ha logrado producir energía aprovechando de lo que el medio ambiente nos otorga.  
Gurrola Barboza Erick Eduardo, Universidad Autónoma de Ciudad Juárez
Asesor: Mg. Carmen Elisa Gomez Tobon, Universidad Cooperativa de Colombia

LA INDUSTRIA 4.0 Y SU INCIDENCIA EN LAS CADENAS DE SUMINISTROS DE LA EMPRESA BIMBO EN MEXICO Y COLOMBIA


LA INDUSTRIA 4.0 Y SU INCIDENCIA EN LAS CADENAS DE SUMINISTROS DE LA EMPRESA BIMBO EN MEXICO Y COLOMBIA

Gurrola Barboza Erick Eduardo, Universidad Autónoma de Ciudad Juárez. Asesor: Mg. Carmen Elisa Gomez Tobon, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

El grupo Bimbo es líder en el sector de la panificación, generando año tras año un importante volumen de ventas. Sin embargo, su entorno presenta un alto nivel de competitividad donde se encuentran empresas de igual magnitud y pequeños participantes. Este alto grado de competencia ha llevado a Bimbo a dirigir su estrategia tanto al foco del consumidor como a la tecnología, aprovechando tendencias como los diferentes hábitos de consumo en constante cambio, nuevos segmentos de mercado y el aumento del ingreso disponible. De manera que sustenta su ventaja competitiva en dos pilares fundamentales: la mercadotecnia y la cadena de suministros. En esta investigación abordaremos la relevancia que tiene la industria 4.0 en Bimbo tanto en México como en Colombia respecto a las cadenas de suministros.



METODOLOGÍA

La investigación tiene un enfoque cualitativo pues se  recopiló información referente a la cadena de suministros de Bimbo tanto en México como en Colombia en la base de datos de la Universidad autónoma de Ciudad Juárez en Google Académico.


CONCLUSIONES

Grupo Bimbo tanto en México como en Colombia no se conforma, sino que está en constante estado de innovación según las tendencias no solo del mercado, si no de su logística, se considera a una empresa que siempre está a la vanguardia. La cadena de suministros de Bimbo podría considerarse parcialmente como cadena de suministros 4.0, ya que contempla algunos factores de esta principalmente en su etapa de producción, los cuales son a automatización y robotización a la hora de hacer sus productos, aunque esto puede verse relativo ya que cada proceso para cada producto es completamente diferente y no hay información específica de cada producto debido a la confidencialidad interna. Esto se ve relativamente homogenizado tanto en México como Colombia ya que Bimbo trabaja de igual manera a grandes rasgos en todas sus plantas del mundo. Lo que cambia entre una y otra es principalmente los productos que se hacen en cada región por la diferencia de gustos en las diferentes culturas. También se vio una referencia a la industria 4.0 en el big data en las bases de datos que maneja Bimbo para poder tomar las más prudentes decisiones en el manejo de sus inventarios.
Gutierrez Escobar Evelyn Mariví, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez

PLAN DE IMPLEMENTACIóN DE MANTENIMIENTO PREVENTIVO EN UNA EMPRESA DE MAQUINADOS


PLAN DE IMPLEMENTACIóN DE MANTENIMIENTO PREVENTIVO EN UNA EMPRESA DE MAQUINADOS

Gutierrez Escobar Evelyn Mariví, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El mantenimiento preventivo, como su nombre lo dice, son las labores que se realizan antes de que ocurra un desperfecto en la maquinaria, todo esto ocurre bajo condiciones controladas de la empresa. En las pymes es muy común no tener control sobre el mantenimiento, lo que ocasiona gastos elevados, poca disponibilidad de las instalaciones y una marcha de producción irregular con paros repentinos. Todo esto puede hacer quedar mal con el cliente debido a entregas fuera de tiempo, dañar la calidad del producto, entre otros aspectos. Por estudios comprobados se sabe que la falta de mantenimiento afecta en diferentes puntos: Costos de producción Calidad del producto Capacidad operacional Capacidad de respuesta de la empresa Seguridad e higiene Imagen y seguridad ambiental de la compañía En la empresa de maquinados del estudio se ignora por completo el mantenimiento preventivo cayendo así en mantenimiento correctivo, esto ha ocasionado paros de producción, acumulamiento de trabajo y el periodo de vida de algunas maquinas se ha visto afectado.



METODOLOGÍA

Se realizó un diagnostico donde se recopiló información actual de la empresa; el tipo de maquinaria, su ubicación, el tamaño de la empresa, saber si cuenta con un departamento de mantenimiento, así mismo que tipo de mantenimiento manejan. En la realización del diagnóstico vimos que líneas de producción tienen y cuál es la más importante o en su defecto la que más ingresos genera a la empresa. Para saber la ubicación física de la maquinaria de la empresa se elaboró un plano en donde se especifica el nombre de la máquina y su posición física actual. Otro de los pasos para el diagnóstico de la situación actual fue ver si la empresa posee fichas de la maquinaria o no. También se analizó si la empresa al realizar el mantenimiento lleva un historial. Como cada empresa es distinta una a la otra el plan de mantenimiento no puede ser el mismo en cada una, por esta razón se realizó un análisis a la empresa, para saber con que tipo de empresa se estaba trabajando, y diseñar el plan de mantenimiento mas apropiado para la misma. En el análisis de la empresa se tuvo que tener en cuenta diversos aspectos como el nivel de automatización o la antigüedad de su instalación, por lo que se establecieron tres tipos de análisis para la empresa. El primero de ellos analizando la empresa desde el punto de vista del entorno, su política y cultura general. El segundo acerca de los aspectos intrínsecos de la organización de la producción. Y por último un análisis completo de la instalación a mantener y sus posibles averías. Una vez realizado el análisis de la situación actual de la empresa se realizó una investigación sobre las alternativas de mantenimiento, es decir un análisis teórico del mantenimiento teniendo como objetivo saber cuál es la filosofía más idónea para la empresa.   Cuando se concluyó el análisis de la empresa y de la maquinaria comenzó la elaboración del plan de mantenimiento a través de diversas propuestas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos para realizar los análisis necesarios y así obtener el plan de mantenimiento más factible para la empresa con las mejores propuestas. Una vez finalizado el análisis de la empresa, se determinó que el mantenimiento que se lleva a cabo actualmente no es el más indicado, por lo que el mantenimiento más adecuado a realizar en la empresa determinado por el análisis es el mantenimiento preventivo y no el mantenimiento correctivo como se ha hecho hasta ahora. Al ser un extenso trabajo aún no se realiza el análisis de los costos de mantenimiento, se espera que los costos de stock no sean muy elevados y así mismo poder prever otros aspectos.
Gutiérrez Juan Jaime, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León

APLICACIóN DE ANáLISIS DE COMPONENTE PRINCIPAL PARA EL FILTRADO DE SEñALES.


APLICACIóN DE ANáLISIS DE COMPONENTE PRINCIPAL PARA EL FILTRADO DE SEñALES.

Gutiérrez Juan Jaime, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Utilizar el ACP (análisis de componente principal) como un filtro digital, que reduzca el efecto de la componente de la componente exponencial que se presenta en las señales de corriente al ocurrir un cortocircuito. La componente exponencial puede provocar un mal funcionamiento del relevador de protección, por lo que el objetivo es eliminarla.



METODOLOGÍA

Se utilizó el software MATLAB de apoyo para la aplicación de ACP (análisis del componente principal). En el mismo software se produjo una corriente alternar por medio de un circuito RL, el cual nos generó una señal de forma sinusoidal, al mismo tiempo se generó una señal de componente exponencial, la cual nos sirve para contaminar la señal original y obtener una señal contaminada o compuesta (que es la suma de ambas señales). A la señal compuesta se la aplica el ACP, dicho proceso consiste en: Se Forma una matriz D con p renglones y q columnas, en esta matriz, cada columna representa una señal de corriente modificada (sinusoidal + exponencial) para un determinado grupo de parámetros (ángulo, magnitud, etc). Como  se simulo a  0.1 segundos con una frecuencia de muestreo de 1/60/16, eso nos dio que cada señal de corriente tiene 97 valores, la señal se va simular en 10 escenarios diferentes modificando el ángulo. Por tanto, la matriz D es de 97x10. A D se calcula la matriz de covarianza que denominaremos S, nos genera una matriz de  10x10. A S le determinan los vectores característicos (eigenvectors). Se forma  una matriz denominada T de 10x10 usando los vectores característicos de la matriz S. después se multiplica D por T, y  debe de quedar una matriz de 97x10, la cual se debe de  graficar. Antes de calcular la matriz de covarianza, se debe eliminar el valor medio de la señal. Esto se hace por columnas. A la matriz D, a cada columna calculas la media (M) de los 97 valores y se la restas a los valores de esa columna,  se repite para todas las columnas, y entonces ya procedes a calcular la matriz S. Una vez que se graficó y se pudo observar como una de las señales están relativamente libres de componente exponencial, se generó 5 señales de corriente contaminadas con exponencial, pero en esta ocasión las señales deben de ser  mas distorsionadas, por cual se modificó la magnitud de la exponencial y la constante de tiempo. A las señales que se generaron se le aplico el ACP a cada una, y al momento de graficar se pudo observar como una de las señales que se obtienen como resultado de aplicar ACP es una señal prácticamente sinusoidal, sin componente exponencial. Se puede ver como el ACP está funcionando como un filtro. La siguiente prueba fue de tener una única señal sinusoidal y contaminarla con 5 tipos de exponenciales distintas, solo cambiando los parámetros del componente exponencial , dejando la sinusoidal de la misma forma, generando 5 señales contaminadas a las cuales se le aplico el ACP a cada una. Al momento de graficar se pudo observar que las 5 señales obtenida eran muy parecidas entre sí, a cada señal se le saco el calor RMS, al igual que a la señal original, dándonos un valor de relación de 2.3 entre las señales. Ya por último se le aplico el DFT (la transformada discreta de Fourier )para determinar la magnitud del fasor que produce una señal variando en el tiempo. Se aplicó este proceso a la señal original para encontrar la magnitud y fase del fasor correspondiente y a la señal que se obtiene después de aplicar el ACP.


CONCLUSIONES

Durante la estancia del verano virtual se logró adquirir conocimientos teóricos sobre el ACP (análisis del componente principal) y ponerlos en práctica para el filtrado de señales contaminadas, se pudo observas que unas de las señales obtenidas después de aplicar el ACP, era una señal sinusoidal pura libre de exponencial viendo como el ACP esta funcionando como un filtro. Al final  después de aplicar el DFT, se obtuvieron buenos resultados, ya que la magnitud es la misma y existe un corrimiento de fase.
Gutierrez Martinez Sebastian, Universidad de La Salle Bajío
Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo

PERFILADO DE USUARIOS Y FLUJO PEATONAL EN EL EMPORIO TEXTIL DE GAMARRA EN EL DISTRITO DE LA VICTORIA, LIMA – PERú, 2020.


PERFILADO DE USUARIOS Y FLUJO PEATONAL EN EL EMPORIO TEXTIL DE GAMARRA EN EL DISTRITO DE LA VICTORIA, LIMA – PERú, 2020.

Gutierrez Martinez Sebastian, Universidad de La Salle Bajío. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

El emporio textil de Gamarra esta ubicado en el distrito de La Victoria, Lima - Perú, siendo un espacio donde confluyen personas aproximadamente entre 200 mil - 250 mil personas al día en temporadas bajas y en temporadas altas se puede decir que llegan hasta 500 mil personas (INEI, 2019) para comprar mercancía textil y otros como productos de tecnología y alimentos. Dicha congestión y/o aglomeración de personas al igual que sus flujos peatonales en cuanto al ingreso y salida de los establecimientos genera en cada usuario un tiempo de dos a cuatro horas, muchas veces incrementando su estadía en el emporio textil de hasta ocho horas. Otro escenario del emporio es la gran generación de basura por día comprendido entre las 10 y 20 toneladas de basura siendo generada por personas que consumen en los puestos de comida de la calle (ambulantes), los restaurantes al arrojar los desperdicios orgánicos y/o inorgánicos en contenedores repletos de basura, establecimientos comerciales dentro de las galerías. Sin embargo, la basura es recogida a cierta hora del día, pero seguidamente de que se recoge esta basura, en el trascurrir de dos horas, nuevamente los contenedores rebalsan, ante un descontrol o desconocimiento del horario de recolección de basura o generación de desperdicios es demasiada. Asimismo, la inseguridad es muy alta tanto para las personas que viven en el emporio textil, los visitantes como para los trabajadores de los establecimientos comerciales, llegando a generarse reporte de denuncias en 250 robos al día y 7,500 delitos al mes, con un aproximado de 29,484 robos y delitos al año, siendo distintas modalidades de robo, como el de los establecimientos de manera silenciosa denominados tenderos y en las calles a manera de asaltos a los compradores. La cantidad de personas que circulan Gamarra es verdaderamente exorbitante y el crecimiento de la población, aunque no sea mucho va incrementando por ende el flujo peatonal es verdaderamente importante en este caso y por la cantidad de personas los problemas que se generan son importantes como ya mencionamos.



METODOLOGÍA

Para esta investigación se consideró un acercamiento analítico, no experimental y descriptivo, desarrollando un análisis del perfilado de los usuarios en el emporio de Gamarra, elaborando una técnica de recolección de datos (encuesta) con un instrumento denominado cuestionario electrónico para crear modelos de usuarios o perfiles de usuarios (software). El instrumento de investigación servirá para atender a perfilado dinámico ayudando a tomar decisiones para redirigir el tráfico de personas, sustentar decisiones respecto a la basura siendo cual es el tipo que  más se genera para tomar la decisión más óptima para mejorar la recolección de basura y de parte de la seguridad tener un porcentaje de las personas que se sienten inseguras en el lugar y en caso de que este porcentaje sea muy alto se realizara un seguimiento a los datos creando a base de registros de delitos de la zona y denuncias zonas rojas en las cuales se tomaran medidas para reducir el número de crímenes, en otra sección del mismo tema de seguridad en caso de obtener un número considerable en personas a favor de un punto sobre las compras de la encuesta se dará seguimiento y servirá de sustento a otra propuesta para agilizar la adquisición de mercancía y transito dentro del emporio textil de gamarra.


CONCLUSIONES

Para darle una mejora a la situación de Gamarra se desarrolló esta forma de base para el análisis de los usuarios que van a este emporio de esta manera al momento de implementar o querer tomar una decisión en la que los usuarios estén involucrado de una manera más activa osease ejecutando una accion física o formando parte de actividades que beneficiaria la situación actual del lugar Lo que se planea obtener de parte del perfilado de usuarios que visitan Gamarra es lo siguiente 1.- Definición y captura de perfiles que nos ayudaran a saber características de las personas por ya sea sus edades o su género y preferencias de compra. 2.- Flujo de las personas al entrar y salir de Gamarra si sabremos cuales son las entradas y salidas que más se congestionan por el ingreso y salida de personas. 3.- Sabremos cuales son las galerías que más se visitan en Gamarra y esto su forma de visitaren que forma y como hacen las compras etc. 4.- Como se siente las personas respecto a la basura que está en Gamarra e información sobre la basura que se tira en el lugar. 5.- Una aproximado de cantidad en como las personas se sienten estando ahí en cuestiones de seguridad Basado en lo que obtengamos de los perfiles se accede o se va a la segunda parte de la investigación que sería la implementación de soluciones las cuales se basarían en los lugares que se frecuentan más por parte de los visitantes/compradores en el emporio para implementar medidas que reduzcan el tiempo de los compradores en el emporio y la definición de un plan de flujo peatonal para que las congestiones en las avenidas, entradas o salidas del emporio tengan una reducción considerable en la congestión de personas. Con respecto a la gestión de la basura se determinara zonas en las que la basura abunda más y que tipo es para poder generar un plan para reducir las cantidades de esta también se plantearía mejorar las rutas y horarios de recolección para obtener la mayor cantidad de desperdicio, también se pensaría realizar una campaña que se enfoque en crear una consciencia mejor sobre la basura en cómo nos afecta y en qué beneficios podrían obtener las personas si tomaran mejores acciones respecto a ello. Para la seguridad tomar en los perfiles o saber las personas que son más susceptibles a estas acciones ilegales y si el resultado es impactante o considerable tomar la siguiente fase que es hacer un análisis de los crímenes que fueron denunciados para determinar zonas rojas o de riesgo en las cuales la seguridad se tendrá que aumentar u optaremos por escoger una mejor forma para reducir los actos ilícitos ya sea con vigilancia programada, reconocimiento visual por parte de cámaras de acciones específicas y crear una campaña que se enfoque a hacer que la gente genere una consciencia de denuncia debido a que son pocos los crímenes como asaltos y robos los que son denunciados.
Gutierrez Redondo Jose Luis, Universidad de la Guajira
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

REVISIóN CRíTICA PARA EVALUAR LA DEGRADACIóN DE FáRMACOS EN EFLUENTES RESIDUALES A TRAVéS DEL ACOPLAMIENTO HONGOS-BACTERIAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES POR FERMENTACIóN EN ESTADO SóLIDO.


REVISIóN CRíTICA PARA EVALUAR LA DEGRADACIóN DE FáRMACOS EN EFLUENTES RESIDUALES A TRAVéS DEL ACOPLAMIENTO HONGOS-BACTERIAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES POR FERMENTACIóN EN ESTADO SóLIDO.

García Venegas José Raymundo, Universidad Autónoma de Baja California. Gutierrez Redondo Jose Luis, Universidad de la Guajira. Toncel Manotas Esjeisson Rafael, Universidad de la Guajira. Torres Ustate Luis Miguel, Universidad de la Guajira. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El aumento de la población y factores como la calidad de vida han desencadenado problemáticas ambientales en todo el mundo, como el incremento en la producción de desechos y el aumento de los contaminantes emergentes (CE) en las aguas residuales (AR), lo que ha llevado a replantear el modelo de desarrollo social de los países, con vistas al cumplimiento de los Objetivos de Desarrollo Sostenible (ODS). Los CE comprenden una amplia gama de compuestos químicos, compuestos farmacéuticos (CF), productos de cuidado personal, agentes tensoactivos, plastificantes y aditivos industriales presentes en AR (Janet et al., 2012). Los CF son un grupo perjudicial para el medio ambiente y la salud humana, (Morsi et al., 2020) reporta que estos compuestos podrían reducir el crecimiento de las plantas, causar trastornos metabólicos, alteraciones reproductivas, desequilibrios hormonales, entre otros. Como respuesta a esta problemática, la comunidad científica a evaluado diversas opciones para el tratamiento de estos compuestos, entre las alternativas evaluadas, se encuentra el tratamiento biológico, utilizando hongos de podredumbre blanca o marrón. estudios han investigado el potencial de degradación de contaminantes emergentes, a través del tratamiento biológico. (Morsi et al., 2020). En general, para transformar los residuos en producto valioso, deben ser sometidos a procesos físicos, químicos o biológicos, ejemplos de estos métodos son la reducción, la oxidación y la descomposición realizadas por las enzimas (Bilal et al., 2019; Janusz et al., 2013). Estas comprenden múltiples sustratos orgánicos e inorgánicos, de los cuales se puede aprovechar el material lignocelulósico en la contigua producción de biocombustibles mediante procesos de digestión anaerobia (AD) para la obtención de biogás o una posible fermentación de los sustratos en estado sólido (SSF) para la obtención de etanol, gracias al potencial redox de las enzimas (Momayez et al., 2018). La producción de etanol derivado de subproductos lignocelulósicos se está probando actualmente en escalas piloto (Taherzadeh y Karimi, 2008). La SSF para la producción de bioetanol consiste básicamente en dos pasos básicos: la hidrólisis enzimática de la lignocelulosa (para liberar los azúcares fermentables) y la conversión de los azúcares en etanol (Kumar et al., 2020). Otro proceso que interviene en la producción de biocombustible (biogás/biometano) es la digestión anaeróbica en estado sólido (SS-AD), que es un proceso biológico de cuatro etapas (hidrólisis, acidogénesis, acetogénesis y metanogénesis) que se produce por la descomposición de materiales lignocelulósicos por diversos microorganismos (bacterias/hongos) en condiciones anaeróbicas para producir biogás o metano (Pečar et al., 2020). En el presente estudio se pretende evaluar la factibilidad de la degradación de fármacos en efluentes residuales y la capacidad de producción de biocombustibles mediante el acoplamiento hongos-bacterias en un sistema de tratamiento en estado sólido, mediante la identificación de las principales especies fúngicas utilizadas para la degradación de fármacos en efluentes residuales, el establecimiento de las condiciones óptimas operaciones para la fructificación de hongos en fermentación de estado sólida y determinar la capacidad de producción de biocombustibles en sistemas acoplados macromicetos – bacterias.



METODOLOGÍA

Revisión bibliográfica En primer lugar, se efectuó una exhaustiva revisión bibliográfica la cual se orientó por medio de criterios técnicos relacionados con el objeto de la investigación. realizando búsquedas dentro de bases de datos, como: Scopus, Sciencedirect, Scielo, entre otras. Donde, se introdujeron las palabras claves (cultivo de hongos, degradación de fármacos, pretratamiento fúngico, AD en estado sólido, sustratos, eficiencia biológica, actividad enzimática, producción de etanol, producción de metano), finalmente se revisaron más de 40 referencias, compuestas por: libros, capítulos de libro, artículos de revisión e investigación, a esta información se realizó un análisis comparativo sintetizando los resultados mediante tablas y figuras. Análisis procedimental El proceso experimental para el tratamiento de los CF y la generación de biogás y etanol se subdividen en tres momentos: degradación de contaminantes emergentes, fermentación en estado sólido y producción de biocombustibles. Dentro de la degradación de contaminantes emergentes se estudian las enzimas que participan en la degradación de los fármacos y los hongos que producen estas enzimas, los tipos de tratamientos usados para mejorar la actividad enzimática, así como las condiciones operacionales óptimas para cada hongo y enzima de interés. Para la fermentación en estado sólido, se detallan las condiciones operacionales para la fermentación en estado sólido, los tipos de tratamientos que se aplicaron, los productos a obtener y las variables de respuesta utilizadas junto a los valores obtenidos. Por último, se evalúa la producción de biocombustibles, identificando condiciones óptimas y tipos de pretratamientos e inhibidores existentes.


CONCLUSIONES

Se concluye que el sistema de acoplamiento estará integrado por: El cultivo de hongos-bacterias para la degradación de fármacos. Digestión Anaerobia en Estado sólido de sustratos pretratados por hongos para la producción de biogás. Este sistema tiene la principal ventaja de que el costo del pretratamiento puede compensarse con la obtención de un subproducto de valor agregado (hongos). También, se concluye que existe una viabilidad en cuanto a la utilización de sustratos pretratados para la degradación de fármacos y producción de biogás a través de un cultivo integrado de hongos-bacterias en estado sólido.
Gutierrez Tovar Diana Carolina, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

CONTROL DE MAQUINA CNC DE 4 Y 5 EJES


CONTROL DE MAQUINA CNC DE 4 Y 5 EJES

Gutierrez Tovar Diana Carolina, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las maquinas CNC (Control Numérico Computarizado) han ido evolucionando, de ser operadas a mano, pasaron a la automatización al igual que la demás tecnología a lo largo de los años, esto, gracias a los esfuerzos del ser humano por eliminar intervenciones en los procesos de producción de manera que estos sean cada mas perfectos y de mejor calidad, además de la gran disminución de accidentes de alto riesgo en los procesos. La mayor problemática que se presenta es la falta de intervención en la tecnología por parte de los jóvenes ha causado el bajo conocimiento por estas herramientas que aportan grandes ventajas en la industria, como a lo largo de sus estudios y avance de sus conocimientos. El uso de la CNC de 3, 4 y 5 ejes aportan precisión y calidad en la industria, y obteniendo ventajas de esto se logra observar los cortes, grabados, tallados, moldeados, perfiles, canales, contornos, biselados, perforaciones o barrenados que logra hacer una CNC dependiendo cual sea su diseño de elaboración y el proyecto a realizar se empleara dicho material a usar, en este caso es el control de una CNC de 4 y 5 ejes.



METODOLOGÍA

En principio se realizaron investigaciones de CNC de 3 ejes y fresadoras para la observación de los movimientos en los ejes para la implementación de un cuarto y quinto eje en el cabezal, en donde se podrán agregar otros dos motores cual sea el caso, además de lograr hace un intercambio de transmisión para un posible complejo mecanizado. En la investigación de los materiales fue a partir del diseño de una fresadora de 3 ejes en la cual se implemento de manera teórica el cambio de la transmisión mencionado anteriormente el cual consiste en la transmisión piñón-cremallera del eje Z por una tuerca-husillo de bolas. El diseño se basa en un modelado mecánico a partir del software de diseño mecánico en cual se analizan esfuerzos y pruebas de resistencia, a partir de esto se investigó el método de control de la CNC, que se logra a partir de una placa CNC Shield y un Arduino, en donde se lograra la interpretación de códigos G de programación para el control de velocidades y posiciones de los ejes con ayuda de los motores a paso y sus controladores en cada eje. Para las pruebas de funcionamiento se usa el software CAD que consiste en dibujar la pieza que se desea mecanizar mediante el software mencionado y después programar las trayectorias que tomara la CNC con el software CAM, finalmente hace la simulación.


CONCLUSIONES

Durante la estancia de verano 2020 se logró adquirir conocimientos teóricos de lo que conlleva una CNC de 4 y 5 ejes a partir del diseño existente de una CNC de 3 ejes al igual que una fresadora, sin embargo, a causa de la investigación virtual no se logro llevar a cabo la construcción y hacer pruebas reales de la CNC. Se pretende llevar a cabo la construcción de la CNC a futuro cuando las circunstancias lo permitan implementado las bases de esta investigación.
Gutiérrez Vargas Maira Aideé, Instituto Politécnico Nacional
Asesor: Dr. Luis Enrique Colmenares Guillen, Benemérita Universidad Autónoma de Puebla

APROXIMACIÓN DEL MODELO PARA PROTOTIPO DE GLUCÓMETRO NO INVASIVO


APROXIMACIÓN DEL MODELO PARA PROTOTIPO DE GLUCÓMETRO NO INVASIVO

Gutiérrez Vargas Maira Aideé, Instituto Politécnico Nacional. Asesor: Dr. Luis Enrique Colmenares Guillen, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una enfermedad crónica no transmisible que aparece cuando el páncreas no produce insulina suficiente o cuando el organismo no utiliza eficazmente la insulina que produce. De acuerdo a la ENSANUT de 2012 en ese año existía una prevalencia de poco más de 6.4 millones de personas con diabetes diagnosticada en México cuya tendencia va en aumento; el panorama mundial también mostró cifras alarmantes, de acuerdo a la OMS existen alrededor de 422 millones de adultos con DM donde aproximadamente 3.7 millones de muertes están directamente relacionadas con la hiperglucemia por efecto de una diabetes no controlada, por lo que la medición de concentración de glucosa en sangre es una prioridad de salud a nivel mundial y una de las 7 conductas de autocuidado para las personas con diabetes establecidas por la AADE. La diabetes tipo 2 representa más del 90% de los pacientes DM, su característica principal es que la alta concentración de glucosa en sangre a lo largo del tiempo daña severamente una importante cantidad de órganos. Hoy en día, la tecnología para monitoreo de glucosa de manera no invasiva es escasa y poco accesible, por lo que se busca estudiar técnicas que satisfagan dicha necesidad, basados también en el tercer ODS de la ONU salud y bienestar. Se trabajó en el análisis de un modelo previamente existente para la técnica de medición no invasiva de glucosa en sangre a través del uso de un sensor GSR para proponer una correspondencia clínica con los datos obtenidos en el estudio previo.



METODOLOGÍA

Inicialmente se adquirieron conocimientos teóricos, definiendo la diabetes mellitus, se encontró que la DM tipo II representa más del 90% de los pacientes totales con esta enfermedad. Se analizó la fisiología de la regulación de glucosa en sangre a través de los ciclos metabólicos que éste carbohidrato presenta en el cuerpo y los sistemas involucrados, permitiéndonos entender los fenómenos importantes a considerar para el control de DM además de los rangos estándar ya establecidos en la práctica clínica para normoglucemia e hiperglucemia, además de las diferentes unidades de medición utilizadas en la misma, lo cual se consideró como punto notable para establecer una correcta correlación clínica- matemática. Posteriormente se analizaron las características del sensor, comenzando por su principio de funcionamiento: la corriente galvánica, que presentó características físicas particulares como el ser continua, ininterrumpida, de baja tensión y baja intensidad lo que le permite ser utilizada para aplicaciones médicas. Se investigó la actividad electrodérmica, concepto crucial que permitió demostrar que la medición de la respuesta galvánica de la piel cuenta con una relación directa con el nivel de glucosa en sangre capaz de ser monitoreado mediante el sensor GSR. Después se continuó con la investigación de las especificaciones del sensor para la parte electrónica. Seguido de ello, ya se contaba en trabajos previos con la curva característica de la relación entre los resultados del sensor GSR en términos de resistencia y conductancia con la concentración de glucosa por lo que pasé a analizarla, encontrando que existía un único valor de resistencia por cada valor de glucosa analizado, además de que las mediciones en los rangos establecidos como normales para concentración plasmática de glucosa en sangre en humanos presentan un comportamiento lineal, de igual manera sucedió para los rangos de datos de glucosa cuyo diagnóstico es indicador de DMNID, además el análisis de la dispersión de datos apuntaron también a ese comportamiento. Se procedió a programar ajustes polinomiales de segundo, tercer y cuarto grado a fin de compararlos y elegir el de mayor exactitud, como resultado el ajuste más certero fue el de segundo grado el cual otorgó la ecuación: f(x)=10000*x^2- 9.3132e^(-10*x )+ 7.4506e^(-9). Tras la elección del polinomio se obtuvo el porcentaje de error entre las mediciones obtenidas para resistencia prácticamente y las resultantes tras la aplicación del modelo propuesto, demostrando que éste presentó un excelente ajuste. Finalmente se realizó una comparación entre las técnicas que más destacaron tras una búsqueda bibliográfica (espectroscopia de infrarrojo cercano y detección electromagnética) y la técnica estudiada con el fin de obtener las ventajas y desafíos que cada una presenta y obtener un panorama de la viabilidad de la técnica de medición de glucosa no invasiva mediante el sensor GSR.


CONCLUSIONES

Se recopiló información oficial de las cifras de personas diagnosticadas con DM alrededor del mundo, específicamente en México. Se encontró que el 90% de los pacientes totales padecen DMNID. Se adquirieron conocimientos teóricos del ciclo metabólico de la regulación de glucosa en sangre y de la fisiopatología humana en la DMNID. Se analizó el fenómeno físico de la corriente galvánica y el funcionamiento del sensor GSR, para proponer un modelo de correspondencia clínica entre los resultados obtenidos y el valor de glucosa en sangre. Se analizó la curva característica del sensor GSR y las mediciones de glucosa en sangre, demostrando un comportamiento lineal en los parámetros de importancia. Se presenta la propuesta a modelo resultado del ajuste polinomial seleccionando el de segundo grado basado en el comportamiento de la curva característica y la precisión respecto a los ajustes polinomiales de tercer y cuarto grado. Se compararon las técnicas de espectroscopia de infrarrojo cercano y detección electromagnética con la técnica de GSR, encontrando desafíos y ventajas que trazan un camino hacia la búsqueda de soluciones para ésta última técnica. Se encontró favorable la técnica de medición de glucosa en sangre mediante uso de sensor GSR puntualizando que existen desafíos tecnológicos por resolver orientados a mejorar la propuesta y cubrir la necesidad de un dispositivo no invasivo para monitoreo de la DM. 
Gutiérrez Zazueta Héctor Manuel, Instituto Tecnológico de Culiacán
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL


IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL

Aguilar Ordaz Ramiro, Instituto Politécnico Nacional. Cruz Garcia Ivan Alberto, Instituto Politécnico Nacional. Gálvez Parra Kevin, Instituto Tecnológico de Culiacán. Gutiérrez Zazueta Héctor Manuel, Instituto Tecnológico de Culiacán. Partida Pérez Rauel, Universidad Tecnológica de Nayarit. Pérez Rios Yotziri Paloma, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

Se plantea como objetivo general la identificación de personas desaparecidas mediante inteligencia artificial. Coadyubando con técnicas de bases de datos y programación.



METODOLOGÍA

La metodología aplicada consta de seis puntos fundamentales descritos a continuación:  El experto en seguridad ingresará la información de la persona en cuestión dentro del sistema. El sistema procesa la información lo que hará que se eliminen elementos no deseados. El sistema clasificará la información en función de sus puntos de referencia, por ejemplo, la longitud de la línea de la mandíbula y la distancia entre los ojos con una precisión de por lo menos 95%. El sistema realizará una búsqueda coincidente a través de la base de datos. El sistema envía la alerta a autoridades. El sistema guarda registro de evento en base de datos.


CONCLUSIONES

Como parte de los resultados del Verano Cientifíco 2020, se enlistan los siguientes: Se construyó y entrenó el modelo inteligente. Montar un servidor que contenga la base de conocimiento y el modelo inteligente. Se construyó un sistema de notificaciones. Se realizaron las pruebas que garantizan la correcta funcionalidad del sistema.
Guzmán Aguirre José Carlos, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero

ANáLISIS, DISEñO E IMPRESIóN EN 3D DE UNA PRóTESIS DE MANO


ANáLISIS, DISEñO E IMPRESIóN EN 3D DE UNA PRóTESIS DE MANO

Guzmán Aguirre José Carlos, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

La pérdida de las extremidades del cuerpo humano sea total o parcial, generan una cantidad de problemas a la persona, sean estos físicos o emocionales, al no poder realizar actividades de la vida cotidiana y recibir un cierto rechazo de la sociedad. La Academia Nacional de Medicina, realizada por el Dr. Eduardo Vázquez Vela, menciona que el INEGI reporta que el número de amputados es cerca de 780 mil. Por otra parte, comentó que la Academia Nacional de Cirugía reporta que se amputan en México 75 personas diarias. Los datos a 2014 muestran que hay cerca de 900 mil amputados en México, la mayor parte de ellos tienen alguna incapacidad e incluye personas de todas las edades. Las amputaciones de los dedos de la mano incapacitan a las personas de forma permanente para realizar sus actividades de la vida diaria y ocupacional, dependiendo de los dedos afectados.



METODOLOGÍA

Para poder empezar con la creación y modelado de una prótesis en 3D lo primero que se hizo fue buscar a una persona con alguna parte cercenada para empezar a trabajar en el modelo de la prótesis de acuerdo con la forma de la mano. Se redactó un documento de consentimiento informado en el cual se especificaba todos los derechos que tenía la persona al aceptar ser parte de nuestra investigación. El señor Jaime Charco León, de 72 años de edad, nos otorgó su consentimiento para poder crear una prótesis basándonos en su mano derecha, la cual le hacían falta los dedos: índice, medio y anular, a consecuencia de un accidente industrial con una revolvedora de productos químicos.  Se le aplicó una encuesta donde se le preguntaban datos que nos ayudaría con el diseño de la prótesis, como los problemas que le causaban la falta de sus dedos, medidas de su mano izquierda y de su mano derecha, su familiarización con algún tipo de prótesis, las repercusiones que tiene en su vida diaria la falta de sus dedos, entre otras.   El software que manejamos para comenzar a realizar el trabajo de modelado de la prótesis fue TinkerCAD, un software de diseño en 3D muy sencillo de utilizar y con una interactividad amigable.Lo que este software nos permitió hacer fue concentrarnos en el diseño, puesto que nos permitía trabajar sobre piezas previamente creadas y adaptarlas a la necesidad del señor Jaime.  Una vez teniendo conocimiento del software de diseño, el investigador Giovani nos expuso los parámetros de la impresora 3D y el programa que utiliza llamado Repetier Host para determinar los parámetros de impresión. Los aspectos importantes al momento de imprimir son la posición del diseño en la cama térmica debe de ser centrada con respecto a las dimensiones de la impresora y acomodada a manera de que la superficie más grande del diseño sea la que repose sobre la cama térmica, de esta forma la impresora encuentra mayor apoyo y utiliza menos material para la impresión debido a que en la impresión 3D cuando existen partes de la pieza volando es decir, sin ningún tipo de soporte el programa crea unas columnas desde la base hasta la parte de la pieza que se desea imprimir haciendo que el consumo de filamento de plástico y el tiempo de impresión sean mayores. En los parámetros de la impresión se nos explicó la calidad recomendada para este tipo de impresión, esto quiere decir la distancia que existe entre cada capa de impresión, en nuestro caso, la calidad recomendada es de .2mm. Se hubiera podido trabajar con una calidad de .1mm. de esta manera la pieza podría salir con más detalle, pero al hacer esto el costo de impresión y el tiempo aumentan considerablemente. La velocidad de impresión se trabajó de entre 30 y 40 mm/s. No se necesitó de ningún tipo de enfriamiento al momento de la impresión porque el material con el que se estuvo trabajando es filamento de plástico PLA, el cual es un material muy noble y la misma temperatura ambiente hace que vaya tomando la dureza necesaria. Entrando con la configuración de la impresora los puntos importantes son los parámetros de la impresora, el extrusor y las dimensiones. Es importante revisar la temperatura de calentamiento del extrusor y la plataforma o cama caliente teniendo una temperatura de 240 y 100 grados para material ABS y 190 y 60 grados para PLA respectivamente. En las dimensiones de impresión lo que es importante verificar es el área de impresión (anchura, profundidad y altura); la impresora utilizada tiene unas dimensiones de impresión de 20cm x 20cm x 22cm. Para la impresión de la prótesis el programa calculó 18 horas de impresión continua. En proceso de detallado de las piezas (retiro de soportes, adherencias e impurezas) se calcula un tiempo de 6 horas para obtener una pieza lisa y sin ningún tipo de peligro para la persona que la utilice y con esto pasar al siguiente proceso. En el armado de la pieza se calcula unas 4 o 5 horas, dependiendo de la habilidad del armador.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la impresión 3D, así como de los componentes necesarios para realizarla, desgraciadamente, a causa de la situación del COVID-19 que se está viviendo mundialmente, fue poco el conocimiento práctico, pero gracias a la dedicación y el amor por la investigación por parte del investigador Giovani se logró completar la estancia virtual con una cantidad basta de apoyo visual e inclusive se pudo realizar la impresión de la prótesis  diseñada debido a que desde un principio el investigador nos mencionó que tenía en su posesión dos máquinas de impresión puesto que tenía contemplado recibir a 20 tutorados antes de la pandemia y por medios económicos propios decidió adquirir su segunda máquina. El proyecto de la prótesis de mano con dedos sigue en proceso y se piensa terminar inclusive después del programa delfín a razón del compromiso que se hizo con el señor Jaime de entregarle una prótesis para poder mejorar su vida diaria. No se terminará hasta entregar una prótesis funcional y adaptada a sus necesidades.
Guzmán Guzmán Roberto, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo

ANáLISIS NUMéRICO Y EXPERIMENTAL DE LA EMISIóN DE RUIDO AERODINáMICO EN AEROGENERADORES.


ANáLISIS NUMéRICO Y EXPERIMENTAL DE LA EMISIóN DE RUIDO AERODINáMICO EN AEROGENERADORES.

Guzmán Guzmán Roberto, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo



PLANTEAMIENTO DEL PROBLEMA

Alumno: Guzmán Guzmán Roberto Catedrático: M.D.M. José Rafael Dorrego Portela Título: Análisis numérico y experimental de la emisión de ruido aerodinámico en aerogeneradores. Universidad del Istmo Campus Tehuantepec Trabaje en el proyecto con el estudiante Tesista Ing. Armando Rios Ruiz Introducción: La investigación tecnológica sobre energías renovables es de gran importancia en la sociedad. El sistema de energía actual en su 80% es producido por combustibles fósiles (carbón, petróleo y gas natural) los cuales son limitados, están en fase de agotamiento y son fuentes de energía contaminante, cuyo uso desmedido e irracional ha provocado el deterioro del medio ambiente, y con ello los cambios climáticos.   Planteamiento del problema: El ruido aerodinámico es el de mayor emisión acústica en un aerogenerador y puede clásicas en tres grupos, considerando diversos mecanismos aerodinámicos de generación se encuentran los siguientes: el sonido de baja frecuencia, el sonido de entrada de la turbulencia y el ruido propio de la superficie sustentadora; este último contiene un sonido de banda ancha y se origina principalmente por el flujo de aire alrededor de las palas. El ruido aerodinámico aumenta a medida que aumenta la velocidad del viento. Es un hecho que el ruido emitido por aerogeneradores de pequeña potencia es un tema poco estudiado; sin embargo, su estudio se hace relevante en la actualidad debido a que los aerogeneradores de pequeña potencia encuentran su aplicación fundamentalmente cuando se instalan en zonas residenciales, en estas condiciones es necesario analizar el efecto del ruido que estos emiten sobre las personas. Si el ruido provocado por el aerogenerador supera el límite superior permisible, su uso puede ser descartado. Existen normas nacionales e internacionales que establecen los límites permisibles del ruido que pueden soportar las personas.



METODOLOGÍA

Objetivo general: Estudiar la emisión de los niveles de presión sonora en aerogeneradores de pequeña potencia. Objetivos específicos: Revisar las normas internacionales para el procedimiento de estudio de ruido. Las normas aplicadas: ISO 9613 ATENUACIÓN DEL SONIDO DURANTE LA PROPAGACIÓN EN EXTERIORES. Esta parte de ISO 9613 especifica un método analítico para calcular la atenuación de sonido como resultado de la absorción atmosférica para diversas condiciones meteorológicas donde el sonido desde cualquier fuente se propaga a través de la atmósfera exterior.   Norma Oficial Mexicana NOM-081-SEMARNAT-1994 Que establece los límites máximos permisibles de emisión de ruido de las fuentes fijas y su método de medición. Esta norma se aplica en pequeñas, medianas y grandes industrias, comercios establecidos, servicios públicos o privados y actividades en la vía pública.


CONCLUSIONES

Se estudió los fenómenos aeroacústicos de emisión y propagación de los niveles de presión sonora, comúnmente conocido como ruidos aerodinámicos, en el cual se logró predecir y comprobar que los aerogeneradores de baja potencia presentan considerables valores de contaminación acústica a distancias cercanas a su zona de emplazamiento. Los niveles de presión sonora están por debajo de los valores permisibles por la norma mexicana NOM-SEMARNAT-081, en el rango de velocidades de viento evaluados, mientras que en el caso de los niveles de presión sonora emitido por los vórtices de la punta de la pala se encuentra por encima de los valores establecidos por la norma.
Guzman Maldonado Brenda, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Neale Smith Cornejo, Instituto Tecnológico y de Estudios Superiores de Monterrey

MODELACIÓN MATEMÁTICA PARA LA SOLUCIÓN DE PROBLEMAS DE LOGÍSTICA HUMANITARIA EN MÉXICO


MODELACIÓN MATEMÁTICA PARA LA SOLUCIÓN DE PROBLEMAS DE LOGÍSTICA HUMANITARIA EN MÉXICO

Guzman Maldonado Brenda, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Neale Smith Cornejo, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La Logística Humanitaria es aquella encargada del proceso de planificación, implementación y distribución efectiva y eficiente de los flujos de productos después de la ocurrencia de un desastre, el cual es un evento repentino y calamitorio que altera gravemente el funcionamiento de una comunidad y que causa pérdidas humanas, en otras palabras, un desastre es la incapacidad de la sociedad para adaptarse a un evento. En México nos hemos enfrentado a diferentes desastres, quizá el más impactante en tiempos recientes sea el sismo del 19 de septiembre de 2017, con una magnitud de 7.1 Mw, que impacto a diferentes zonas del país dejando un saldo de 369 personas fallecidas en el centro del país y cientos de damnificados. Uno de los organismos involucrados en la ayuda humanitaria al momento de que una catástrofe azota el país es el Banco de Alimentos de México (BAMX), que es una organización civil mexicana sin fines de lucro, cofundadora y miembro de Global FoodBanking Network (GFN). Mismo que cuenta con más de 50 bancos de alimentos distribuidos en todo el país, BAMX es la única red de bancos de alimentos en México y la segunda más grande del mundo. BAMX se enfoca en rescatar alimentos que están en riesgo de ser desperdiciados por industrias, campos, centros de abastecimiento, supermercados, restaurantes y hoteles, mismos que son distribuidos a zonas donde la adquisición de alimentos es complicada debido a la falta de recurso. Cuando surge un desastre BAMX se une a los esfuerzos de la sociedad mexicana para apoyar las actividades de distribución de socorro en las comunidades afectadas. Esto a menudo requiere cambios urgentes en la planificación operativa ya establecida por cada banco individual, problemática a que se espera dar solución en este proyecto a través de un modelo matemático que represente la asignación óptima de los recursos en cualquier escenario de catástrofe.



METODOLOGÍA

Se comenzó realizando una revisión bibliográfica de la literatura relacionada con la logística humanitaria, coordinación y cooperación en las donaciones de alimentos, métodos para la distribución de los recursos para esto utilizando bibliotecas de artículos como Scopus y ScienceDirect, a las cuales se accedió gracias a la licencia proporcionada por el Instituto Tecnológico y de Estudios Superiores de Monterrey. Tras la lectura y análisis de varios documentos, se realizó un cuadro comparativo, éste con la finalidad de tener una relación más práctica y así poder identificar lo que se ha hecho en investigación sobre transporte y asignación de recursos en situaciones de desastre desde el 2014 a la actualidad. Culminada la revisión bibliográfica se siguió con los modelos matemáticos, en donde para comenzar se vio una breve introducción sobre la estructura de los mismos, cómo introducir sus variables, parámetros, conjuntos, función objetivo y restricciones, así como el nombre de los softwares que se tomarán en cuenta para la resolución de dichos modelos matemáticos. Se instaló la licencia y ejecutador para utilizar el lenguaje AMPL e iniciamos el análisis de la sintaxis de ese lenguaje de programación, teniendo una idea clara de cómo se utiliza ese lenguaje se procedió a realizar la codificación de dos modelos matemáticos, así como la programación de instancias útiles para los diferentes escenarios, en donde el primero fue un modelo básico de asignación y transporte, pero el segundo era una versión del modelo desarrollado para solucionar el problema de la investigación, es decir, un modelo de transporte en situación de emergencia para los Bancos de Alimentos de México. Una vez entendida la estructura de la programación en AMPL instalamos un software llamado Anaconda Distribution para la administración del lenguaje Python, además de instalar la licencia y software de Gurobi, el cual funciona como solucionador y tiene funciones especiales para el tipo de modelación matemática con el que se trabajó en el verano. Dentro de las últimas actividades se programaron los modelos mencionados anteriormente, pero ahora utilizando el lenguaje de Python y Gurobi, para ambos se generaron instancias diferentes donde el objetivo del software era la solución de las mismas.


CONCLUSIONES

Durante la estancia se adquirieron conocimientos teórico prácticos sobre logística humanitaria y modelos matemáticos para dar solución a problemas de dicha área, a través de revisión bibliográfica y de aprendizaje sobre diferentes lenguajes de programación, como AMPL, Python y Gurobi, logramos cumplir los objetivos del verano de investigación. Debido a lo extenso del proyecto, este aún está en la fase de desarrollo y no sería posible mostrar resultados, sin embargo, se espera obtener un modelo óptimo que cubra los diferentes escenarios de desastre para minimizar el tiempo de intervención y el sufrimiento humano mediante la pronta asignación de recursos en los Bancos de alimentos de México.
Guzmán Miranda Isabel, Universidad Autónoma de Baja California
Asesor: Dr. Luis Enrique Colmenares Guillen, Benemérita Universidad Autónoma de Puebla

DISEñO DE DISPOSITIVO PORTABLE EN 3D PARA UN GLUCóMETRO NO INVASIVO.


DISEñO DE DISPOSITIVO PORTABLE EN 3D PARA UN GLUCóMETRO NO INVASIVO.

Guzmán Miranda Isabel, Universidad Autónoma de Baja California. Asesor: Dr. Luis Enrique Colmenares Guillen, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una enfermedad en la que los niveles de glucosa (azúcar) de la sangre están muy altos. La glucosa proviene de los alimentos que se consumen.  Según los últimos datos presentados en el 2019 por la Federación Internacional de Diabetes (FID), en el mundo hay 463 millones de personas que tienen diabetes, y se estima que esta cifra aumentará a 700 millones en 2040. Sin una acción concertada para prevenir la diabetes, en menos de 30 años habrá 237 millones de personas que vivirán con la enfermedad. Estas cifras son muy preocupantes y alarmantes para las generaciones futuras, por eso debemos enfrentarnos a esta situación y poder controlar la diabetes.  Durante la estancia se realizará un diseño ergonómico y portable en 3D el cual será capaz de medir, monitorizar y mostrar al usuario los niveles de glucosa en la sangre a través de la piel por medio de un sensor, lo que le permitirá al paciente llevar un estilo de vida activo y tomar medidas oportunas para estabilizar la diabetes.



METODOLOGÍA

Para esta investigación se utilizó la metodología de Prototipado Evolutivo la cual se basa en la creación de una implementación parcial de un sistema. La primera fase de esta metodología es la de Investigación preliminar en donde se determinó el problema, la importancia y los efectos del dispositivo, así también se identificó la idea general de la solución a desarrollar. Además se analizó el tema de disposiciones legales y/o normas aplicadas a la fabricación y uso de sistemas de medición wearables, en donde se encontró la NORMA Oficial Mexicana NOM-241- SSA1-2012, titulada Buenas prácticas de fabricación para establecimientos dedicados a la fabricación de dispositivos médicos.Posteriormente se encuentra la fase Definición de los Requerimientos del Sistema, donde se establecieron todas las características principales del dispositivo portable, las dimensiones de diseño de la caja de la pulsera establecidas fueron las siguientes: 3 cm. de ancho, 4 cm. de largo, 3 cm. de altura.2 cm de ancho. Como medidas para la correa de la pulsera se especificaron: 11 cm. para el lado de las perforaciones, 10 cm. para el largo del asegurador y 0.4 cm. de diámetro para las perforaciones. Para los colores del PLA se establecieron los siguientes: Negro, blanco y azul. En esta etapa también se analizaron y compararon diferentes herramientas de diseño para realizar el modelado en tercera dimensión (3d) de una pulsera para el glucómetro no invasivo, las tres herramientas seleccionadas fueron: * Blender, que es un programa informático multi-plataforma, dedicado especialmente al modelado, iluminación, renderizado, animación y creación de gráficos tridimensionales. De la misma manera se analizó * FreeCAD que tiene una Interfaz de modelado paramétrico es un método más algorítmico que permite editar el objeto que se desee de forma rápida y eficiente mediante el acceso a la historia y al cambio de modelo de sus parámetros. La amplia gama de características de nivel profesional de FreeCAD también ofrece a los usuarios la libertad casi ilimitada de diseño, aunque a costa de una curva de aprendizaje mucho más pronunciada que la de la mayoría de las herramientas de modelado 3D libres. Por último se analizó la herramienta de * 3D Slash la cual Introduce a los conceptos de modelado en 3D de una forma lúdica y divertida. El proceso de tres pasos es intuitivo y divertido, y al final el modelo 3D se puede compartir en línea, o exportarse a STL para la impresión 3D. En la fase  de diseño técnico  se desarrolló el modelo de la pulsera con la herramienta Blender en la versión 2.83, la cual es una aplicación multiplataforma que permite crear visualizaciones en 3D, una de las principales razones por las que se eligió este software es que ofrece todas sus herramientas de forma gratuita y tiene requisitos de memoria y almacenamiento relativamente pequeños en comparación con otras plataformas de creación 3D. Una vez presentada la propuesta de diseño se evaluaron y analizaron los detalles de la solución.  Posteriormente en la fase de desarrollo y pruebas se identificaron los cambios y mejoras para el dispositivo portable, en completitud con los requerimientos se agregaron 2 perforaciones a la caja de la pulsera para el sensor con un diámetro de 1cm. y una trabilla para asegurar la correa con una altura de 0.4 cm.  Como parte final de la metodología se encuentra la fase de Operación y mantenimiento la cual consiste en la instalación del sistema en ambiente del usuario, se sigue trabajando en esta etapa,  y como resultado se espera realizar la impresión en 3D del dispositivo portable, y así visualizar el prototipo final de la pulsera.


CONCLUSIONES

Mediante la metodología del prototipado evolutivo se obtuvo un modelo de solución de la pulsera totalmente ergonómico y portable, la cual incorpora las medidas necesarias para cubrir sus componentes como procesador, memoria RAM, memoria ROM, sensores y batería. Para la correa se utilizaron esas medidas las cuales se consideran una medida estándar entre otros modelos y diseños ya implementados.  En cuanto al uso del color en la propuesta, se eligió el color blanco que es muy utilizado en el diseño de equipo médico ya que es un color que transmite limpieza, esterilidad y pureza.  Por otro lado, el color negro se utiliza ya que es el más común en una pulsera puesto que se asocia con la elegancia y la formalidad. Se eligió el color azul para que la solución tuviese un carácter llamativo y dinámico entre los otros dos colores. Así también la pulsera transmite una sensación de confort al interactuar con este, debido a la ergonomía que tiene. Las medidas finales de la pulsera fueron las siguientes:  25 cm. de largo de toda la pulsera. 2 cm. de ancho para la correa. 4 cm de ancho para la caja. 3 cm de alto para la caja. La pulsera cuenta con 10 perforaciones: 2 son para el sensor, y 8 para asegurar la pulsera. Integra además un asegurador y una trabilla.
Hermosillo Marquez Victor Manuel, Universidad Autónoma de Ciudad Juárez
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

PROMOVIENDO EL INTERÉS POR LAS MATEMÁTICAS MEDIANTE EL DISEÑO DE UN SITIO WEB


PROMOVIENDO EL INTERÉS POR LAS MATEMÁTICAS MEDIANTE EL DISEÑO DE UN SITIO WEB

Hermosillo Marquez Victor Manuel, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

Estudiante: Víctor Manuel Hermosillo Márquez, Universidad Autónoma de Ciudad Juárez, victorhermosillo.dp@gmail.com Asesor: Dra. Cecilia Ávila Garzón, Fundación Universitaria Konrad Lorenz, cecilia.avilag@konradlorenz.edu.co Las matemáticas son un área de la ciencia con suma importancia, especialmente en la actualidad dónde la tecnología forma parte inseparable del ser humano siendo el eje principal que mueve a casi cualquier aparato electrónico. Debido a esto, es fundamental el lograr generar interés en dicha ciencia y mostrar las posibilidades de esta fuera de un aula de clases y más aún, orientada a un mundo laboral.



METODOLOGÍA

Para lograr el objetivo planteado se decidió dividir el proyecto en cuatro fases diferentes, las cuales permiten tener un mayor orden y eficientizar el desarrollo. La primera fase es el análisis de requerimientos: se propuso el reunir a todas las personas que involucradas en el proyecto y establecer los objetivos, así como proporcionar ideas bases para el diseño de la pagina web y de los videojuegos. La segunda fase es el diseño: en esta fase se creó todo el apartado visual de la página, mostrando diferentes propuestas las cuales fueron revisadas y valoradas por las personas a cargo para elegir la que más se acerca a las expectativas buscadas. La tercera fase fue el desarrollo: en esta fase se inició la implementación en código de las funcionalidades de la página, para plasmar lo hecho durante la fase del diseño en un producto que ya pudiera ser implementado. Y en la última fase se realizaron las pruebas de usabilidad: esto con el objetivo de probar la facilidad de navegación en la página así como de los juegos, para garantizar que la experiencia de posibles futuros usuarios fuese lo más sencilla posible y que esto no afectara en posible desinterés.


CONCLUSIONES

Durante el desarrollo de esta estancia de verano se logró completar en su totalidad la página web, así como la mayoría de la creación e implementación de los videojuegos planeados. El terminar con el resto de los videojuegos y realizar posibles correcciones, es lo único faltante para que la pagina sea publicada y se comience con el análisis del impacto que pueda influir en posibles alumnos que estén considerando las matemáticas como la profesión a la que deciden dedicarse. Así mismo durante la presente estancia se logró realizar una participación en el VI encuentro internacional de pasantías de investigación Delfín capitulo Colombia. En esta se expusieron los avances realizados durante el verano de los proyectos realizados por algunos de los estudiantes que decidieron realizar sus estancias en el país. Enlace de presentación e imagenes con el resltado final: https://drive.google.com/drive/folders/1HpPxp5Bm4ZF2jSXGqnP6WpZVtCqsFH94?usp=sharing  
Hernández Anastasio Eduardo Daniel, Universidad Politécnica de Tecámac
Asesor: Dr. Felipe Nerhi Tenorio Gonzalez, Universidad Politécnica de Tecámac

PREDICCIóN DEL MECANISMO DE SUSTITUCIóN Y PROPIEDADES MAGNéTICAS DEL COMPOSITE SRERFE12-XO19-PVA Y SU PROPUESTA EN SUSPENSIONES MAGNéTICAS DEL AUTOMóVIL.


PREDICCIóN DEL MECANISMO DE SUSTITUCIóN Y PROPIEDADES MAGNéTICAS DEL COMPOSITE SRERFE12-XO19-PVA Y SU PROPUESTA EN SUSPENSIONES MAGNéTICAS DEL AUTOMóVIL.

Hernández Anastasio Eduardo Daniel, Universidad Politécnica de Tecámac. Asesor: Dr. Felipe Nerhi Tenorio Gonzalez, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

A través de los años los medios de transporte han sido parte fundamental para el desarrollo humano y de diferentes áreas de la industria, principalmente los automóviles se han vuelto el medio de transporte predilecto del ser humano para poder desplazarse desde un punto A hacia un punto B, de igual forma, ha sufrido diferentes cambios y modificaciones a través de la historia pasando en todos sus sistemas para hacer este vehículo más confortable y seguro para los usuarios, por mencionar algunos ejemplos, la evolución de los sistemas de inyección y encendido, enfoque hacia el sistema de escape para moderación de gases de efecto invernadero, hasta las innovaciones más actuales que son automóviles eléctricos, autónomos e inteligentes. Enmarcando las tendencias actuales en los automóviles el desarrollo de las suspensiones también han sufrido modificaciones pasando por suspensiones rígidas, neumáticas, hidráulicas y magnéticas, estas últimas son el punto de partida para el desarrollo de esta investigación; actualmente encontramos mucha información acerca de los prototipos o diferentes marcas de vehículos que están haciendo inclusión en este tipo de suspensiones,  no se han encontrado reportes acerca de un ferrofluido empleado en suspensiones magnéticas a base de Hexaferrita de Estroncio dopada con Disprosio (Dy), a pesar de que esta tierra rara tiene la mayor cantidad de magnetones de Bohr en la familia de los Lantánidos.



METODOLOGÍA

Se realizaran los cálculos correspondientes para saber cuales son los Magnetones de Borh efectivos utilizando la formula: μeff=g√J(J+1), en donde g se calcula con: 1+(S(S+1)-L(L+1)+J(J+1))/(2J(J+1)), para resolver las incógnitas dentro de la variante g ocuparemos las siguientes formulas: S= E.C. x 1/2; L= Suma de los valores m1; J= (L-S)  ó (L+S) según sea el caso. Los resultados obtenidos se utilizaran para seleccionara un elemento que será combinado con Hexaferrita de Estroncio en Intervalos de X=(0, 0.5, 1.0, 1.5, 2.0, 2.5) donde los materiales de partida será el Oxido de Hierro III y el carbonato de estroncio , para este proceso se realizaran los cálculos estequiométricos para cada uno de los valores de los intervalos y elegir el mas adecuado para formar usando PVA y reducir las partículas a escalas nanométricas  (no se pudo realizar experimentación debido a cuarentena). Posteriormente se hará la predicción magnética en la cual se vera la magnetización y el campo coercitivo del material dopado para cada valor de los intervalos siguiendo la función de Brillouin: Bj(y´)=((2J+1)/2J coth ((2J+1)y´)/2J-1/2J coth (y´)/2J)  cos⁡(∅), y´=(gJμB Hd)/kT donde Hd=μi (H±2) para predecir la grafica cintura de avispa.


CONCLUSIONES

El automóvil sigue y seguirá siendo uno de los medios de transporte de pasajeros más utilizado en México y el mundo, por el cual, en la búsqueda de nuevas tecnologías para optimizar su rendimiento, desarrollo de autonomía y sistemas de propulsión amigables con el medio ambiente los sistemas básicos están actualizándose al mismo tiempo que los sistemas eléctricos, haciendo que se alcance a desarrollar un sistema inteligente que pueda adaptarse automáticamente a las condiciones del camino. Los resultados obtenidos dentro de esta investigación son el inicio de un nuevo proyecto, el cual es la sinterización del composite para su aplicación practica en un prototipo de amortiguador magnetoriológico, este ultimo será presentado en la Feria de Ciencias e Ingenierías del Estado de México (FECIEM), donde se hizo el debido registro de los integrantes, proyecto y presupuesto para poder realizar la experimentación, actualmente nos encontramos en espera de la aprobación del presupuesto y por ende la práctica. Cabe mencionar que los resultados obtenidos son solo hipótesis y nos da una idea de como se comportaran los iones de Dy en el composite, se debe de tener una manipulación meticulosa ya que durante el proceso existen diferentes factores que pueden afectar el aumento de la magnetización.
Hernández Cabrera David Yael, Instituto Tecnológico Superior de Huauchinango
Asesor: Mg. Leslly Paola Alvarez Enciso, Corporación Universitaria Minuto de Dios

LA INFORMALIDAD COMO PRINCIPAL ACTIVIDAD LABORAL EN MÉXICO


LA INFORMALIDAD COMO PRINCIPAL ACTIVIDAD LABORAL EN MÉXICO

Hernández Cabrera David Yael, Instituto Tecnológico Superior de Huauchinango. Asesor: Mg. Leslly Paola Alvarez Enciso, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

El presente artículo tiene como objetivo explicar la situación de los trabajadores informales en México relacionado a la carencia de prestaciones que sufren durante el ejercicio de sus oficios. Mediante el uso de la metodología cualitativa por un enfoque descriptivo que pretende relacionar en temas referentes a los riesgos y peligros que sufren día a día aquellos que trabajan de forma independiente o de quienes están bajo las órdenes de un empleador sin un contrato de por medio. Además de ello, pretende exponer datos más acertados sobre la realidad del trabajador informal y de su estilo de vida.



METODOLOGÍA

Se pretende analizar algunos escenarios que causan la informalidad laboral en el país de México. Por ello, se considera pertinente el uso de la metodología cualitativa con el objetivo de extraer información de diferentes artículos científicos Y notas periodísticas que tengan relación con el tema de la situación laboral en México y las consecuencias que ha provocado la pandemia por el COVID-19 en México. Dichos documentos son analizados y, posteriormente, concentrados en fichas RAE para una mejor comprensión de la información recolectada. La búsqueda de los artículos científicos fue de manera sistemática, cuidando las palabras clave y de temporalidad no mayor a 7 años de publicación.


CONCLUSIONES

Uno de los principales factores que influyen en los estados con mayor índice de trabajadores en el sector informal, se debe al bajo desarrollo industrial que tienen dichos estados. Los habitantes se ven obligados a dedicarse al comercio independiente, la pesca, la agricultura, la artesanía y demás actividades informales que aprovechan la zona geográfica de cada estado. El paro laboral en el sector formal ha dejado alrededor de 1.9 millones de personas desempleadas en México, mismas que se unen al sector informal. RESULTADOS OBTENIDOS:  El paro laboral es algo que muchos trabajadores informales no pueden permitirse debido a la poca solvencia económico. El porcentaje de informalidad laboral en México en el último trimestre del año 2020 llega al 52% de la población total. La supervivencia de varios micronegocios y empresas formales se ha basado en el marketing digital. Se calcula un aproximado de 1.9 millones de mexicanos que se sumaron a las filas del sector informal en el mes de mayo del año 2020 como consecuancia de los paros laborales provocados por la pandemia.  
Hernandez Cañas Belen Nayeli, Universidad Mexiquense del Bicentenario
Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas

ANáLISIS COMPARATIVO DE BASES DE DATOS PARA APLICACIONES MóVILES(FIREBASE, AMAZON DYNAMO DB)


ANáLISIS COMPARATIVO DE BASES DE DATOS PARA APLICACIONES MóVILES(FIREBASE, AMAZON DYNAMO DB)

Hernandez Cañas Belen Nayeli, Universidad Mexiquense del Bicentenario. Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Las Bases de datos son un conjunto de tablas interrelacionadas entre si, creadas y gestionadas por un motor de base de datos, así mismo, la información es almacenada y gestionada para la toma de decisiones. Actualmente la tecnología ha venido a dar un cambio y entre ellas son las Bases de Datos que juegan un papel importante en la mayoría de las áreas donde se utilizan computadores, permitiendo almacenar grandes volúmenes de datos acerca de la empresa, los cuales son percibidos a través de los usuarios, de la misma manera la información obtenida de los datos almacenados debe estar en una forma que sirva para administrar, planear, controlar y tomar decisiones dentro de una organización. El proyecto se encamina a una base de datos que sirva como aplicación móvil creando un DataSet para imágenes, que pueda insertar imágenes, así como borrar o recuperarlas, en las bases de datos se almacenará la información es decir los tipos de movimientos que se vallan haciendo en las distintas imágenes.



METODOLOGÍA

Para el inicio del proyecto se hizo una investigación minuciosa sobre todas las líneas de investigación que abarca el proyecto, es decir se investigo lo que es una bases de datos, los tipos de BD, que son las aplicaciones móviles, que es el Firebase y Amazon Dynamo, que estas son tipo de base datos relacionadas entre sí porque una sirve como plataforma para crear la aplicación móvil y la otra es una base de datos que puede gestionar diferente información. Se hizo una comparación teórica entre las bases de datos, escogiendo las mas accesible como Amazon Dynamo, asi mismo pobre con MYSQL y Cassandra, de la misma manera se hizo una investigación sobre este tipo de bases de datos parea conocerlas mas a fondo y poder trabajar con ellas. Se creo un boceto de como seria la base de datos y con las variables que trabajarían que son insertar, borrar y reemplazar, después de analizarlo se creo en MySQL contando con las variables ya dichas, a si mismo la programación se llevó acabo en Java, se pretende que el programa sea capaz de abrir un amplio y pesado de imágenes. Dicha la base de datos se trabajo con la plataforma de Firebase, y Android Studio para hacer la aplicación móvil de la misma forma se programo para que la base de datos funcionara en dicha aplicación.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre la programación y las bases de datos, así como de la parte teórica sobre que son las aplicaciones móviles, bases de datos, tipos de BD y las comparaciones entre cada una de las bases de datos, entre otras líneas de investigación, llegando así mismo a la elección de una base de datos que se elaboró en Java capaz de almacenar imágenes, que podrá funcionar como aplicación móvil. Asi mismo se creara un articulo cientifico sobre el proyecto donde la investigacion donde se utilizaron articulos no exedidos del 2005.
Hernandez Carmona Josue Jyaru, Instituto Politécnico Nacional
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

MODELO DE INTELIGENCIA ARTIFICIAL PARA LA DETECCIóN DE ENFERMEDADES CARDIOVASCULARES.


MODELO DE INTELIGENCIA ARTIFICIAL PARA LA DETECCIóN DE ENFERMEDADES CARDIOVASCULARES.

Hernandez Carmona Josue Jyaru, Instituto Politécnico Nacional. Lecona Valdespino Carlos Natanael, Instituto Politécnico Nacional. Magaña Medina Jesus Omar, Universidad Autónoma de Sinaloa. Sáenz Salazar César David, Instituto Tecnológico de Chihuahua II. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Actualmente existen muchos métodos y herramientas para la detección de enfermedades cardiovasculares. Los doctores y personal médico de los hospitales utilizan diversos instrumentos para poder hacer la detección de enfermedades, además de contar con preparación dentro del área en que se desenvuelven para concluir con un diagnostico basado en síntomas previos del paciente. El objetivo del modelo desarrollado es agilizar la manera en la que se pueden detectar enfermedades cardiovasculares, de tal forma que, al introducir ciertos valores por computadora se obtiene como resultado un diagnostico fiable el cual determina si el paciente diagnosticado cuenta con presencia de alguna enfermedad o no. De esta manera el personal medico puede auxiliarse y obtener resultados mas rápidos de los pacientes diagnosticados.



METODOLOGÍA

Los métodos adecuados a aplicar en el trabajo de investigación de este proyecto son el deductivo, cuantitativo, cualitativo y comparativo. Se utilizaron con el objetivo de analizar diferentes algoritmos de inteligencia artificial, sin embargo, previo al análisis se preprocesaron los datos con ayuda del lenguaje de programación Python. Los algoritmos utilizados fueron Regresión Múltiple Lineal, Redes Neuronales, Random Forest, Vecinos Cercanos y Maquinas de Vectores de Soporte (algunos de ellos basados en probabilidad y estadística). De esta manera se compararon los resultados obtenidos con dichos algoritmos y se pudo determinar el mejor de ellos para el caso utilizado. Los datos utilizados previamente al preprocesamiento fueron proporcionados por un repositorio de machine learning, donde el crédito de los datos utilizados de Cleveland se le atribuyen a V.A. Medical Center, Long Beach and Cleveland Clinic Foundation: Robert Detrano, M.D., Ph.D.


CONCLUSIONES

Los resultados en porcentaje de exactitud obtenidos de la aplicación de cada algoritmo en los datos preprocesados fueron los siguientes: Regresión Múltiple Lineal: 57% Redes Neuronales: 89% Random Forest: 74% Vecinos Cercanos: 95% Máquinas de Vectores de Soporte: 41%
Hernández Casarrubias Natividad, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana

DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO


DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO

Hernández Casarrubias Natividad, Instituto Tecnológico de Chilpancingo. Jacobo Cuenca Luis David, Instituto Tecnológico de Chilpancingo. Medina Valdes Hector, Instituto Tecnológico Superior de Uruapan. Muñoz Flores José Gilberto Otoniel, Benemérita Universidad Autónoma de Puebla. Rojas Rubio John Rafael, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Históricamente los fenómenos naturales como huracanes, tsunamis, terremotos, etc., han generado desastres de gran magnitud, dejando a su paso una considerable cantidad de estructuras colapsadas, extensas regiones naturales devastadas y aún más, una gran pérdida de vidas humanas. Se calcula que en promedio más de diez mil personas pierden anualmente la vida, debido a este tipo de eventos.   El estudio del comportamiento de las estructuras ante la presencia de cargas generadas por sismos ha sido y es de gran interés en el área de la ingeniería de terremotos y en la dinámica estructural. En los años más recientes, el avance en este campo, con el fin de minimizar la respuesta (aceleración, velocidad y/o desplazamiento) en las estructuras civiles (edificios, puentes, hospitales, escenarios deportivos, etc.), ha sido bastante significativo. Una de las alternativas para mitigar los daños, causados por un sismo, en una estructura es reducir la demanda de la energía absorbida por la estructura. Dentro de esta alternativa, existen los sistemas o equipos de control, los cuales pueden ser pasivos, activos o semiactivos. El disipador de fluido viscoso se cataloga como disipadores pasivos y pueden disminuir considerablemente desplazamientos, y aceleraciones producidas por un sismo. Los dispositivos de fluido viscoso disipan energía forzando el flujo de un fluido a través de un orificio, su comportamiento depende netamente de la velocidad. Los amortiguadores viscosos han sido utilizados con éxito en estructuras civiles, especialmente en áreas geográficas de alta sismicidad. La adición de amortiguadores viscosos a una estructura puede elevar el amortiguamiento de la estructura a un 30 % del amortiguamiento crítico o más. Por consiguiente, esta adición puede reducir las aceleraciones y desplazamientos laterales por un 50% respecto a la estructura sin amortiguadores (Constantinou y Symans, 1992). Ecuación de balance de energía Ei=Ek+Es+Ea+Ed Donde: Ei= Energía de entrada por el sismo Ek= Energía cinética Es= Energía de deformación elástica Ea= Energía de amortiguamiento Ed= Energía de deformación inelástica o ductilidad



METODOLOGÍA

Metodología de la investigación Estudio del estado del arte: Ecuación de movimiento armónico con amortiguamiento Disipación de energía Disipadores viscosos Macheo de acelerogramas Obtención del espectro de diseño símico utilizando el programa SACID de la Ciudad de México. Búsqueda y obtención de 7 acelerogramas de magnitud mayor a 6.5 Diseño de 3 modelos estructurales en el software SAP2000 v22, de 5, 7 y 9 niveles. Revisión de las distorsiones de cada edificio para cada uno de los 7 acelerogramas Diseño del disipador sísmico de fluido viscoso Modelado de los edificios con disipadores en SAP2000 v22 Resultados


CONCLUSIONES

Conclusión Las distorsiones que se presentaron para cada uno de los sismos deben ser controladas por el disipador viscoso que resulte del diseño. Se debe revisar el diseño de los modelos ya que las secciones son robustas. Una vez que tengamos el modelo adecuado se revisarán de nuevo las distorsiones, estas distorsiones deberán ser controladas en un porcentaje por el disipador de fluido viscoso. Las distorsiones obtenidas por medio del análisis dinámico en los modelos, fueron menores a la distorsión máxima que exige la Norma Técnica Complementaria de la Ciudad de México 2017, resultado de un correcto dimensionamiento de las secciones para los elementos estructurales.
Hernandez Clemente Maria Jose, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Esp. Ana María Aristizábal Montoya, Universidad Católica de Oriente

DISEñO Y VALIDACIóN DE UNA GUíA EDUCATIVA PARA LA ALIMENTACIóN SALUDABLE DE LOS ADULTOS MAYORES


DISEñO Y VALIDACIóN DE UNA GUíA EDUCATIVA PARA LA ALIMENTACIóN SALUDABLE DE LOS ADULTOS MAYORES

Hernandez Clemente Maria Jose, Instituto Tecnológico de Tuxtla Gutiérrez. May Olan Amarilis, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Esp. Ana María Aristizábal Montoya, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

Las personas en la etapa de vida a partir de los 60 años o más son consideradas adultos mayores (Ministerio de Salud y Protección Social, 2018a) este grupo etario es de suma importancia debido al incremento de las expectativas de vida y las proyecciones de envejecimiento de la población (Albala, 2020). De acuerdo con las cifras de la Organización Mundial de la Salud (OMS, 2018) se espera que en el año 2050 la población adulta alcance los 2000 millones de personas mayores de 60 años y 365 millones de personas con 80 años o más.   La vejez se relaciona con el deterioro biológico, morfológico y fisiológico que conlleva el aumento de diversas afecciones que desmejoran las condiciones de salud del adulto mayor, sumado a factores de orden genéticos y psicosociales. (Salech & Jara, 2012, Medina, 2011). La pérdida del apetito, ingesta inadecuada de frutas y vegetales, reducida exposición a la luz solar así como la actividad física escasa, se convierten en las principales causales de las deficiencias nutricionales que pueden desencadenar problemas de salud o acentuar los síntomas de otros padecimientos.   Por lo que es importante aumentar en la dieta la ingesta de nutrientes de los cuales se evidencia un déficit durante la edad adulta mayor y que son esenciales para mantener un óptimo estado de salud (Somoza, 2017).   Con el diseño de esta guía se busca presentar hábitos alimentarios que contribuyan al mejoramiento del estilo de  vida de los adultos mayores con ideas sobre alimentos y preparaciones que pueden ingerir fácilmente y que a su vez aportan nutrientes clave como proteína, fibra, minerales y vitaminas que contribuyen a cubrir los  requerimientos nutricionales diarios.  



METODOLOGÍA

El proyecto de diseño y validación de una guía educativa para la alimentación saludable de los adultos mayores seguirá la siguiente metodología, una revisión de la literatura para recolección de la información relevante, consolidación de la  información, diseño del material educativo y del instrumento para la evaluación por parte los cuidadores y expertos, presentación al comité de ética junto con el consentimiento informado para la participación en la evaluación y recolección de la información de manera virtual, análisis de los resultados para determinar el índice de Validez del contenido (CVI) (Yusoff, 2019) los expertos calificaran la guía de acuerdo con una escala de relevancia definida (1 no es relevante a 4 altamente relevante), cada uno de los ítems contemplados en el instrumento, para un número entre 7 y 9 expertos el valor será 0,78, con las observaciones y sugerencias recibidas se realizará el ajuste de la guía y se procederá a la elaboración de un artículo con los resultados de la validación.  


CONCLUSIONES

La guía educativa para la alimentación saludable de los adultos mayores fue evaluada y validada en su contenido y pertinencia, dicho proceso convocó a profesionales en la temática y cuidadores de los adultos mayores. Para la construcción del material educativo fue necesaria la búsqueda de información, revisión y diseño del material. Las recomendaciones de los evaluadores fueron tenidas en cuenta para la versión final de la guía. El proyecto de diseño y validación de una guía para la alimentación saludable de los adultos mayores puede considerarse pertinente e innovador al contribuir al Objetivo del Desarrollo Sostenible (ODS) 3 Salud y bienestar que busca garantizar una vida saludable y promover el bienestar en este grupo poblacional. 
Hernandez Espinoza Valentin, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo

REALIDAD AUMENTADA PARA EL APRENDIZAJE SIGNIFICATIVO EN ALUMNOS CON DISLEXIA EN EL COLEGIO MÍ DIVINO NIÑO DE JESÚS GUADALUPANO


REALIDAD AUMENTADA PARA EL APRENDIZAJE SIGNIFICATIVO EN ALUMNOS CON DISLEXIA EN EL COLEGIO MÍ DIVINO NIÑO DE JESÚS GUADALUPANO

Hernandez Espinoza Valentin, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

"Estudios realizados a nivel mundial señalan que la dislexia afecta a la población entre un 5 y 15 %.[...]" (UNL Noticias, 2013). Actualmente la dificultad del aprendizaje en infantes, mayormente se debe a un trastorno de aprendizaje denominado dislexia causada naturalmente de origen genético y neurológico se manifiesta por las dificultades en el lenguaje receptivo y expresivo incluido la lectura, escritura, ortografía y caligrafía. Analizando los problemas y/o dificultades que presentan los estudiantes con dislexia se debe a métodos de enseñanza tradicionales impartidos por la mayoría de escuelas son poco efectivos suele suceder que la mayoría de sus padres no lo saben e incluso llegan a pensar que es desinterés por escuela, por otro lado los padres que saben que sus hijos presentan ese problema no saben a qué escuela pueden llevar a sus hijos debido a que casi no hay escuelas que garanticen enseñar a sujetos con este trastorno además este tipo de escuelas es de un costo monetario elevado de colegiaturas que obviamente no es accesible para muchos. En la presente investigacion se analizara si la realidad aumentada contribuye al aprendizaje significativo en los estudiantes con dislexia.



METODOLOGÍA

La Investigación Aplicada tiene por objetivo resolver un determinado problema o planteamiento específico, enfocándose en la búsqueda y consolidación del conocimiento para su aplicación y, por ende, para el enriquecimiento del desarrollo cultural y científico (Bibliotecas Duoc UC, 2018), este tipo de investigación es punto fundamental que llevo a obtener resultados positivos en la tesis que abordaremos durante el presente artículo de autor García (2020). Dentro de los procedimientos, se destacan 2 variables las cuales son realidad aumentada como variable independiente y Aprendizaje significativo variable dependiente. En el artículo Realidad Aumentada: Una revolución educativa elaborado por Villacé (2016) en este articulo se destaca las principales caracteristicas que posee esta tecnologia hablando en el ambito formativo y educativo, podiendola usar en casi cualquier tipo de materia y grado academico asi como tambien permite al profesor introducir o mostrar los contenidos de manera mas lucida y atractiva, dicho lo anterior la realidad aumentada es una eleccion viable para desarrollar aplicativos y tratar a los alumnos con dislexia. Por mencionar un segundo articulo cientifico El potencial de la realidad aumentada en la enseñanza de español como lengua extranjera elaborado por Bolado (2016), donde destaca el potencial  de la realidad aumentada para la educacion especificamente en la enseñanza de lenguas estranjeras dando un punto de vista critico positivo hacida dicha herramienta con un gran potencial para adentrarla a un ecosistema educativo. Por otro lado el aprendizaje significativo se define como: El aprendizaje significativo es el proceso por el que se relaciona la nueva  información  con  algún  elemento  ya  existente  en  la  estructura cognitiva del sujeto y relevante para el material que se intenta aprender. En el memorístico, en cambio, la nueva información queda aislada y se almacena de forma arbitraria (Huamán & Solano Cencia, 2019) Partiendo de lo anterior, el aprendizaje significativo es el método de enseñanza clave que aunado de la realidad virtual trabajando conjuntamente se obtienen resultados favorables en la rama de educación. El motivo de la presente investigación es corroborar si efectivamente la realidad aumentada puede apoyar en el proceso de aprendizaje en estudiantes con dislexia en un rango seleccionado de edad de los 7 a 13 años. El proceso de pruebas de García que realizo en el colegio Mi Divino Niño de Jesús Guadalupano fueron test o cuestionarios para registrar los resultados en 3 indicadores los cuales son velocidad lectora, comprensión lectora y el rendimiento lector. Tomando como población a 40 alumnos con dislexia en un rango de edades de 7 a 13 años mismos que se dividieron en dos muestras. Utilizando así el diseño cuasi-experimental para las muestras. La primera muestra denominada muestra de control con 20 alumnos, la segunda muestra experimental con 20 alumnos. Primeramente se aplicó un pre-test a los 40 alumnos tomados como población el pre-test constaba de una lectura para de la misma responder a 100 con lo cual se obtuvieron los primeros valores para cada alumno de los 3 indicadores. Posteriormente se entrenó con la realidad aumentada a los alumnos que conformaban la muestra experimental para después aplicar nuevamente un test ahora llamado pos-test a los 40 alumnos  de esta manera observar si realmente al utilizar la realidad aumentada en la muestra de alumnos experimental obtenía mejores valores en los indicadores que la muestra de control.


CONCLUSIONES

Finalmente menciona García (2020) a través de los resultados cuantitativos que se obtuvieron fueron bastante favorables resaltando así: Para la velocidad lectora hubo un incremento en 37 palabras leídas por minuto siendo que los resultados en el pre-test son de 79 palabras por minuto mientras que en el pos-test arrojo un resultado de 116 palabras por minuto Para el rendimiento lector hubo un incremento en 49.9%  siendo que los resultados en el pre-test son de 43.55% mientras que en el pos-test arrojo un resultado de 87.55% Para la comprensión lectora hubo un incremento en 18.75%  siendo que los resultados en el pre-test son de 56.25% mientras que en el pos-test arrojo un resultado de 75% Entonces el uso de la realidad aumentada para la enseñanza a alumnos con dislexia en el Colegio Mi Divino Niño de Jesús Guadalupano tiene una influencia positiva en el aprendizaje significativo. A modo de cierre mediante la utilización de la realidad aumentada es posible hacer aplicativos a la medida que sigan un método de aprendizaje correcto previamente evaluado para resolver una problemática en específico, hablando educacionalmente se pueden crear diversos software que ayuden a desarrollar las competencias educativas de los estudiantes especialmente a los estudiantes que tengan algún problema de aprendizaje ayudando en gran magnitud a su formación académica. Para agregar; durante el verano de investigación se logró adquirir conocimientos teóricos y prácticos acerca del uso y manejo de la realidad virtual con ello creando bases sólidas de conocimiento para futuros proyectos que contribuirán principalmente a mejorar la manera de educar.
Hernández González Miguel Angel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

ENERGY HARVESTING FOR WIRELESS SENSOR NETWORK (EH – WSNS): AN OVERVIEW.


ENERGY HARVESTING FOR WIRELESS SENSOR NETWORK (EH – WSNS): AN OVERVIEW.

Hernández González Miguel Angel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

Las redes de sensores inalámbricas conforman actualmente una pieza clave en los avances tecnológicos más destacados, además de su enorme utilidad en diversas áreas, por ejemplo: su aplicación en el cuidado de la salud, en la seguridad y vigilancia, en la preservación del medio ambiente, la optimización de los procesos industriales, entre otras cosas. En general, es uno de los pilares de la IoT (Internet of Things). Si bien, por si solas las redes de sensores inalámbricas (WSN) brindan información única y de alto valor, presentan una condición que denota un límite de esta tecnología y es la eficiencia energética. Esto, a su vez, ha llevado a una gran cantidad de investigaciones de diversas índoles, con el objetivo de erradicar esta cuestión, conduciendo a avances en la arquitectura hardware en los nodos, o bien, el diseño de baterías más adecuadas y la correcta gestión de energía. Es por esto, que surgen las EHWSN (Redes de Sensores Inalámbricas con Recolectores de Energía). Que son el resultado de adaptar a los nodos internos de las WSN  la capacidad de obtener energía de su entorno. De esta manera se puede pensar en tener sistemas de EHWSN que trabajen de manera indefinida y constante.



METODOLOGÍA

Se realizó una investigación inicial de los conceptos básicos del tema. Apartir de esto, se hizo un planteamiento de los puntos de interes, así como una estructura general del proyecto.  Posterior a esto, se realizo las investigación más a fondo, siguiendo la estructura del proyecto. Para todo el proceso de investigación se utilizaron como fuentes de información libros, artículos publicados en revistas o congresos, entre otros.


CONCLUSIONES

La estancia de verano me dio la oportunidad de ampliar mis conocimientos en un tema de gran desarrollo, como lo es estudiar las EH-WSN. Las EH-WSN son en la actualidad un tema de suma importancia en distintas ramas de la industria. Da la posibilidad de optimizar procesos, asi como también, abre un nuevo camino a obtener información que antes tomaba mucho tiempo o sencillamente no era posible acceder.  Es importante mencionar, las númerosas técnicas de recolección de energía con las cuales se puede trabajar, entre ellas se encuentran: la eólica, la acústica, la bioquimica, de radiofrecuencia, etc.  Cada una de estasa técnicas, cuenta con sus propias caracteristicas que las hacen más aptas para ciertos entornos y ambientes. Por esto, se debe de hacer un análisis y poder determinar cual resulta ser más conveniente aplicar.
Hernández Hernández Abril Odette, Instituto Politécnico Nacional
Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso

APLICACIóN DE SISTEMA DE POSICIONAMIENTO GLOBAL PARA CARRETERAS (SPGC)


APLICACIóN DE SISTEMA DE POSICIONAMIENTO GLOBAL PARA CARRETERAS (SPGC)

Hernández Hernández Abril Odette, Instituto Politécnico Nacional. Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

Actualmente en México existen sitios a los que no se puede llegar directamente o que es muy tardado llegar; y hay carreteras que se encuentran en mal estado, ya sea por desastres naturales, deterioro por antigüedad, estas condiciones pueden provocar accidentes automovilísticos y perdidas de vida. El objetivo de esta investigación es conocer el proceso para realizar el estudio del proyecto para un puente sustentable.



METODOLOGÍA

A lo largo del verano, se desarrollaron los principios de como ubicar una carretera, comenzando por el conocimiento de las Coordenadas UTM, en la cual se desarrolló una investigación para saber que son, cuáles son sus elementos y en que se basa cada uno de ellos para que con ello con existiera duda de donde se obtenía cada elemento siguiente. Se investigó y se dieron ejemplos de las coordenadas al igual de como calcular un Azimut y las proyecciones de un terreno.   Se utilizó el software AutoCad Civil 3D, y en él se visualizó el espacio con el que trabajaría, de acuerdo a las coordenadas UTM que nos proporciona el mismo programa; para tener una mejor certeza acerca de los cálculos de la ubicación del lugar a desarrollar, se utilizaron los siguientes programas:   Google Earth: con el fin de tener coordenadas geografía con mayor precisión que posteriormente serian convertidas a coordenadas UTM. Mapa de la INEGI: con el cual de obtuvo una carta topográfica exacta del lugar en donde se trabajaría.


CONCLUSIONES

Durante mi estancia virtual en el verano, aprendí que no solo es tener conocimientos básicos de algunos temas, hay que desarrollar mejor cada tema visto en la escuela y en la investigación. El Maestro Lucio Estrada, estuvo apoyándome y dándome herramientas que me ayudaron desarrollar el proyecto de esta estancia. Con lo aprendido espero tener mejor visión en los futuros proyectos, al igual que implementarlo en el ámbito escolar.
Hernandez Hernandez Maria de los Angeles, Instituto Tecnológico Superior de Las Choapas
Asesor: M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas

REPRESENTACIÓN DE DOMINIO DE SITIOS DE INTERÉS TURÍSTICO PARA LA ZONA COATZACOALCOS VERACRUZ.


REPRESENTACIÓN DE DOMINIO DE SITIOS DE INTERÉS TURÍSTICO PARA LA ZONA COATZACOALCOS VERACRUZ.

Hernandez Hernandez Maria de los Angeles, Instituto Tecnológico Superior de Las Choapas. Asesor: M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La Web Semántica es definida como una extensión de la web actual, también conocida como Web Sintáctica y es considerada un conjunto de actividades desarrolladas en el seno de World Wide Web Consortium o (W3C) con la tendencia a crear tecnologías para publicar datos legibles por aplicaciones informáticas. Se basa en la idea de añadir metadatos semánticos y ontológicos a la world wide web. Esa información adicional describe el contenido, el significado y la relación de los datos, además, esta se debe proporcionar de manera formal, para que así sea posible evaluarlas automáticamente por máquinas de procesamiento. El planteamiento del proyecto esta orientado a diseñar y construir un modelo ontológico que nos permita mejorar la gestión del conocimiento existente sobre los lugares turísticos en la región de Coatzacoalcos, Veracruz. Con este tipo de desarrollos se facilitar la búsqueda y obtención de información por parte de los sistemas y aplicaciones informáticas.



METODOLOGÍA

Para iniciar con el desarrollo de la ontología como en todo proyecto el primer proceso que se utilizo fue la recopilación de información de los sitios de mayor interés por los turistas en la región. Una vez que se obtuvo la información necesaria como los horarios, las ubicaciones, los costos, los servicios que se ofrecen en cada lugar, y las diferentes formas de pago en los sitios de interés de la región se procedió con la identificación de clases, subclases e individuos y posteriormente se procedió con la clasificación de manera ordenada de acuerdo con la jerarquía de clases identificada durante el análisis del dominio. Después de haber ordenado nuestra información de manera correcta, el siguiente proceso fue iniciar con el proceso de construcción del modelo ontológico utilizando la herramienta de edición ontológica protégé.  Para esto se inicio cargando las clases respetando el orden jerárquico de cada clase y estableciendo las relaciones entre ellas. Así mismo, se establecieron las propiedades de objeto y de dato que previamente habían sido identificadas. Para cada una de estas propiedades se establecieron el dominio y rango. Una vez construido todo esto, se prosiguió a lo que llamamos poblado de la ontología y que consiste en agregar individuos como instancias de cada clase. Una vez que se tiene el modelo construido, es necesario realizar una validación de la ontología, lo cual se logra a través de consultas al modelo utilizando el lenguaje SPARQL.


CONCLUSIONES

Durante la estancia de verano virtual se logró adquirir nuevos conocimientos teóricos de lo que es la web semántica y como se utiliza esta tecnología dentro de la web, también se llevó a cabo la parte práctica en donde se realizó el diseño de un modelo ontológico construyéndolo con apoyo de la herramienta de edición ontológica Protégé, la cual fue desarrollada por un grupo de trabajo de la universidad de Stanford. El punto principal de la representación de la información es generar bases de conocimiento de dominios específicos que permitan almacenar, extraer y gestionar conocimiento existente, además que facilite la inferencia de conocimiento nuevo. Por lo cual el trabajo desarrollado durante la estancia virtual apoya la gestión de conocimiento del sector turístico de nuestra región mediante la aportación de un modelo ontológico de los sitios de interés de Coatzacoalcos, Veracruz.
Hernández Jiménez Héctor Roberto, Instituto Politécnico Nacional
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

SISTEMA DE DETECCIóN DE LETRAS MEDIANTE SENSORES ANáLOGOS CON REDES NEURONALES


SISTEMA DE DETECCIóN DE LETRAS MEDIANTE SENSORES ANáLOGOS CON REDES NEURONALES

Hernández Jiménez Héctor Roberto, Instituto Politécnico Nacional. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las personas con discapacidades auditivas pueden generar varios problemas a la manera de comunicarse con otras personas que no conocen las formas con la que estas personas se comunican.  La mayor problemática es que al momento de enfrentarse con la sociedad se les dificulte por la misma razón de que muchas personas desconocen o no están familiarizados con tal lenguaje.  El problema que se buscó resolver fue el de identificar que tipo de letra está haciendo una persona que usa el lenguaje sordo-mudo para comunicarse. Para esto se usó un sistema electrónico y redes neuronales para resolver el problema. La solución a esto puede mejorar la inclusión de las personas al comunicarse, que por alguna discapacidad, tengan que recurrir a usar el lenguaje sordo-mudo. 



METODOLOGÍA

Se usó un exoesqueleto impreso en 3D que se adapta con la mano derecha del ser humano dependiendo del tamaño de la mano. Este exoesqueleto contiene 6 sensores análogos que se conectaron a una tarjeta de desarrollo(Arduino) para el monitoreo y registro de las señales que mandaban los sensores. Estos valores eran de tipo entero en un rango de 0-1023. Los datos se registraron en una base de datos en formato .CVS  Para la obtención de datos se usaron a 3 personas de las cuales hicieron cada una de las letras en el lenguaje sordo-mud. Las características del dataset son las siguientes: Características del dataset: Tipo: La entrada será numérica de tipo entero, y los valores estarán en un rango de 0-1023   Formato: El formato será de tipo CSV Tamaño: Serán 780 muestras tomadas o sea que a cada letra se le registrara 10 veces con 3 personas para cuando se entrene, valide y se pruebe la red neuronal Fuente: Las muestras se harán por mí    Al terminar de registrarse los datos, se programó una red neuronal perceptrón multicapa en la plataforma de Google Colab basado en el lenguaje de programación de Python. Las características del modelo fueron las siguientes: Capa de entrada: 6 Neuronas 1° capa oculta: 25 neuronas  2° capa oculta: 25 neuronas  Capa de salida: 26 neuronas Learning_Rate: 0.0001 Optimizador: Adam Finalizando la construcción del programa de la red perceptrón multicapa se distribuyeron los datos para empezar a entrenar,validar y probar la red neuronal Se jugaron con las características del modelo y la distribución de datos, los problemas que más se presentaron fue el sobre entrenamiento de la red, lo que ocasiona la mala clasificación de las letras al momento de probar la red  La distribución de datos fue la siguiente: Entrenamiento: Se tomaron las 5 primeras muestras de cada letra de cada persona Validación: Se tomaron las siguientes 3 muestras de cada letra de cada persona  Prueba: Se tomaron los restantes dos muestras de cada letra de cada persona


CONCLUSIONES

Esta red neuronal lanzó buenos resultados de entrenamiento y validación. Se puede concluir que se pudieron clasificar correctamente el 46% de los datos de prueba. Estos resultados son muy prometedores y buenos a pesar de la cantidad de datos con los que se entrenó y validó.   Los resultados fueron los siguientes  Accuracy  VALIDATION ACCURACY MAX: 0.5341880321502686  ACCURACY TRAIN MAX: 0.6615384817123413 Entrenamiento VALIDATION LOSS MIN: 1.5928069353103638  LOSS MIN: 1.2924988269805908 Esta red todavía puede mejorar al aumentar la cantidad de datos para que entrene, a demás seguir experimentando cambiando el modelo de la red neuronal y su learning_rate Durante la estancia se logró adquirir conocimientos teóricos y prácticos de lo que son las redes neuronales y a ponerlas en práctica con distintos modelos. Esta investigación le faltó más tiempo para poder recabar muchos más datos para el mejoramiento total de la red neuronal pero a pesar de eso los resultados fueron muy buenos.       
Hernández Juárez Brenda Beatriz, Tecnológico de Estudios Superiores de Chicoloapan
Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo

DISEñO DE UNA PALA DE AEROGENERADOR DE PEQUEñA POTENCIA


DISEñO DE UNA PALA DE AEROGENERADOR DE PEQUEñA POTENCIA

Hernández Juárez Brenda Beatriz, Tecnológico de Estudios Superiores de Chicoloapan. Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo



PLANTEAMIENTO DEL PROBLEMA

En Santo Domingo Tehuantepec, Oaxaca se realizó un estudio del recurso eólico del año 2018, los datos se obtuvieron de la estación meteorológica del Centro Regional de Tecnología Eólica (CERTE), ubicado en La Ventosa, municipio de Juchitán de Zaragoza, Oaxaca para conocer las condiciones óptimas del recurso. Se obtuvo la velocidad media del viento y con ella la velocidad nominal, con la cual se realizará el dimensionamiento de la pala, la velocidad nominal es de 7.42 m/s a 20 metros de altura, con esta velocidad se procede a realizar el diseño del aerogenerador para que pueda resistir las condiciones eólicas del sitio de instalación.



METODOLOGÍA

Un criterio para la selección del perfil aerodinámico a utilizar en el diseño es la máxima relación (Cl/Cd): Para esto se analizaron en el programa QBlade los perfiles aerodinámicos NACA 4412, NACA 4415, NACA 4418, NACA 4421 y se determinaron los valores de los coeficientes de sustentación (Cl), arrastre (Cd), momento (Cm) y Cl/Cd en un rango de número de Reynolds (Re=200000-500000). Se procedió a promediar los valores de Cl, Cd, Cm y Cl/Cd y se determinó la máxima relación  Cl/Cd de cada perfil. Otro criterio para la selección del perfil fue el descenso de Cl: El comportamiento de la sustentación del perfil en comparación al coeficiente de potencia del rotor, suelen tener la misma tendencia, el cual se refleja en la curva de potencia del aerogenerador. Por ello, este criterio se basa en el comportamiento del descenso de Cl, que a su vez está en relación a la sustentación máxima (Clmáx). La literatura menciona que la caída brusca de sustentación 3° antes del ángulo de ataque máximo α_stall y un descenso de sustentación mayor al 55% provoca fuertes vibraciones en las palas. Asimismo, indica que la caída de sustentación debe ser de forma gradual (descenso< 25 %). Sin embargo, para el caso del Istmo de Tehuantepec no es recomendable, debido a las ráfagas de viento que caracteriza la región, donde este tipo de régimen de viento puede ocasionar el embalamiento del rotor, y por ende dañar al generador. Por estas razones, se recomienda que el descenso debe mantenerse en un rango de 25% a 55% para que el sistema al entrar en pérdida aerodinámica. Una vez seleccionado el perfil se procede aplicar la metodología propuesta para el dimensionado de la pala basada en la teoría del Método del Elemento de la Pala (BEM) el cual se encuentra en un código de programación. El diseño del modelo en SolidWork con el código genera los perfiles ya escalados a cada cuerda y se procede a insertar los perfiles en SolidWorks como curva XYZ, teniendo los 18 perfiles insertados se unen con líneas spline, seleccionando la vista en alzado, se recubre la pieza obteniendo la pala.  


CONCLUSIONES

En el verano científico en línea, adquirir conocimientos específicos sobre como evaluar el recurso eólico, y de cómo generar el diseño de las palas para aerogenerador, así como los programas que hay como herramientas para en análisis de los perfiles aerodinámicos como QBlade, y de cómo hacer el análisis de la evaluación de los perfiles, como la relación de Cl/Cd.  Logre diseñar la pala en SolidWorks, realizar el análisis de los perfiles, más sin en cambio no pude realizar mi propia programación para obtener la geometría de diseño de la pala, tuve problemas con las velocidades de los sitios que seleccione, pero finalmente pude realizar el diseño con éxito.  Disfrute mucho participar con el maestro José Rafael, y lo siguiente para mi es especializarme en esta área de conocimiento y generar mi propio programa en Matlab con condiciones diferentes de diseño y aspiro a la maestría con mi investigador.  
Hernández López Bruno, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Esp. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica

CIUDADES INTELIGENTES: MONITOREO DE SISTEMAS FOTOVOLTAICOS


CIUDADES INTELIGENTES: MONITOREO DE SISTEMAS FOTOVOLTAICOS

Gil Apastillar Eduardo José, Instituto Tecnológico Superior de Apatzingán. Hernández López Bruno, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Esp. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

Las ciudades inteligentes apuntan a que en el futuro su energía sea generada totalmente por energías renovables, una de ellas está basada en la obtención de energía por medio de los rayos solares por medio de sistemas fotovoltaicos, estos sistemas brindan la oportunidad que la generación de la energía puedan ser realizadas por cada habitante o comunidad de habitantes de una ciudad. Al momento en que suceda esto, existe la necesidad de crear un sistema de monitoreo que pueda brindar información tanto de la generación eléctrica, como el consumo eléctrico que se está teniendo para tener un control ordenado de la red eléctrica de las ciudades. Cuando se tenga el monitoreo de los diferentes sistemas, se alimentará por medio de los diversos dispositivos conectados, a una base de datos que servirá para generar una red eléctrica inteligente, y a partir de ello poder realizar tomas de decisiones, predicciones e incluso control sobre algunos elementos de consumo que se tengan en cada ciudad. Al analizar las posibilidades que puede ofrecer el sistema de monitoreo de sistemas fotovoltaicos, se plantea en la investigación la pregunta de, ¿puede un dispositivo de monitoreo ser de utilidad para brindar información confiable, rápida y precisa acerca de la producción y consumo energético de sistemas fotovoltaicos?   



METODOLOGÍA

Esta investigación se basa en el tipo de investigación de desarrollo tecnológico ya que se aprovechan conocimientos existentes en los campos tecnológicos actuales. Posteriormente se empieza a desarrollar el dispositivo de monitoreo a partir de la información recopilada y se hacen pruebas a un prototipo modular para comprobar la viabilidad de la tecnología que se desea desarrollar.      Esta investigación también corresponde a un enfoque cuantitativo debido a que el dispositivo de monitoreo presenta variables numéricas cuyos resultados son numéricos y pueden ser graficados, además de que es posible realizar comparativas entre los datos obtenidos con la finalidad de generar informes e indicadores que ayuden a generar una red de datos que permitan realizar tomas de decisiones e incluso predicciones a partir de ellos. Para el desarrollo de la metodología, lo primero que se realizó fue el análisis de los parámetros a monitorear en un sistema fotovoltaico, para obtener los parámetros a monitorear. Posteriormente, se efectúa la obtención de datos del sistema fotovoltaico por medio de distintos sensores, los cuales pasarán por un proceso de calibración, para que se asegure que las medidas obtenidas sean reales, precisas y por ello, confiables, ya que de lo contrario no podrían realizarse decisiones o predicciones basados en resultados que podrían ser incorrectos. Finalmente, se establece un análisis de la tecnología a usar para la transmisión de los datos, haciendo una comparación entre las tecnologías existentes y obteniendo a partir de ello, la tecnología que más se adecúe a la implementación de la tecnología que se encuentra realizando.  


CONCLUSIONES

En esta investigación se presenta una propuesta para implementar un dispositivo de monitoreo para un sistema fotovoltaico, con el propósito que se generen datos, información e indicadores representativos que puedan ayudar a que los usuarios y las ciudades, puedan tomar decisiones basadas en los datos obtenidos y que, una vez se conecten a una misma red varios dispositivos, pueda formarse una red eléctrica inteligente. Dicho dispositivo está determinado por la adquisición de datos, la calibración de ellos y la transmisión de manera remota utilizando la tecnología adecuada para asegurar que los datos del sistema fotovoltaico se transmiten de forma efectiva logrando realizar la transmisión remota de los datos.   Para poder llegar a la primera versión de este dispositivo se realizaron ciertos pasos, algunos dentro de un sistema modular y otros más de forma documental que sirvieron para que se planteara un camino, el cuál indicará el paso para realizar la versión final, por lo que dentro de lo realizado se encuentra: Análisis de parámetros a monitorear en un sistema fotovoltaico. Obtención de datos por medio de sensores. Calibración de sensores para parámetros elementales Análisis de la tecnología de transmisión de datos a usar en el dispositivo de monitoreo Una vez que se conjuntan todos estos elementos, se obtiene el elemento de dispositivo de monitoreo, el cual, al juntarse a otros dispositivos serán de utilidad para la generación de redes eléctricas inteligentes Los dispositivos de monitoreo generarán una forma eficiente de gestión de la electricidad que, a partir de la interpretación de los datos pueda ser implementada en las ciudades inteligentes como ayuda en la búsqueda que las ciudades puedan tener una red eléctrica capaz de integrar el comportamiento de los usuarios conectados a ella y pueda proporcionar un suministro de electricidad seguro, económico y sostenible consiguiendo que las ciudades sean asentamientos humanos inclusivos, seguros y resilientes.
Hernandez Mejia Suleima, Instituto Tecnológico de Toluca
Asesor: Mg. Diana Carolina Martínez Torres, Fundación Universitaria Colombo Internacional

LAS TIC EN LAS INDUSTRIAS CREATIVAS


LAS TIC EN LAS INDUSTRIAS CREATIVAS

Hernandez Mejia Suleima, Instituto Tecnológico de Toluca. Asesor: Mg. Diana Carolina Martínez Torres, Fundación Universitaria Colombo Internacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente la situación que radica en nuestros alrededores en cuestiones culturales es muy escasa, no todas las personas tienen mentalidad de emprender sobre algún servicio o producto pues es un poco más difícil vender los productos que se elaboran de manera artesanal por escases de publicidad en el mercado o simplemente por falta de cultura, dado que en muchas ocasiones se desconoce de la existencia de cierto producto o servicio que se proporciona. Normalmente las personas estamos acostumbradas a consumir lo que se promociona o simplemente su forma de alcance es más fácil y sencilla, ahorrando tiempo y en muchas ocasiones dinero. La forma en que las industrias creativas extraen renta de su trabajo es a través de la explotación tanto laboral como de la propiedad intelectual y por esto es difícil llevar acabo el emprendimiento para las personas porque los recursos con los que se cuenta no son suficientes o existen muchos impedimentos hasta llevar al fracaso. La búsqueda de una nueva industrialización ha llevado a que las industrias creativas a través del emprendimiento se amplíen y con ayuda de las TIC se facilite su desarrollo permitiendo mayor trabajo con menor esfuerzo y mayor propiedad intelectual en el mercado. Con la aplicación de las TIC en las industrias creativas se permite racionalizar y modernizar la concepción de la producción cultural e informacional. Las TIC en el emprendimiento a través de las industrias creativas permiten la apertura de mercados a nivel global gracias a las ecommerce (mercados electrónicos), así mismo nuevos modelos de negocio y una fácil relación con los clientes sin necesidad de tener contacto físico, una automatización que beneficia los procesos de producción y de venta al igual que de adquisición reduciendo costos; información precisa de nuestro mercado.



METODOLOGÍA

El presente proyecto es de tipo descriptivo teniendo en cuenta que se realiza un análisis de las herramientas TIC con potencial de implementación para áreas las de marketing y comercial en industrias creativas. El proyecto sigue una ruta que incluye la identificación y posterior caracterización de las herramientas TIC aplicables para industrias creativas a partir de fuentes de información secundarias, así como el desarrollo de un modelo de implementación de herramientas TIC focalizado en estas áreas estratégicas de este tipo de industrias. A través de la formulación de una base de datos en Excel, se permite tener una búsqueda más sencilla y una clasificación de las herramientas TIC que tengan mayor impacto en el área comercial y en el área de marketing dentro de las industrias creativas; se requiere conocer la siguiente información:  Fecha de búsqueda Nombre de la herramienta Descripción Enlace o fuente de información de donde se obtuvo Que impacto presenta, en el área de marketing o en el área comercial Es gratuita o de paga Posteriormente se prosigue a identificar en cual de las clasificaciones de las industrias creativas (artes y patrimonio, industrias culturales; creaciones funcionales, nuevos medios y software de contenidos) se tendrá aplicación de la herramienta. Permitiendo el desarrollo de la actividad a través de sus beneficios y características que nos ofrece la herramienta seleccionada.


CONCLUSIONES

A través de la base de datos formulada en Excel se obtuvieron herramientas TIC que son de gran impacto en el área de marketing y en el área comercial para las industrias creativas. De las herramientas seleccionadas, la mayoría cuenta con una versión gratuita y una fácil adquisición para su uso en los diferentes dispositivos móviles, tabletas y Pc; así mismo ofreciendo características que permiten emprender un nuevo negocio ya sea desde uno pequeño hasta uno grande, de igual manera permitiendo crecer a todo productor, creador y vendedor que se encuentran ya dentro del proceso de emprendimiento. A través de la tecnología se cuenta con los medios suficientes para llevar a cabo las actividades, conforme a las necesidades y requerimientos de las industrias creativas; la innovación tecnológica genera un aumento de conocimientos para poder innovar el desarrollo de nuevos productos o servicios que posiblemente antes se desconocían, así mismo aplicar mejoras tanto en la producción como en las ventas de una forma más económica y efectiva.
Hernández Ortega Alejandro, Instituto Tecnológico de Jiquilpan
Asesor: Dra. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas

MODELO ONTOLóGICO DE RESTAURANTES EN LA ZONA METROPOLITANA DE ZAMORA - JACONA, MICHOACáN DE OCAMPO, MéXICO.


MODELO ONTOLóGICO DE RESTAURANTES EN LA ZONA METROPOLITANA DE ZAMORA - JACONA, MICHOACáN DE OCAMPO, MéXICO.

Hernández Ortega Alejandro, Instituto Tecnológico de Jiquilpan. Asesor: Dra. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

A lo largo del tiempo se ha presentado en todos los sistemas de información lo que normalmente se le conoce como serendipia, es decir, estar en busca de un concepto, lugar o cosa y encontrarse como resultante algo inesperado, algo que simplemente no encaja con lo que principalmente estábamos buscando. Particularmente, en el comercio, se presentan comúnmente estos casos al momento de llegar a algún lugar que usualmente no transitamos y querer buscar algún restaurante cuyo nombre es bastante particular. Como resultado podemos obtener diferentes respuestas dependiendo de cómo realicemos nuestra búsqueda, si preguntamos el nombre del restaurante a una persona quizá esa persona asocia la palabra con algún otro lugar y nos pueda dar indicaciones erróneas. Si buscamos en algún buscador web posiblemente encontremos de igual manera información que no se encuentra asociada a lo que principalmente queremos obtener, por ejemplo, al buscar el restaurante de nombre serendipia lo más seguro es que nos encontremos con la definición a detalle de la palabra serendipia que incluso un restaurante que lleve ese nombre, se tiene entonces un problema de ambigüedad. La única solución disponible para estos casos es describir de una manera mucho más detallada la búsqueda, pasar de una búsqueda simple serendipia a algo más amplio y estructurado restaurante serendipia cerca de Zamora de Hidalgo en Michoacán lo cual repercute en la pérdida de tiempo del usuario y el posible desagrado del mismo tendiendo a no querer volver a realizar búsquedas con el sistema utilizado. En la zona metropolitana de la región de Zamora - Jacona, en el estado de Michoacán de Ocampo, México, se busca realizar una estructuración de búsqueda de información simplificada para el usuario final, es decir, tratar de disminuir los casos de posible serendipia que pueda ocurrir durante el proceso de búsqueda de información. El dominio a representar es concretamente los restaurantes de la zona, es decir, todos los comercios que cumplan con las características de un restaurante podrán ser organizados para realizar una simplificación de búsqueda. La propuesta de solución al problema planteado anteriormente es llevar a cabo el desarrollo de una ontología, concretamente, un modelo ontológico que cumpla con el dominio especificado. Para la elaboración de este modelo se utilizará la herramienta digital llamada Protégé cuyo objetivo es realizar un buen modelo ontológico de una manera simple y amigable con el usuario.



METODOLOGÍA

La ontología desarrollada a lo largo del verano científico virtual fue una ontología de dominio, es decir, describe un entorno relacionado con un dominio en particular en este caso el dominio de restaurantes de la Zona Metropolitana de Zamora-Jacona. Se hizo uso de una herramienta digital de nombre protégé para la realización de la ontología de una manera sencilla y gráfica. Como primer paso se comenzó a desarrollar la taxonomía inicial, es decir, las clases que conformarían nuestra ontología, como punto de partida a partir de que se conocía el dominio desde un principio, se estableció la clase principal como Comercio. Esta clase comercio tendrá subclases descendientes que compartirán ciertas. Una vez identificadas todas las clases descendientes de la clase principal comercio, se comenzó a identificar las subclases de cada una de las clases hijas de comercio, esto con el objetivo de afinar y estructurar de una mejor manera nuestra ontología. Se ha generado la clase restaurante la cual compartirá propiedades del resto de las clases hermanas. Dentro de la clase restaurante se desglosan dos clases importantes las cuales le dan una mayor identificación al restaurante final. Como tercer paso, todas las clases y subclases se comenzó a visualizar las posibles propiedades de datos (Data properties) de cada instancia de clase. Como cuarto paso, teniendo ya bien definidas las propiedades de datos de las instancias de cada una de las clases se comienza a definir las propiedades de objeto (Object properties) las cuales tiene como propósito definir una relación entre clases. Como último paso, se definen las reglas que darán sentido a algunas propiedades de objeto, estas reglas se escriben en el lenguaje SPARQL. Dentro de todas las ontologías es posible que se encuentren ciertas reglas para optimizar ciertos procesos. Un ejemplo simple es el caso de la regla llamada Es compañero de la cual permite identificar cuales empleados son compañeros debido a que trabajan para el mismo jefe.


CONCLUSIONES

En conclusión, los sistemas optimizados gracias a las ontologías pueden llegar a ayudar bastante al usuario final brinda no solo ahorro de tiempo sino también otorgar resultados concretos y sin pasar por errores del tipo serendipias. La realización de este proyecto deja como una gran enseñanza lo que el futuro puede ofrecer si se llegase a realizar una completa estructuración de toda la información que se encuentra en la web, dando como resultado una web semántica en la cual todos los usuarios que utilizan esta gran herramienta puedan obtener beneficios únicos y jamás antes vistos. A pesar de las grandes ventajas que una ontología a gran escala puede ofrecer, aún cuenta con algunas desventajas que detienen la elaboración de una web semántica estable y es que debido a la grandísima cantidad de información existente en toda la red se es muy complicado la elaboración de esta dando como consecuente una gran inversión de dinero la cual quizá no se esté dispuesta a realizar. El modelo ontológico presentado en este proyecto se realizó correctamente dando como resultante una ontología que se puede reutilizar y mejorar en el futuro por cualquier usuario que desee hacerlo, como propósito a mejorar en este proyecto se estableció realizar una interfaz gráfica multiplataforma que pueda ser utilizada por todos. La mejor opción para el desarrollo de este propósito es el desarrollo de una aplicación web desarrollada con HTML, CSS, JAVASCRIPT y PHP.
Hernández Quesada Oscar Ricardo, Universidad Autónoma del Estado de México
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DISEñO Y DESARROLLO DE UN DRON VIRTUAL PARA REALIDAD AUMENTADA EN EL MARCO DE LA MECATRóNICA EDUCATIVA.


DISEñO Y DESARROLLO DE UN DRON VIRTUAL PARA REALIDAD AUMENTADA EN EL MARCO DE LA MECATRóNICA EDUCATIVA.

Hernández Quesada Oscar Ricardo, Universidad Autónoma del Estado de México. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Una nueva etapa en la industria 4.0 entrada la tercera década del siglo XXI, da un nuevo hincapié de las tan llamadas fábricas inteligentes, donde se plantea la interconexión entre máquinas y sistemas, con el fin de los cambios tecnologías, modifique el enfoque del perfil industrial, permitiendo así el borrar las barreras entre las parte física y la digital, generando así una función de los planos y cambiando el paradigma. Hoy en día el uso de la RA en la industria 4.0, abarca distintos sectores como lo es entrenamiento en la formación para el trabajo, el diseño para la inspección de prototipos y su infección virtual, para la manufactura como ayuda de control de calidad y un  monitoreo constante. Siendo así el presente proyecto que conlleva al fin de promover desde un punto de vista el aprendizaje de la mecatrónica y la robótica, utilizando así las nuevas tecnologías, donde el enfoque primordial es la realidad aumentada. Creando así un modelo de un Dron, el cual podrá ser utilizado desde cualquier dispositivo móvil, lo cual permitirá ser un simulador de vuelo, donde el usuario interactuara e interpretara el marco de la mecatrónica educativa a partir de información.



METODOLOGÍA

Se realiza la investigación del modelo a desarrollar, planteando el entendimiento de la realidad aumentada, con base a la mecatrónica educativa y el internet de las cosas como el desarrollo del presente proyecto, el objeto seleccionado (un dron), el cual sería el modelo a crear donde se mostrara los distintos componentes del mismo, desde la carcasa, el tren de aterrizaje, motores, hélices y cámara. Posteriormente, se desarrolla la temática de diseño, se modelada en Solid Works, se importación a Unity. Posteriormente desarrollo del código desde la función deseada en el caso de los botones las principales características son la presión que se ejerce en ellos, el funcionamiento de encendido y apagado o movimientos en ejes Z y X, además de mantener las relaciones en cuanto a causa-efecto. Para el desarrollo de la interface de usuario se desarrolla la interface de usuario, la cual está al contacto directo del usuario, en la distribución de los botones se comprendió el cómo lo entendería el usuario. Las pruebas de la RA en la aplicación llevan a cabo una variedad de pruebas con la aplicación buscando las mejoras en los movimientos. Finalmente se implementa la metodología de mecatrónica educativa: como metodología a par del proyecto se plantea los procesos de enseñanza-aprendizaje desde la perspectiva educativa, donde se crea un pensamiento de medio y no de fin. La principal idea es generar riqueza intelectual, en este caso desde la parte de un simulador el cual apoye el aprendizaje activo de un objeto virtual.


CONCLUSIONES

La finalidad del proyecto, fue el desarrollar un método de interacción con modelos virtuales, enfocado a la simulación, como si se tratara de encontrase en un laboratorio de pruebas, pero con la propuesta de llevarlo a todos lados en un dispositivo móvil, siendo así una ventaja de comprender el funcionamiento del Dron, además de esta manera se puede interactuar con las tecnologías 4.0, en este caso la Realidad Aumentada, lo que se espera con la interacción y el entendimiento de los principales conceptos teóricos, dando así un pensamiento crítico y analítico, donde los modelos matemáticos del funcionamiento del Dron se comprenda a ese grado. Con la mecatrónica educativa se mantiene los procesos de enseñanza, pero con la integración del aprendizaje por curiosidad en el usuario, así desarrollando un aprendizaje como fin generar riqueza intelectual.     
Hernández Retana Luis Fernando, Instituto Tecnológico de Toluca
Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo

CóDIGO QR: INTERACCIóN SOCIAL DIGITAL PARA LA SEGURIDAD SANITARIA DE LOS USUARIOS EN EL EMPORIO TEXTIL DE GAMARRA EN EL DISTRITO DE LA VICTORIA, LIMA – PERú, 2020.


CóDIGO QR: INTERACCIóN SOCIAL DIGITAL PARA LA SEGURIDAD SANITARIA DE LOS USUARIOS EN EL EMPORIO TEXTIL DE GAMARRA EN EL DISTRITO DE LA VICTORIA, LIMA – PERú, 2020.

Hernández Retana Luis Fernando, Instituto Tecnológico de Toluca. Roque Gutiérrez Ariadna Joselinne, Instituto Tecnológico de Toluca. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

Gamarra es considerado el emporio comercial textil más grande de Latinoamérica, dado que recibe entre 300 y 500 mil clientes por día (INEI, 2019) según la publicación Características de las Empresas del Emporio Comercial de Gamarra. Además, Gamarra, cuenta con más de 5000 edificios o predios divididos por galerías y actualmente con la pandemia del COVID 19, el departamento de Lima Perú cuenta con aproximadamente 167,571 contagios, siendo Gamarra el segundo paradero más vulnerable para la transmisión de COVID-19, con un porcentaje del 25.33% en casos positivos. Con ello, la problemática que se visualizó es que cuando una persona visita Gamarra, tiene que entrar a las galerías, caminar de un lado a otro hasta encontrar los productos que necesita, por lo que actualmente con la pandemia, se convierte en uno de los focos de infección ya que existe una alta densidad de usuarios afectando así en el cumplimiento de protocolos, entre más tiempo pasen los usuarios en Gamarra, existe más probabilidad de contagio. Además, en dicho tiempo de estadía conlleva a las personas a buscar una fuente de alimentación dentro de las calles de Gamarra, ya sea en puestos ambulantes o en restaurantes, donde cientos de personas podrían tocar el mismo menú que sería pasado de comensal en comensal y sin tener el conocimiento de si se están siguiendo las medidas sanitarias necesarias para salvaguardar la integridad de los clientes.



METODOLOGÍA

El proyecto que se presentó es una aplicación móvil de realidad aumentada, donde el usuario al visitar Gamarra enfoca un código QR establecido en una calle, avenida o edificio y la app muestra información específica de las tiendas (nombre, artículos que vende, rangos de precio) ayudando a realizar de manera rápida sus compras, yendo al lugar específico y su tiempo de visita en Gamarra no sea prolongada. La investigación está basada en la metodología cuantitativa, detectando el porcentaje de personas con celular y accesibilidad a internet, teniendo como resultado que el 82% de la población peruana de más de 6 años tiene un teléfono móvil con WiFi, según el informe del Instituto Nacional de Estadística e Informática (INEI) elaborado en base a la Encuesta Nacional de Hogares (ENAHO) del 4° trimestre del 2018 en el Perú. Con esto tenemos claro que la mayoría de la población tiene acceso seguro a un smartphone reduciendo uno de los mayores riesgos del proyecto, el cual es que una persona no tuviera celular pues es la principal herramienta para poner en práctica el proyecto, se espera que la aplicación pueda trabajar sin internet teniendo un base de datos interna. Con los datos que nos han sido proporcionados tanto de los residentes de la Ciudad de Lima como los obtenidos en la investigación, sabemos que existen varios establecimientos registrados que se dedican al sector alimenticio, restaurantes y fondas, sin embargo también existe un alto número de vendedores ambulantes, por lo que es alta probabilidad de contagio de manera indirecta, al tocar superficies contaminadas como menús o cartas de los establecimientos, las investigaciones e información difundida indican que una superficie puede permanecer contaminada hasta por 9 días si no se hace su correcta desinfección y dada la concurrencia de personas en Gamarra se duda de la desinfección posterior a cada uso de las cartas o menús, por ello también se la app escanea otros códigos QR posicionados en las mesas de los restaurantes para evitar el contacto directo con los menús y ayudar a la disminución del uso de papelería por parte de los negocios pues al actualizar los menús bastaría con cambiar el menú en la app lo que evitaría gastos a largo plazo en papelería. Se plantea en un futuro realizar la solicitud de orden de comida y el pago de esta mediante la misma app para así disminuir la exposición de las personas a superficies contaminadas y a personas sospechosas de contagio. Aunado a esto el brindar dichos servicios hará que internamente se pueda llevar el registro de varios aspectos sanitarios, esto logrado con la recopilación de la metadata que cada usuario proporcione a la app mediante el uso de la misma, dentro de los parámetros que se obtendrán estará el seguimiento de personas y registro de concurrencia en los restaurantes con lo que se podrá mantener un registro de las personas que se encuentran en un mismo establecimiento y al compararlo con el aforo del mismo se pueda mandar alertas a las autoridades de si en algún lugar no hacen cumplimiento de las medidas sanitarias, la aplicación al recabar estos datos podrá dar un panorama de cuántas personas asisten diariamente a cada establecimiento de comida para tener un control de la aglomeración de las personas.


CONCLUSIONES

Una vez realizadas las investigaciones pertinentes y en base a los resultados, se considera que el proyecto es factible de realizar, esto porque actualmente vivimos en un mundo amenazado por el COVID-19, por ello se optó por sacar provecho de todos los servicios, como tecnológicos y móviles, ya que como se sabe, la aplicación móvil evitará que la gente que visite Gamarra pase demasiado tiempo ahí y así tratar de evitar más la propagación o contagio del virus, si bien la aplicación es básica se espera que en algún momento pueda volverse más dinámica y divertida para los usuarios. Además, ofrece una nueva manera de interactuar entre los restaurantes y los comensales para incorporarse a la nueva normalidad, se optó por dicha modalidad ya que el uso de smartphones cada día es más habitual entre los habitantes de Gamarra, por ello hace que el uso de dispositivos móviles y aplicaciones digitales sea la opción idónea para dar solución a la mayoría de las problemáticas por las cuales pasa hoy en día el emporio Textil de Gamarra. El trabajar con colegas de diferentes áreas ayuda a vislumbrar un contexto panorámico de las problemáticas y las posibles soluciones el cual se vio plasmado con las propuestas conjuntas realizadas en el verano de investigación científica y tecnológica. Finalmente podemos mencionar que pueden existir maneras para implementar gráficamente el código QR.
Hernández Rodríguez Miguel Adrián, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

NIVEL DE DAÑO POR CORROSION EN PUERTOS MEXICANOS VARIABLE: HUMEDAD RELATIVA


NIVEL DE DAÑO POR CORROSION EN PUERTOS MEXICANOS VARIABLE: HUMEDAD RELATIVA

Hernández Rodríguez Miguel Adrián, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La corrosión se define como el deterioro de un material a consecuencia de un ataque electroquímico por su entorno. De manera más general, puede entenderse como la tendencia general que tienen los materiales a buscar su forma de mayor estabilidad o de menor energía interna. Siempre que la corrosión esté originada por una reacción electroquímica (oxidación), la velocidad a la que tiene lugar dependerá en alguna medida de la temperatura, de la salinidad del fluido en contacto con el metal y de las propiedades de los metales en cuestión. Otros materiales no metálicos también sufren corrosión mediante otros mecanismos. El proceso de corrosión es natural. La corrosión es una reacción química (oxido-reducción) en la que intervienen tres factores: la pieza manufacturada, el ambiente y el agua, o por medio de una reacción electroquímica. Los factores más conocidos son las alteraciones químicas de los metales a causa del aire, como la herrumbre del hierro y el acero o la formación de pátina verde en el cobre y sus aleaciones (bronce, latón). En este caso se Analizará el nivel de corrosión en 5 puertos marítimos de México, los cuales se mencionan a continuación: -Guaymas -Tampico -Manzanillo -Lázaro cárdenas -Salina Cruz Para dicho análisis se tomarán en cuenta 5 aspectos fundamentales; humedad relativa, tipo de carga movilizada y salinidad del agua, se buscará información de artículos publicados previamente y se determinará si alguna de estas variables tiene que ver con el nivel de corrosión o es la calidad del material la que determina este aspecto.



METODOLOGÍA

La siguiente grafica es una comparación entre el nivel de daño tipo 1 entre los 5 puertos, con nivel 1 se refiere a que se realizaron estudios en la zona de pilotes y se encontro que tanto el acero como el conreto de los mismos debe ser reparado en su totalidad.   En la siguiente Grafica se muestran estudios de los 5 puertos y lo curioso es que como en la grafica pasada se encontraron pilotes con avanzado nivel de corrosión pero de igual manera se encontraron pilotes en perfecto estado, es decir sin un nivel de corrosion detectable. En primera estancia es la calidad del material o concreto utilizado ya que este debe ser un concreto permeable de alta densidad, es decir que sus poros esten sellados para evitar el paso de cloruros hacia el acero y que este se consuma con el paso del tiempo poniendo en risego la seguridad estructural de dichos puertos y muchismas personas, otra variable muy importante a considerar y en la cual nos vamos a enfocar es la de humedad relativa ya que el ambiente al contener cierto porcentaje de agua u humedad afecta directamente a los aceros si los concretos son de baja calidad. HUMEDAD RELATIVA La humedad relativa (RH) es la relación entre la presión parcial del vapor de agua y la presión de vapor de equilibrio del agua a una temperatura dada. La humedad relativa depende de la temperatura y la presión del sistema de interés. La misma cantidad de vapor de agua produce una mayor humedad relativa en el aire frío que en el aire caliente. Un parámetro relacionado es el del punto de rocío. Un higrómetro es un dispositivo utilizado para medir la humedad del aire.        


CONCLUSIONES

El estudio y monitoreo de los puertos es de suma importancia para la vida util y seguridad de los mismos, se deben establecer inspecciones periodicas y tener una supervisión esticta a la hora de su construccion, esto con el fin de evitar que se empleen materiales o concretos de mal calidad que puedan poner en riesgo la obra y que ocasionen su detrrioro en muy poco tiempo
Hernandez Roque Isabel Anahi, Universidad Autónoma de Nayarit
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

INVESTIGACIóN DE META DATOS COVID-19


INVESTIGACIóN DE META DATOS COVID-19

Hernandez Roque Isabel Anahi, Universidad Autónoma de Nayarit. Lizama Ramirez José Candelario, Universidad Autónoma de Nayarit. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Según la OMS (Organización Mundial de la Salud) los coronavirus son una extensa familia de virus, algunos de los cuales pueden ser causa de diversas enfermedades humanas, que van desde el resfriado común hasta el SRAS (síndrome respiratorio agudo severo). Los virus de esta familia también pueden causar varias enfermedades en los animales. El coronavirus SARS-Cov-2 conocido como COVID-19 es un virus que se ha extendido por todo el mundo provocando una pandemia, apareciendo principalmente en China, después se extendió afectando mayormente a Europa y América dejando en considerable riesgo a personas mayores, embarazadas y aquellas con enfermedades crónicas o degenerativas como hipertensión, diabetes, cáncer, etc. Este virus causa síntomas que van desde fiebre, dolor de cabeza y articulaciones, impedimento para respirar y dolor de garganta con dificultades previas en personas con enfermedades adicionales, es decir comorbilidades, en México las afecciones comórbidas con mayor presencia son la hipertensión, obesidad, diabetes y tabaquismo. La mayor problemática que se ha presentado hasta ahora es erradicar este virus y por lo tanto los esfuerzo para encontrar la cura se intensifican cada vez más llevando medicamentos y fármacos a ser usados como posibles soluciones para la disminución de síntomas o resultados positivos en pacientes en etapas iniciales mientras llega una vacuna que elimine por completo este virus.



METODOLOGÍA

Se realizaron diversas investigaciones en las que incluyen propagación y cifras del COVID-19, posibles vacunas y fármacos como soluciones al problema además de las comorbilidades que presentan la mayoría de los pacientes, casos acumulados y activos y las defunciones que ha tenido la república Mexicana durante la pandemia así como posibles soluciones médicas.  Según los reportes de la Secretaría de Salud del Gobierno de México, la distribución por sexo en los casos confirmados muestra un predomino del 53.12% en hombres mientras que un 46.88% en mujeres. La mediana de edad en general es de 44 años.  Las cinco entidades con el mayor número de casos acumulados distribuidos por entidad de residencia son: Ciudad de México, Estado de México, Guanajuato, Tabasco y Veracruz, que en conjunto forman el 43.2% de todos los casos registrados en el País, a la última fecha de actualización, del total de defunciones confirmadas: 43% de los casos padecían hipertensión, 37% diabetes, 25% obesidad,  y 8% tabaquismo, mientras que un 27% de las defunciones no tenían ningún padecimiento. La lista de enfermedades subyacentes que aumentan el riesgo de enfermarse gravemente a causa del COVID-19 se actualizó con base en informes, artículos de prensa, borradores sin revisión y datos internos disponibles entre el 1 de diciembre del 2019 y el 10 de julio del 2020. Esta lista es un documento dinámico que puede ser actualizado periódicamente por los CDC (Centros para el Control y la Prevención de Enfermedades), y que puede cambiar rápidamente a medida que evoluciona la ciencia. Enfermarse gravemente a causa del COVID-19 implica por definición: hospitalización, admisión a una UCI, intubación o asistencia respiratoria mecánica, o muerte, todo esto con el fin de tener una clara comparativa de lo que se está realizando estratégicamente en México y en otros países donde sus cifras han disminuido relativamente. Mientras tanto el uso de algunos fármacos en pacientes gravemente enfermos ha sido de gran ayuda, por mencionar algunos como es la Dexametasona y el Remdisivir medicamentos que han sido utilizados contra el ébola y medidas antiinflamatorias, sin embargo el uso de estos medicamentos no combaten por completo el virus por lo que son solamente suministrados en pacientes antes mencionados que de alguna manera les ayuda a disminuir los síntomas y el daños que causa al sistema inmunitario del cuerpo mientras trata de combatir el coronavirus, sin saber futuros trastornos que podrían causar  al tener un fin distinto, por otro lado las investigaciones por obtener una vacuna a finales de este año o más pronto posible que termine por controlar el virus, se han intensificado, estudios desarrollados por el laboratorio francés Sanofi-Pasteur que prometen soluciones efectivas al tener una vacuna en etapa tres de la cual son partícipes una gran cantidad de personas voluntarias de diferentes países del cual México se encuentra involucrado esperando tener una respuesta positiva para dar acceso a esta misma a todos los habitantes.


CONCLUSIONES

Durante la estancia de verano se obtuvo conocimiento teórico de este nuevo coronavirus SARS-Cov-2 que  se ha extendido por todo el mundo, aprendizajes como son, cifras de comorbilidades,  infectados, pruebas realizadas, defunciones, rangos de edades con mayor número de contagios, etc; a escala nacional e internacional permitiéndonos tener una clara comparativa y saber sobre los procesos que llevan a cabo para evitar la mayor propagación del virus así como los posibles fármacos que  suministran a  los pacientes infectados sin embargo al ser una enfermedad nueva nos deja muchas dudas por delante que serán resueltas sobre la marcha  de soluciones al tema, por otro lado las intensificadas luchas por encontrar una vacuna como cura a este virus cada vez está más cerca teniendo medicamentos en fases 3 es decir  que se encuentran en la medición de eficacia a gran escala lo que permite medir las dosis adecuadas, los medios de administración, la comparación con otros medicamentos ya en uso y la interacción con los mismos todo esto con el fin de corroborar los datos obtenido de los dataset que se utilizaron como referencia de las páginas de estudios primarios. Referencias OMS. (2020). Covid-19. agosto,10,2020, de Organización Mundial de la Salud Sitio web: https://www.who.int/es/emergencies/diseases/novel-coronavirus-2019/advice-for-public/q-a-coronaviruses Secretaria de Salud. (2020). Datos de covid. agosto,10,2020, de salud Sitio web: https://www.gob.mx/salud CDC. (2020). Personas con mayor riesgo. agosto 5, 2020, de Centro para el control de enfermedades Sitio web: https://espanol.cdc.gov/coronavirus/2019-ncov/need-extra-precautions/index.html
Hernandez Rueda Victor Manuel, Instituto Tecnológico Superior de Libres
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

GESTIóN AMBIENTAL PARA LA AGENDA 2030: PLAN MUNICIPAL DE DESARROLLO SAN RAFAEL, VERACRUZ, MéXICO


GESTIóN AMBIENTAL PARA LA AGENDA 2030: PLAN MUNICIPAL DE DESARROLLO SAN RAFAEL, VERACRUZ, MéXICO

Hernandez Rueda Victor Manuel, Instituto Tecnológico Superior de Libres. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Introducción: La Gestión Ambiental, es el conjunto de actos normativos y materiales que buscan una ordenación del ambiente, que van desde la formulación de la política ambiental hasta la realización de acciones materiales que tienen ese propósito, En los últimos cincuenta años, la gestión ambiental en México se ha venido transformando de manera importante, ya que, de ser parcial, sectorizada y dispersa, antes de la década del setenta del siglo anterior, paulatinamente está en camino de adquirir un carácter integral, descentralizado y participación de la sociedad civil. Objetivo General: Determinar los componentes de la Gestión Ambiental comparando los Planes de Desarrollo Municipal (PDM) de San Rafael, Veracruz, administraciones 2011 - 2013 y 2014 - 2017, a fin de evaluar estrategias y líneas de acción con la Agenda de los Objetivos para el Desarrollo Sustentable ODS - 2030.



METODOLOGÍA

Metodología: En esta primera fase del diagnóstico se realizó una información deductiva acorde al acopio de información bibliográfica, especializada, y análisis, así como entrevistas con especialistas en el área.


CONCLUSIONES

Resultados: Estudio comparativo considerando los factores sociales, económicos, y ambientales, evaluándose a través de un código de semaforización, acorde al nivel de desempeño de la administración, respecto a obras y proyectos en materia de ambiente y saneamiento. Conclusiones: Técnicamente, se  integra el PMD en tiempo y forma, Económicamente, gestión de recursos económicos a través de expedientes y proyectos ejecutivos,  Político, la voluntad política de los funcionarios que integran en campaña las necesidades de obras e infraestructura en sectores poblacionales, Jurídico, existe poca difusión y conocimiento de códigos y reglamentos, Ambiental satisfacer las demandas en abastecimiento de agua potable, drenaje, y pavimentación, Social, se hace primordial la participación y desarrollo comunitario para integrar proyectos y programas con la autoridad, para la Sustentabilidad Municipal.
Hernandez Salazar Adrian Raúl, Instituto Tecnológico Superior de Libres
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DISEñO ELECTRóNICO DE UN COMPOSTERO DOMéSTICO INTELIGENTE


DISEñO ELECTRóNICO DE UN COMPOSTERO DOMéSTICO INTELIGENTE

Hernandez Salazar Adrian Raúl, Instituto Tecnológico Superior de Libres. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto se encuentra dirigido al reciclaje de residuos, alternativa necesaria ya que afecta al ecosistema, debido a su contenido suelo y aire. Siendo así preocupación de la sociedad ya que contribuye a la contaminación, incitando a la Universidad de Guadalajara la posibilidad de crear un nuevo prototipo como un composteo domestico mediante la separación de residuos como cascara de frutas entre otros alimentos ya que es un producto que abarca la demanda de muchos mercados, cuya materia prima está presente en todas las actividades cotidianas de nuestro entorno. Este proyecto tiene como objetivo plantear el diseño de un composteo domestico obteniéndose como producto final una composta doméstica. Está orientado desde el punto de vista de las diferentes unidades de operación que abarcan el proceso; desde la manipulación de materias primas teniéndose en cuenta, el diseño, la implantación y la programación de ella llegando a una obtención del producto final. Por último, es necesario decir, que, como apoyo para el desarrollo de este proyecto, se ha hecho consulta de datos documentados, así como un estudio de fabricación para poder realizar un presupuesto de la puesta en marcha de este diseño, incluyendo un análisis posterior al funcionamiento del composteo para realizar dichos procesos con la composta



METODOLOGÍA

Este documento tiene como propósito dar a conocer el funcionamiento general del sistema del “Prototipo de un compostador de uso doméstico automatizado con Arduino” El compostador se lleva a cabo la realización de sensores, cuales es el sensor de temperatura DS18B20, Monitorear continuamente la temperatura. Si la temperatura excede a los 70 °C, se activará Si la temperatura es menor a 55 °C y está activo, apagarlo. El sensor de humedad FC-28 Monitorear continuamente la humedad. Si la humedad está por debajo del 40%, activar el programa. Si la humedad está por encima del 65%, se activará el ventilador para disminuir la humedad. Y el sensor de oxígeno, Monitorear la salida de oxigeno sobre la sistema. Ya que este proceso se debe tomar en cuenta los factores físicos, y será observado por una pantalla LCD. Tomando en cuenta para el uso del software de la placa Arduino, Otros dispositivos electrónicos que se usaran para controlar los mecanismos automatizados en prototipo deberán de obtener el control para activar y desactivar los mecanismos


CONCLUSIONES

La estancia del verano se llegó adquirir conocimientos de la parte mecánica y eléctrica, la ayuda de programas para el fortalecimiento y la utilización del sistema donde se pueden integrar más componentes electrónicos para mejorar el proceso de composta,
Hernandez Santoyo Ricardo, Instituto Tecnológico Superior de Apatzingán
Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz

VISIBILIDAD E INVESTIGACIONES DE UNIVERSIDADES COLOMBIANAS DESDE UN ENFOQUE SEMáNTICO


VISIBILIDAD E INVESTIGACIONES DE UNIVERSIDADES COLOMBIANAS DESDE UN ENFOQUE SEMáNTICO

Hernandez Santoyo Ricardo, Instituto Tecnológico Superior de Apatzingán. Asesor: Dra. Cecilia Avila Garzon, Fundación Universitaria Konrad Lorenz



PLANTEAMIENTO DEL PROBLEMA

Llegar proveer un sitio web que permita publicar información sobre la visibilidad en las universidades colombianas desde un enfoque semántico. Lo información que se planea mostrar en el sitio web es en relación a datos de las universidades como de sus redes sociales, investigaciones realizadas y su nivel de contribución con respecto de cada universidad colombiana en la publicación de artículos científicos.



METODOLOGÍA

La metodología aplicada en el desarrollo de este proyecto de investigación fue la siguiente: 1.- Fase de Analís y requerimientos En esta fase se trabajó la elaboración de la lista de requerimientos dada por el investigador a cargo, descripción de los actores y la elaboración del diagrama de casos de uso. 2-. Fase de diseño del sitio web En esta fase se trabajó en la elaboración del modelo de datos para el sitio web y la elaboración de los mockups del sitio web. Fase 3.- desarrollo del sitio web En esta fase primeramente se definieron las tecnologías para el desarrollo del sitio web que fueron: HTML5, CSS3, Boostrap4, PHP, JQPlot y javascript para el manejo de las gráficas. Después se trabajó en el desarrollo del módulo de administrador, desarrollo del módulo de información y por último el desarrollo del módulo de reportes. Fase 4.- Pruebas En esta fase se trabajó en realizar pruebas de implementación y funcionamiento del sitio web.


CONCLUSIONES

Los resultados obtenidos son principalmente el desarrollo y funcionamiento casi completo del sitio web, ya que por falta de tiempo no se alcanzó a implementar correctamente el módulo de reportes debido a que aún no se tenían correctamente definidos los datos a presentar en las gráficas y, además, falto la elaboración e implementación de la ontología para el perfil de las universidades. en un futuro cercano se espera poder completar estas implementaciones faltantes y llagar a subir el sitio web a internet para este disponible al público. Acontinuacion dejo un enlace que muestra mas a detalle el resumen del proyecto y los resultados obtenidos. https://drive.google.com/file/d/1kc_IqFqO-nnvqS_8tt-Udt9gn2OJb3b-/view?usp=sharing
Hernandez Valdez Uriel, Universidad Autónoma de Guerrero
Asesor: Mg. Adriana Isabel Ruiz López, Universidad Cooperativa de Colombia

RECUPERACIÓN DE LA BIODIVERSIDAD PARA EL DESARROLLO SOSTENIBLE


RECUPERACIÓN DE LA BIODIVERSIDAD PARA EL DESARROLLO SOSTENIBLE

Hernandez Valdez Uriel, Universidad Autónoma de Guerrero. Asesor: Mg. Adriana Isabel Ruiz López, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

En las zonas del piedemonte de Colombia existen crecientes amenazas de origen antrópico asociadas con los asentamientos humanos y su dinámica sociopolítica y económica. El paisaje ha sufrido múltiples impactos durante la última década se han perdido grandes zonas de bosque, para transformar dichas áreas en su mayoría en pastizales, vegetación secundaria, superficies agrícolas heterogéneas y arbustales, entre otros. (WCS, 2007) (Rodríguez) El piedemonte llanero surge como una de las regiones de mayor relevancia debido a sus altos niveles de transformación, al incesante asentamiento de grupos humanos en la región y al gran número de bienes y servicios eco sistémicos que se obtienen de los ecosistemas de la región. La importancia de estos lugares en términos de conservación y planeación territorial es enorme, pues gracias a que son lugares de transición entre las montañas y las planicies que las rodean, presentan una riqueza biológica inigualable. (GLOSARIO AMBIENTAL, 2018)



METODOLOGÍA

Estudio descriptivo analítico de la biodiversidad a partir de la revisión documental de estudios y de información de una subregión del piedemonte llanero - meta - Colombia. Dentro del estudio descriptivo se obtuvieron los siguientes datos: Biodiversidad el término por el que se hace referencia a la amplia variedad de seres vivos sobre la tierra y los patrones naturales que conforman, resultado de miles de millones de años de evolución según procesos naturales y también de la influencia creciente de las actividades del ser humano (GLOSARIO AMBIENTAL, 2018) Según HERNÁNDEZ (2013), La biodiversidad de la región es muy elevada se puede estimar la presencia de unas 150 especies de mamíferos, 600 especies de aves, cerca de 100 especies de reptiles, unas 50 especies de anfibios, más de 500 especies de peces y unas 3000 especies de plantas vasculares     El terreno ubicado en la base de la vertiente oriental de la cordillera Oriental, conocido como el piedemonte llanero, es una estrecha franja ubicada entre los 500 Y 700 msnm, que tiene un clima típicamente llanero, con temperaturas medias de 23 a 30 ºC y un régimen de lluvias biestacional con 3.000 a 4.000 mm de precipitación anual. (LA ORINOQUIA DE COLOMBIA , 2005) Colombia es uno de los países con mayor biodiversidad en el mundo, cuenta con 54.871especies registradas en la infraestructura mundial de información sobre biodiversidad. (Sistema de Información sobre Biodiversidad en Colombia , 2015) IDENTIFICACIÓN DE LOS ECOSISTEMAS QUE COMPRENDE LA BIODIVERSIDAD DEL TERRITORIO EN EL PIEDEMONTE LLANERO - META - COLOMBIA En la región hay 15 especies de mamíferos que han sido catalogados como amenazados. Ellos son el oso palmero , murciélago espectral mico de noche , mono araña o marimonda, churuco, danta , cajuche o pecarí , nutria , oso de anteojos , tigre o jaguar, león o puma. Varias de estas especies ya están prácticamente extinguidas a nivel local, sobre todo la danta, el cajuche y el mono araña. (HERNANDEZ, 2013) Entre las especies de flora amenazadas se cuentan la Begonia, Pitcairnia macarenensis , el quiche , el zarcillejo , el cedro  y algunas orquídeas. (HERNANDEZ, 2013) ESTRATEGIAS DE DESARROLLO SOSTENIBLE PARA LA RECUPERACIÓN DEL TERRITORIO EN EL PIEDEMONTE LLANERO - META - COLOMBIA CORREDORES BIOLÓGICOS Los corredores biológicos surgen como un mecanismo que procura brindar mayor viabilidad a la conservación y aprovechamiento sostenible de los recursos naturales y el medio ambiente. Es un mosaico de ecosistemas entre áreas naturales protegidas en donde: Se conserva la biodiversidad y agrodiversidad al interior del corredor. Se mantienen las relaciones ecológicas entre las áreas naturales protegidas en los extremos del corredor, al nivel de ecosistemas, especies y genes. (CONABIO) INFRAESTRUCTURA VERDE En la actualidad es cada vez más difícil concebir el desarrollo de una ciudad sin la planificación y consiguiente inversión e implementación de infraestructura verde (IV) que cumpla algunas de las funciones ya mencionadas u otras diferentes, o mejor aún, que ofrezca al mismo tiempo varias de estas funciones vitales para las ciudades.


CONCLUSIONES

La conservación y recuperación de los ecosistemas terrestres son de gran importancia, para desarrollar un proyecto de construcción urbana sostenible, por esto es de vital importancia tomar en cuenta el impacto ambiental generado en el desarrollo del crecimiento urbanístico y la infraestructura vial y las posibles soluciones que puedan proporcionase a dichas afectaciones. •El reconocimiento de la importancia de la conservación de la biodiversidad •Estrategias para implementar el desarrollo sostenible •Promover el cuidado de las especies de un ecosistema •Posibles soluciones al impacto ambiental debido a la urbanización
Hernández Vargas Evelyn, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo

ANáLISIS DEL RECURSO EóLICO EN TEPEXI DE RODRíGUEZ, PUEBLA.


ANáLISIS DEL RECURSO EóLICO EN TEPEXI DE RODRíGUEZ, PUEBLA.

Hernández Vargas Evelyn, Benemérita Universidad Autónoma de Puebla. Huerta Laguna Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda energética actual y las condiciones ambientales que paulatinamente se degradan, han causado que la humanidad ponga su atención en diferentes alternativas de generar energía que sean mucho menos perniciosas al medio ambiente y que por supuesto, puedan competir con los métodos convencionales.  Actualmente, los recursos más dominantes para el suministro mundial de energía son el petróleo crudo, el carbón y el gas. Sin embargo, la energía eólica se ha vuelto más atractiva recientemente debido a sus características ambientales, sociales y económicas que responden al cambio climático. Como se sabe, la energía eólica es una fuente de energía renovable que no contamina, es inagotable y reduce el uso de combustibles fósiles, mismos que son el origen de las emisiones de Gases de Efecto Invernadero (GEI) que causan el calentamiento global. Además, la energía eólica es una energía autóctona, disponible prácticamente en la totalidad del planeta, lo que contribuye a reducir las importaciones energéticas y a crear riqueza y empleo de forma local. Por todo ello, la producción de electricidad mediante esta fuente renovable y su uso de forma eficiente contribuyen al desarrollo sostenible. Incrementar la capacidad instalada en energía eólica debe ser un tema prioritario para el gobierno de cualquier país. En el presente trabajo se presenta el análisis del recurso eólico de Tepexi de Rodríguez, Puebla con la finalidad de evaluar el potencial del sitio para la instalación de un parque eólico o la instalación de aerogeneradores de baja potencia para uso residencial. Se utilizó la base de datos del Atlas Eólico México y con ayuda de MATLAB se realizó el análisis de datos del recurso eólico. Se obtuvieron datos tales como el perfil vertical del viento, la rosa de los vientos, la distribución de Weibull, entre otros.



METODOLOGÍA

Datos meteorológicos Para propósitos de este trabajo, el recurso disponible en el municipio de Tepexi se evalúo mediante el acceso a una base de datos que reúne 49,348 mediciones de velocidad y dirección del viento a 80 m del suelo, de enero a diciembre del 2019. Dichos datos se incorporaron en el análisis del recurso eólico que incluye el tratamiento de los datos utilizando herramientas computaciones para medidas de las velocidades del viento, dirección del viento, distribución de probabilidad de Weibull, rosa de los vientos, variación de la velocidad de viento con la altura y la rugosidad del terreno. Velocidad y dirección del viento Los vientos con mayor velocidad corresponden con una altura de 80m y con elperiodo de noviembre-abril, siendo los meses de enero, marzo y abril los que presentan mayores velocidades de viento. Por otra parte, en la rosa de los vientos se observa que la distribución de vientos predominantes proviene del noroeste (N, NO, NNO). Perfil vertical de viento El perfil del viento permite conocer el comportamiento de la velocidad del viento con respecto a la altura sobre el nivel del suelo. Este se fundamenta en la ley logarítmica 𝑈(𝑧)∝𝐼𝑛(𝑧/𝑧0) y la ley de potencia, 𝑈(𝑧)∝𝑧𝛼, donde 'z' es la altura sobre el suelo y '𝑧0' es la rugosidad de la superficiey 'α' es típicamente alrededor de 0.14, pero varía con la rugosidad del terreno. El perfil logarítmico teórico, 𝑈(𝑧)∝𝐼𝑛(𝑧/𝑧0), generalmente se aproxima por la ley de potencia, 𝑈(𝑧)∝𝐼𝑛(𝑧/𝑧𝑟𝑒𝑓)α para el diseño de turbinas eólicas. Distribución de la velocidad del viento Se analiza la distribución de Weibull, que es una distribución de probabilidad que muestra las diferentes velocidades de los vientos en un tiempo determinado y la probabilidad de ocurrencia de estos. Esto permite obtener un modelo de los vientos existentes en la zona. Al aplicar el modelo de la distribución de probabilidad de Weibull a los datos de velocidad del viento obtenidos a partir de la base de datos, se encuentra que los vientos con mayor probabilidad de presentarse, están entre 3 y 4 m/s.    


CONCLUSIONES

Se exploraron diversas herramientas computacionales para el análisis del recurso eólico en Tepexi de Rodríguez, Puebla, con la finalidad de evaluar el potencial del sitio para la instalación de un parque eólico o la instalación de aerogeneradores de baja potencia para uso residencial. Se realizó un estudio exhaustivo de las condiciones meteorológicas del sitio, velocidad y dirección del viento, distribución, entre otros.   Los resultados obtenidos señalan velocidades por debajo de los 4 m/s y velocidades promedio de 3.33 m/s y 4.19 m/s para una altura de 20m y 80m respectivamente.  Por otra parte, si se observa la distribución de Weibull, las velocidades más probables de ocurrencia se encuentran entre 3.5 y 4 m/s incluso a una altura de 80m.  Dichas velocidades del viento satisfacen los requerimientos de generación de energía en el sitio a 20m de altura, toda vez que los aerogeneradores de baja potencia tienen velocidades promedio de arranque de 2.75 m/s. Para el caso de instalación de aerogeneradores de mayor potencia y a mayores alturas el sitio no presenta gran potencial, pues la generación de energía óptima sólo se obtendría con velocidades medias por encima de 6 m/s. Por consecuencia, la instalación de aerogeneradores de baja potencia para uso residencial en el en el municipio de Tepexi de Rodríguez, Puebla resulta la opción más viable para el aprovechamiento del recurso eólico del sitio. 
Herrera Villalobos Jonathan Alfredo, Universidad Mexiquense del Bicentenario
Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez

SEGURIDAD INDUSTRIAL 4.0, DISEñó DE PARO DE EMERGENCIA EN MAQUINARIA TEXTIL


SEGURIDAD INDUSTRIAL 4.0, DISEñó DE PARO DE EMERGENCIA EN MAQUINARIA TEXTIL

Herrera Villalobos Jonathan Alfredo, Universidad Mexiquense del Bicentenario. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Actualmente la seguridad e higiene industrial cumple con un papel importante dentro de la industria manufacturera textil, salvaguardando la vida e integridad de los trabajadores, existe una gran variedad de equipo de protección personal (EPP) estos están enfocados al trabajador, sin en cambio hay dispositivos enfocados precisamente a la maquinaria que cumplen con este propósito, cabe destacar que no toda la maquinaria incluye estos dispositivos en su diseño, es el caso de la maquinaria desactualizada, que no cumple con estas medidas, hay muchos complementos en el caso de herramentales que ayudan en gran medida en esta parte de la seguridad, se determinó que no toda la maquinaria cuenta con un paro de emergencia ante cualquier situación a la que se enfrente el trabajador ya sea desde mantenimiento preventivo, correctivo o conductivo a la maquinaria donde se requiere que la maquinaria este totalmente detenida y en el caso de sufrir un accidente es importante que la maquinaria logre detenerse en el momento oportuno, siendo un paro total y completo de la misma, para lo anterior se ha propuesto el diseño de un prototipo que permita dar solución a este problema, con el diseño de un algoritmo, diseño del control y herramental, etc. Se dará solución a este problema.



METODOLOGÍA

Se tomó como muestra una maquina desactualizada en cuanto a normas de seguridad, llamada maquina recta, este modelo al igual que otro de su tipo no incluye en su diseño algún dispositivo que pueda ayudar a parar la maquinaria totalmente en caso de ocurrir un accidente, esta máquina en especial es una de las que más uso tiene en el proceso de fabricación de cualquier prenda textil. Es importante aclarar que cada máquina de este tipo tiene ciertas variaciones en cuanto a características propias de cada fabricante, algunas de ellas mínimas en cuanto a factores como: la posición del motor, tipo de motor, altura del motor, tipo de polea, etc. La máquina que se ha tomado como muestra es una maquina juki modelo DDL-5530. El paro de emergencia se diseñó para ir en la parte de abajo, a un lado del motor donde se encuentra la polea y banda de la máquina. Se tomaron medidas las cuales incluyeron el tamaño de polea de la máquina, altura del motor, entre otras medidas, en base a ello se llevó a cabo el diseño del prototipo, este consta de los siguientes elementos descritos a continuación: • Engranes: Se diseñó un sistema de engranes que permitan accionar el freno de emergencia de manera efectiva, estos elementos serán de vital importancia para el óptimo desempeño del freno. • Caucho: El caucho estará ubicado en la parte de arriba, de manera que no dañe a la polea al momento de frenar, • Motor: Se incluirá un pequeño motor que al momento de accionar el paro de emergencia este se activará accionando todo el mecanismo para el paro total de la maquinaria. • Soporte para motor y freno: Como parte del diseño se consideró que el freno tuviera un soporte que se acoplara por el momento a este modelo de máquina, considerando el espacio que va a ocupar y resguardara el mecanismo (engranes) el cual también está apegado a lineamientos de NOM-004-STPS. • Control: El tipo de control que se utilizara es un modelo convencional, el cual se puede ver en otro tipo de maquinaria que cumplen con la función de para de emergencia, consta con tres botones, encendido, apagado y paro de emergencia, estos a su vez se distinguen por estar de colores diferentes. El caucho está ubicado en la parte superior del prototipo con color café, a este elemento se le otorgo cierta holgura en cuestión del ancho para que la polea que se tomó como muestra no quedara lo suficientemente justa y en caso de que a la maquina se le cambiara la polea por una más grande el elemento se ajustara de manera correcta El control que se consideró utilizar, fue un modelo convencional que incluye tres botones, encendido, apagado y para de emergencia identificables mediante colores. El mecanismo interno estará resguardado en el soporte, la cual cumple con especificaciones necesarias acorde a medidas del engranaje y motor, se trató de optimizar al máximo el espacio para que no fuera demasiado grande al momento de instalarlo en la maquinaria considerando de igual manera el peso como factor clave. La precisión en las medidas de los elementos que conformaran el prototipo será fundamental para un buen desempeño del freno de emergencia, este tendrá dos modos de operación: Manual y automático. Modo manual: El modo de operación será de la siguiente manera, una vez colocado en la maquina al accionar el botón de paro la maquina se apagará y frenará en ese momento, solo será cuestión de segundos para que haya un paro total y completo de la misma, este modo de operación se incluyó para que el operario pueda accionarlo en el momento que detecte algún fallo en la maquinaria y de esa manera evitar algún accidente, parte de esta función también es que facilite el mantenimiento ya sea preventivo o correctivo, lo cual demanda que la maquinaria se encuentre en paro total y padezca de movimientos para efectuar de manera correcta el mantenimiento, por ejemplo en un cambio de aguja u otra refacción al exterior de la maquinaria.


CONCLUSIONES

Durante la estancia de verano se logró adquirir ciertos conocimientos prácticos en el área de diseño industrial y teóricos en tecnologías de la industria 4.0 y programación en programas de ingeniería como Matlab y labview, estos conocimientos se pudieron aplicar en gran ´parte, el proyecto al ser un poco extenso se quedó en fase de diseño, se pudo diseñar casi por completo con la utilización del programa AutoCAD, incluyendo los elementos clave como es el caso del mecanismo interno, el control y el soporte donde ira resguardado el mismo, se espera que al ser concluido pueda ser de gran ayuda para evitar condiciones inseguras y salvaguardar la seguridad e integridad del trabajador durante su jornada laboral.
Hidalgo Ureiro Jose Angel, Universidad Autónoma de Guerrero
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO COMPARATIVO DEL DESEMPEñO MECáNICO DEL CONCRETO REFORZADO CON FIBRAS NATURALES PARA CONOCER LA FACTIBILIDAD EN LA INCORPORACIóN DE PET COMO REFUERZO EN EL CONCRETO HIDRáULICO


ESTUDIO COMPARATIVO DEL DESEMPEñO MECáNICO DEL CONCRETO REFORZADO CON FIBRAS NATURALES PARA CONOCER LA FACTIBILIDAD EN LA INCORPORACIóN DE PET COMO REFUERZO EN EL CONCRETO HIDRáULICO

Hidalgo Ureiro Jose Angel, Universidad Autónoma de Guerrero. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La incorporación de fibras al concreto ha proporcionado un comportamiento dúctil a los elementos de construcción diseñados para esfuerzos a flexión, compresión y retracción. Existen distintos tipos de fibras según su clasificación, pero nos enfocaremos en las fibras naturales vegetales aunque se debe expresar que también hay fibras naturales minerales y animales. A partir de lo anterior, el presente estudio tiene como propósito realizar un estudio comparativo de investigaciones encontradas en buscadores académicos, que evalúan el desempeño mecánico del concreto reforzado con fibras naturales de tipo vegetal. Por lo cual, durante esta investigación se tuvo la prioridad de analizar, evaluar, y comparar mediante la creación de tablas de registro y gráficas estadísticas, el comportamiento de la resistencia mecánica del concreto con diferentes tipos de fibras naturales empleadas en el concreto.



METODOLOGÍA

El desarrollo de la investigación constó de una serie de pasos fundamentales para su realización: Participación en 33 ponencias desarrolladas por investigadores del Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil (UMSNH) las cuales ayudaron de manera aleatoria a asentar las bases teóricas respecto al tema en estudio. Investigación documental, en buscadores académicos como Google académico, redalyc, scielo, refseek, entre otras más; guiada por coordinadores del tema en estudio, para identificar atículos, tesis o revistas avaladas por alguna institución para analizar algunos aspectos como: autor, año de publicación, tipo de fibra, relación agua/cemento del concreto, resistencia con la que se diseña, resistencia a la compresión (a los 28 días), resistencia a la tensión, resistencia a la flexión, porcentaje a la que llegan los especímenes reforzados con fibras naturales y algunas observaciones. Creación de una tabla de registro, para el vaciado de información de cada uno de los trabajos obtenidos en los buscadores. Revisión de los documentos encontrados por título de investigación, para después proceder al copiado de la información requerida según las categorías presentadas en la tabla de registro. Teniendo la muestra definida y la tabla de registro completa, se desarrollaron graficas estadísticas a partir de la contabilización de la información recopilada de acuerdo con uso de fibras naturales empleadas en mezclas de concreto hidráulico. Las fibras naturales que con mayor frecuencia se identificaron en los trabajos consultados y que son empleadas en el concreto hidráulico son: fibras de estopa de coco, fibras de bagazo de caña de azúcar, fibras de luffa, fibras de yute, fibras de cabuya, fibra de ichu y fibras de maíz seca. Con las gráficas creadas a partir de la tabla de registro se realizó el análisis de resultados, los cuales nos indica que: El 86% de los autores son hombres y los restantes son mujeres. Los artículos, tesis o revistas son recientes ya que se realizaron después del 2010 lo que no indica que hay más interés por el uso de recursos naturales orgánicos renovables puesto que son más económicos. En los aspectos de las pruebas y todo lo que tiene que ver cómo relación a/c, longitud de la fibra o porción de la fibra se tuvieron resultados regulares ya que algunos no te daban el acceso a longitud de la fibra, relación a/c o porción de la fibra por lo que el análisis nos arroja que la mayoría hacía más de 3 especímenes de prueba sin contar al patrón, Todos los investigadores utilizaron un porcentaje menor al 1% para algunos de sus especímenes, los porcentajes más utilizados son de 0.25, 0.5 y 0.75% aunque solo uno utilizo solo 0.3 0.6 y 0.9% en sus mezclas para realizar las pruebas de laboratorio y solo 6 de los 8 investigadores utilizaron un porcentaje igual o mayor a 1% en donde solo se utilizaron 3 distintos porcentajes que son  1, 1.5 y 2.5%. En la relación agua/cemento obtenemos solo 6 de 8 datos posibles ya que algunas investigaciones no proporcionan todos los datos de su diseño de mezcla, pero las que si no los proporcionan nos indican que dos de los investigadores utilizaron una relación de 0.55, otros tres utilizaron 0.68 y los últimos tres no proporcionaron el dato. En la dosificación solo 5 investigaciones nos muestran en kilogramos su descripción. Se encontró un problema en las investigaciones ya que no toman en cuenta la resistencia a la tensión, solo toman la resistencia a compresión y flexión del concreto, la pruebas realizadas en las investigaciones nos indican que todas realizaron pruebas a compresión que en números refleja el 67% de los 3 tipos de pruebas, y solo 4 investigaciones realizaron pruebas a flexión que reflejan el 33% de los 3 tipos de pruebas. Esto refleja que ninguna realizo las pruebas a tensión. De las 8 fibras la mejor es la fibra seca de maíz, con un longitud por fibra de 6 cm y una resistencia a la compresión de 300 Kg/cm2 y en una proporción de 0.5%  en volumen de la mezcla, la fibra de cabuya con una longitud de 5 cm y una resistencia a la compresión de 192.48 Kg/cm2 cumple con las mezclas patrón y las demás no son aptas ya que disminuyen su resistencia a la compresión en porcentaje de 10 y 20%.


CONCLUSIONES

Los refuerzos de fibras mejoran o afectan de formas distintas las propiedades mecánicas del concreto y todo es directamente proporcional al tipo de fibra, la longitud de la fibra y el porcentaje en que se utilice. La fibra de maíz seca que es la que mejor resultados se obtuvieron, fue porque se le añadió aditivo de mayor adherencia y reducción de aire por lo que nos abre las puertas a que si el PET no llega a tener las ventajas necesarias le podemos apoyar con algún aditivo que haga cumplir su propósito. Por último, se determina que si es factible el pensar en emplear PET en el concreto hidráulico, siendo que existen distintas relaciones a/c, volúmenes de fibra y longitudes de fibras que se pueden utilizar en distintas y nuevas mezclas en estudios futuros.
Huerta Cámara Dulce Mariana, Universidad Mexiquense del Bicentenario
Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE PROTOTIPOS DE HERRAMIENTAS SOFTWARE PARA LA IMPLEMENTACIóN Y USO DE BUENAS PRáCTICAS DEL PERFIL BáSICO DEL ISO/IEC 29110


DESARROLLO DE PROTOTIPOS DE HERRAMIENTAS SOFTWARE PARA LA IMPLEMENTACIóN Y USO DE BUENAS PRáCTICAS DEL PERFIL BáSICO DEL ISO/IEC 29110

Abad Salinas Jorge Andrey, Universidad Autónoma de Guerrero. Cedillo Ocaña Cler Mariana, Universidad Mexiquense del Bicentenario. Huerta Cámara Dulce Mariana, Universidad Mexiquense del Bicentenario. Tovar Espinoza de los Monteros Karen Annet, Universidad Mexiquense del Bicentenario. Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el presente documento se destaca el trabajo realizado durante la estancia del verano de investigación, en la que se llevó a cabo el desarrollo del proyecto Prototipos de herramientas software para la implementación y uso de buenas prácticas del perfil básico del ISO/IEC 29110. Este proyecto aborda la problemática que actualmente tienen las Empresas Muy Pequeñas (EMPs), relacionado como la falta de conocimiento y experiencia para la correcta implementación y uso de estándares, siendo una de las causas la falta herramientas que proporcionen soporte para  su adopción y uso. En este contexto, se pueden resaltar como ejemplos de algunos de los problemas más recurrentes que tienen algunas EMPs durante el desarrollo de proyectos de software, la falta de una gestión de riesgos adecuada, la carencia del diseño del software, la mala definición de requisitos y la poca o nula realización de actividades relacionadas con la verificación y validación de Requisitos, actividades que son necesarias para el aseguramiento de la calidad del producto. Lo antes mencionado hace evidente la necesidad del desarrollo de herramientas que funcionen como soporte para dar solución a dichos problemas.



METODOLOGÍA

Para el desarrollo del proyecto y teniendo en cuenta las restricciones de tiempo, se optó por adaptación de SCRUM utilizando buenas prácticas y artefactos proporcionados en el perfil Básico del estándar ISO/IEC 29110. De Scum se tomaron como base algunos de sus eventos y artefactos (de los eventos (planificación del sprint, Sprint, reuniones diarias y revisión del sprint) y de los artefactos (pila del sprint, producto mínimo visible)). Además, se reforzó con la implementación de tareas y productos de trabajo proporcionados por el perfil de entrada del ISO/IEC 29110, de las tareas (planificación, análisis de requisitos, diseño, pruebas, liberación), y de los productos de trabajo (enunciado de trabajo, entorno de desarrollo, instrucciones de entrega, estrategia de control de versiones, especificación de requisitos, riesgos, arquitectura de software y diseño detallado, registros de trazabilidad, pruebas, resultados de pruebas, minutas de reunión y respaldos y la configuración de software).


CONCLUSIONES

En conclusión, el resultado de este proyecto se desarrollaron 4 herramientas enfocadas a la gestión de proyectos e implementación de software, cómo lo son gestión de riesgos, diseño de software, definición de requisitos, y verificación y validación de requisitos, las cuales fueron creadas con el fin de servir de soporte a las EMPs que tengan la intención de adoptar prácticas del ISO/IEC 29110 para el desarrollo de sus proyectos. A continuación se presenta una breve descripción de la funcionalidad de las herramientas realizadas: Herramienta de Gestión de riesgos: Este módulo proporciona una solución para llevar a cabo la gestión de riesgos de un proyecto de empresas muy pequeñas (EMPs), permitiendo llevar a cabo el monitoreo del riesgo durante todo el proceso de desarrollo de software. La funcionalidad incluida en el módulo es: registrar los riesgos, clasificar riesgos según su prioridad e impacto, brinda el porcentaje de exposición del riesgo. Además permite llevar un monitoreo a base del registro de observaciones y brinda al usuario un documento de toda la información registrada. Definición de los requisitos: Este módulo está diseñado para brindar una guía para la especificación de requisitos de un software, a través del uso de criterios predefinidos, y segmentado con base en la técnica utilizada para la definición de los requisitos(casos de uso o historias de usuario), El usuario podrá al hacer uso del módulo, tener en cuenta los aspectos básicos para la correcta definición de los requisitos. Diseño de software: este módulo brinda información de apoyo para ayudar al usuario a tener mayor conocimiento de los elementos a tener en cuenta para el desarrollo del diseño de software. El módulo cubre la información para el diseño de alto nivel (arquitectura) y para el diseño de bajo nivel (diseño detallado). A través de la interfaz del  módulo, se brinda información sobre conceptos y ejemplos para el desarrollo correcto del diseño de software.  Verificación y validación de requisitos: este módulo brinda una solución para facilitar la ejecución de actividades de calidad (verificación y validación) de los requisitos mediante el uso de un Checklist, con el cual se brinda apoyo para que el cliente pueda llevar a cabo la revisión de manera adecuada de los requisitos e identificar dudas o expresar inconformidades relacionados con los requisitos. Cómo funcionalidad del módulo además se incluye proporcionar los resultados de la verificación y la validación del mismo, tal que éstos pueden ser utilizados con facilidad por la empresa.  Además de los resultados antes mencionados, se logró obtener conocimiento del estándar ISO/IEC 29110 y de Scrum, la implementación de algunos elementos del estándar y de algunos eventos de Scrum para el desarrollo del proyecto, la lectura de artículos y reportes técnicos, y la elaboración de documentos técnicos a través de la redacción del reporte técnico y un artículo.
Huerta Laguna Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo

ANáLISIS DEL RECURSO EóLICO EN TEPEXI DE RODRíGUEZ, PUEBLA.


ANáLISIS DEL RECURSO EóLICO EN TEPEXI DE RODRíGUEZ, PUEBLA.

Hernández Vargas Evelyn, Benemérita Universidad Autónoma de Puebla. Huerta Laguna Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Jose Rafael Dorrego Portela, Universidad del Istmo



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda energética actual y las condiciones ambientales que paulatinamente se degradan, han causado que la humanidad ponga su atención en diferentes alternativas de generar energía que sean mucho menos perniciosas al medio ambiente y que por supuesto, puedan competir con los métodos convencionales.  Actualmente, los recursos más dominantes para el suministro mundial de energía son el petróleo crudo, el carbón y el gas. Sin embargo, la energía eólica se ha vuelto más atractiva recientemente debido a sus características ambientales, sociales y económicas que responden al cambio climático. Como se sabe, la energía eólica es una fuente de energía renovable que no contamina, es inagotable y reduce el uso de combustibles fósiles, mismos que son el origen de las emisiones de Gases de Efecto Invernadero (GEI) que causan el calentamiento global. Además, la energía eólica es una energía autóctona, disponible prácticamente en la totalidad del planeta, lo que contribuye a reducir las importaciones energéticas y a crear riqueza y empleo de forma local. Por todo ello, la producción de electricidad mediante esta fuente renovable y su uso de forma eficiente contribuyen al desarrollo sostenible. Incrementar la capacidad instalada en energía eólica debe ser un tema prioritario para el gobierno de cualquier país. En el presente trabajo se presenta el análisis del recurso eólico de Tepexi de Rodríguez, Puebla con la finalidad de evaluar el potencial del sitio para la instalación de un parque eólico o la instalación de aerogeneradores de baja potencia para uso residencial. Se utilizó la base de datos del Atlas Eólico México y con ayuda de MATLAB se realizó el análisis de datos del recurso eólico. Se obtuvieron datos tales como el perfil vertical del viento, la rosa de los vientos, la distribución de Weibull, entre otros.



METODOLOGÍA

Datos meteorológicos Para propósitos de este trabajo, el recurso disponible en el municipio de Tepexi se evalúo mediante el acceso a una base de datos que reúne 49,348 mediciones de velocidad y dirección del viento a 80 m del suelo, de enero a diciembre del 2019. Dichos datos se incorporaron en el análisis del recurso eólico que incluye el tratamiento de los datos utilizando herramientas computaciones para medidas de las velocidades del viento, dirección del viento, distribución de probabilidad de Weibull, rosa de los vientos, variación de la velocidad de viento con la altura y la rugosidad del terreno. Velocidad y dirección del viento Los vientos con mayor velocidad corresponden con una altura de 80m y con elperiodo de noviembre-abril, siendo los meses de enero, marzo y abril los que presentan mayores velocidades de viento. Por otra parte, en la rosa de los vientos se observa que la distribución de vientos predominantes proviene del noroeste (N, NO, NNO). Perfil vertical de viento El perfil del viento permite conocer el comportamiento de la velocidad del viento con respecto a la altura sobre el nivel del suelo. Este se fundamenta en la ley logarítmica 𝑈(𝑧)∝𝐼𝑛(𝑧/𝑧0) y la ley de potencia, 𝑈(𝑧)∝𝑧𝛼, donde 'z' es la altura sobre el suelo y '𝑧0' es la rugosidad de la superficiey 'α' es típicamente alrededor de 0.14, pero varía con la rugosidad del terreno. El perfil logarítmico teórico, 𝑈(𝑧)∝𝐼𝑛(𝑧/𝑧0), generalmente se aproxima por la ley de potencia, 𝑈(𝑧)∝𝐼𝑛(𝑧/𝑧𝑟𝑒𝑓)α para el diseño de turbinas eólicas. Distribución de la velocidad del viento Se analiza la distribución de Weibull, que es una distribución de probabilidad que muestra las diferentes velocidades de los vientos en un tiempo determinado y la probabilidad de ocurrencia de estos. Esto permite obtener un modelo de los vientos existentes en la zona. Al aplicar el modelo de la distribución de probabilidad de Weibull a los datos de velocidad del viento obtenidos a partir de la base de datos, se encuentra que los vientos con mayor probabilidad de presentarse, están entre 3 y 4 m/s.    


CONCLUSIONES

Se exploraron diversas herramientas computacionales para el análisis del recurso eólico en Tepexi de Rodríguez, Puebla, con la finalidad de evaluar el potencial del sitio para la instalación de un parque eólico o la instalación de aerogeneradores de baja potencia para uso residencial. Se realizó un estudio exhaustivo de las condiciones meteorológicas del sitio, velocidad y dirección del viento, distribución, entre otros.   Los resultados obtenidos señalan velocidades por debajo de los 4 m/s y velocidades promedio de 3.33 m/s y 4.19 m/s para una altura de 20m y 80m respectivamente.  Por otra parte, si se observa la distribución de Weibull, las velocidades más probables de ocurrencia se encuentran entre 3.5 y 4 m/s incluso a una altura de 80m.  Dichas velocidades del viento satisfacen los requerimientos de generación de energía en el sitio a 20m de altura, toda vez que los aerogeneradores de baja potencia tienen velocidades promedio de arranque de 2.75 m/s. Para el caso de instalación de aerogeneradores de mayor potencia y a mayores alturas el sitio no presenta gran potencial, pues la generación de energía óptima sólo se obtendría con velocidades medias por encima de 6 m/s. Por consecuencia, la instalación de aerogeneradores de baja potencia para uso residencial en el en el municipio de Tepexi de Rodríguez, Puebla resulta la opción más viable para el aprovechamiento del recurso eólico del sitio. 
Huu Itzab Yulisa Liliana, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla

EVALUACIÓN DE DAÑOS POR SISMO EN EL PATRIMONIO CULTURAL Y TÉCNICAS DE REHABILITACIÓN ESTRUCTURAL.


EVALUACIÓN DE DAÑOS POR SISMO EN EL PATRIMONIO CULTURAL Y TÉCNICAS DE REHABILITACIÓN ESTRUCTURAL.

Huu Itzab Yulisa Liliana, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El patrimonio arquitectónico es un conjunto de bienes heredados del pasado que encierra valores de naturaleza muy diversa: histórica, arqueológica, artística, identitaria, etc. En consecuencia, el Patrimonio Arquitectónico puede definirse como el conjunto de bienes edificados, sea cual sea su naturaleza, a los que cada sociedad atribuye o en los que cada sociedad reconoce un valor cultural. En México existe un organismo encargado de proteger el Patrimonio Cultural tangible e intangible regulando las acciones para mantenerlo, conservarlo, restaurarlo y rehabilitarlo, según los criterios establecidos en los Lineamientos Institucionales Generales en Materia de Conservación del Patrimonio Cultural y se encuentra a la vanguardia gracias a su nivel de excelencia en investigación y en la formación de profesionales en el ámbito de su competencia; esta corporación es el Instituto Nacional de Antropología e Historia (INAH). El patrimonio está presente prácticamente en la totalidad de las ciudades representado de diferentes maneras ya sea en monumentos o edificios de gran relevancia. Son un reflejo de un pasado, una historia y una tradición digna de conservar, es decir;  que forma parte  de la memoria colectiva de una determinada localidad, región o nación. Es un legado de generaciones pasadas a generaciones futuras por lo cual deben perdurar. Existen muchos factores que de una u otra manera afectan estas estructuras: el clima, el tiempo y desastres naturales, uno de los principales son los sismos. Se sabe que estos  son movimientos bruscos de la tierra causados por liberación de energía acumulada durante largo tiempo. Este fenómeno a su paso deja secuelas en los edificios. Es aquí donde entra la mayor problemática debido a que las estructuras en su mayoría fueron creadas hace siglos y no se contaba con tecnología ni mucho menos con materiales para construcción como los que existen hoy en día.



METODOLOGÍA

Para poder desarrollar esta investigación se seleccionaron los sismos del 15 de junio de 1999, el del 7 de septiembre del 2017 y por último el del 19 de septiembre del 2017. Debido a que estos fueron los sismos que más daños causaron al Patrimonio Cultural en la zona de investigación: Puebla, Oaxaca y Morelos. Con respecto al primer sismo la información se tomó de un informe técnico (Olvera, 2018) en el cual se describen las características del sismo como los daños que dejo en infraestructura;  respecto a los sismos de septiembre la información  se obtuvo de periódicos digitales publicados en internet, lo que hizo que fuera más rápido el conocimiento de los daños en la infraestructura. De la misma manera se analizaron documentos de literatura, artículos, memorias de congresos para conocer la configuración estructural de los templos, los tipos de daños que estos presentaban, las técnicas de rehabilitación para su intervención, etc. Esta fue la metodología que se empleó en esta investigación.


CONCLUSIONES

Durante la estancia  de verano se logró adquirir conocimientos teóricos acerca del Patrimonio Cultural y la importancia que existe en preservar cada una de estas edificaciones, esta investigación permitió obtener una información más concreta relacionada con los daños al Patrimonio Cultural de los estados de Puebla, Morelos y Oaxaca debido a los sismos. Se observó que el lugar donde más se presentan fallas estructurales son las cúpulas, arcos, bóvedas, contrafuertes y campanarios. Elementos que se pueden considerar, pero con un daño menor son los muros longitudinales que presentan grietas de menor grado, sin embargo, estas aparecen, como se puede imaginar, en la discontinuidad de puertas y ventanas. En la actualidad existen varios templos catalogados por la UNESCO como Patrimonio Cultural que han sido dañados por sismos. Los daños por movimientos telúricos tienen su origen por patologías en los materiales, por el paso del tiempo y la intemperie, cambio de uso de los inmuebles, modificaciones estructurales, etc. En el estado de Puebla y en algunos de sus estados colindantes, los eventos sísmicos son habituales debido a su situación geográfica, principalmente atribuidos al Eje Neo volcánico y al movimiento relativo ente las placas de Norteamérica y Cocos. En este contexto es una realidad que los movimientos telúricos se seguirán presentando, por lo cual es importante documentar información acerca de este tema para que las autoridades encargadas de estos desastres  puedan desarrollar proyectos de intervención aceptables, haciendo uso de materiales compatibles con los originales y que no afecten el valor intrínseco de las edificaciones. El Patrimonio Arquitectónico tiene gran importancia cultural, un edificio aporta información de diferente índole así que no se tratan solamente de edificios bonitos sino que tienen valor documental y por siguiente cultural, en él se ven inmersos datos históricos que distinguen a las comunidades de otras, por ello es fundamental darles la importancia que merecen, estudiarlos y preservarlos para poder transmitir la información a generaciones futuras y de la misma manera puedan ser conservadas.
Ibarra Hernández Melito, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. José Miguel Ahuacatitla Pérez, Instituto Tecnológico Superior de Huauchinango

APRENDER LAS DERIVADAS DE MANERA DIDACTICA (“MEMORAMA Y USO DE APPS”)


APRENDER LAS DERIVADAS DE MANERA DIDACTICA (“MEMORAMA Y USO DE APPS”)

Ibarra Hernández Melito, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. José Miguel Ahuacatitla Pérez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Hoy en día las clases de matemáticas son  demasiado rígidas y mecánicas, razón por la cual, la mayoría de los estudiantes toman una actividad de desinterés por estas ya que se les hace un tanto tediosas y complicadas de solo imaginar la cantidad de números reglas y en fin todo lo que conlleva el mundo de las matemáticas que es un mundo maravilloso pero los alumnos no lo ven de esa manera por ello me interese en investigar las maneras de como poder potenciar el  nivel de atracción hacia los alumnos para que les interese el aprender en este caso las derivadas ya que es nivel superior pero este problema no solo se presenta en nivel superior sino también en los distintos niveles de educación.Hoy en día las clases de matemáticas son  demasiado rígidas y mecánicas, razón por la cual, la mayoría de los estudiantes toman una actividad de desinterés por estas ya que se les hace un tanto tediosas y complicadas de solo imaginar la cantidad de números reglas y en fin todo lo que conlleva el mundo de las matemáticas que es un mundo maravilloso pero los alumnos no lo ven de esa manera por ello me interese en investigar las maneras de como poder potenciar el  nivel de atracción hacia los alumnos para que les interese el aprender en este caso las derivadas ya que es nivel superior pero este problema no solo se presenta en nivel superior sino también en los distintos niveles de educación.



METODOLOGÍA

En la realización de esta investigación consulte medios digitales en internet para conocer más acerca de los problemas derivados de la enseñanza  de cálculo en este caso las derivadas y encontré muchos aspectos que me fueron de gran importancia y que no solo se presentan en el nivel superior si no en la mayoría de los niveles educativos, hoy en día contamos con muchos medios de comunicación y búsqueda de información acerca de los diferentes temas para poder mejorar  el modo de enseñar y el nivel de aprendizaje por parte de los alumnos. En este tipo de problemas surge la creatividad y el ingenio para poder buscar nuevas maneras más creativas para poder hacer las matemáticas más atractivas para los alumnos como lo son los juegos de  memoria  que son los que me enfoque en esta investigación aunque son solo una opción ya que nuestra creatividad dará para mucho más y siempre podremos mejorar los recursos para poder aprender así que como hoy en día ya disponemos de un celular Tablet o una computadora también investigue algunas aplicaciones que nos ayudan para poder aprender como es el caso del sitio de internet llamado cerebriti y calcurama estos sitios son fáciles de entender su funcionamiento y son de gran apoyo tanto para docentes como para los alumnos que quieran divertirse y aprender pero si no contamos con acceso a internet entran los juegos de mesa y muy comunes pero adaptados para un nivel superior como el memorama el cual yo diseñe con tarjetas en las cuales constan de una derivada en forma gráfica en una tarjeta y la otra con el ejercicio resuelto correspondiente a el grafico .


CONCLUSIONES

Durante la estancia de este verano de la investigación de manera virtual aprendí cuales son los principales problemas de los maestros para poder enseñar a los alumnos y a su vez que los alumnos adquieran los conocimientos por ello la creatividad y el ingenio juegan un papel muy importante como ya lo presente en el transcurso de este resumen fue muy enriquecedor el ser parte de este programa ya que aprendí que siempre hay que buscar el lado bueno frente a las circunstancias y el adaptarnos a los cambios y condiciones que surgen como lo es la pandemia que vivimos hoy día pero también debemos aprender de ello y buscar nuevas maneras de cómo hacer que las clases no solo de matemáticas en este caso calculo sino también de las demás materias sean atractivas y divertidas y también haciendo uso de las tics ya que existen muchas aplicaciones que son divertidas y nos dejan un conocimiento.
Iracheta Garcia Jesus Alfredo, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

PLANEACIóN DE LA TRANSVERSALIDAD AMBIENTAL PARA UN MUNICIPIO SUSTENTABLE, OBJETIVOS 2030: TAMPICO, TAMAULIPAS


PLANEACIóN DE LA TRANSVERSALIDAD AMBIENTAL PARA UN MUNICIPIO SUSTENTABLE, OBJETIVOS 2030: TAMPICO, TAMAULIPAS

Iracheta Garcia Jesus Alfredo, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

El Plan Nacional de Desarrollo 2001-2006 estableció la sustentabilidad como uno de sus doce principios fundamentales, planteó los objetivos nacionales para un desarrollo que proteja el presente y garantice el futuro, buscando que el ambiente dejara de ser un tema sectorial y se convirtiera en un tema transversal, en el año 2016,al entrar en vigor los 17 Objetivos del Desarrollo Sustentable 2030, (ODS -2030); sus 169 metas, inciden en las causas estructurales de la pobreza, combaten las desigualdades y generan oportunidades para mejorar la calidad de vida de la población en un marco de desarrollo sostenible.Con el Objetivo de Identificar la Transversalidad Ambiental en el Plan Municipal de Desarrollo, (PMD), 2018-2021 El futuro somos todas y todos que presenta la Administración Municipal de Tampico, respecto al Objetivo número 11, denominado Ciudades y Comunidades Sostenibles de los 17 ODS - 2030, a fin de caracterizar las Estrategias y Acciones respecto al Desarrollo Urbano y Sustentable.



METODOLOGÍA

  Metodología, que se utilizó a lo largo de las siete semanas de duración de la estancia de investigación virtual por motivos de la Pandemia, en el diseño de la estrategia del diagnóstico a realizar en la línea de investigación Se enuncia a continuación, fundamentado en tres grandes rubros:  Utilización y Apoyo de Tecnologías de Información, por medio de la planeación y organización de reuniones virtuales en Zoom, por parte del Asesor - Investigador en Temáticas de: a).- Concepto  y Tipos de Investigación, b).- Estructura de Protocolos, c).- Medioambiente y Desarrollo Sustentable, d).-Gestión Ambiental, e).- Planeación Ambiental y f).- Objetivos del Desarrollo Sustentable 2030; así como comunicación directa vía llamada telefónica al celular del Asesor - Investigador, mensajes vía WhatsApp, intercambio de información por medio de correos electrónicos institucionales, entre otros. Se facilito por parte del Asesor - Investigador información en documentos PDF, de las Temáticas para lectura, análisis y exposición por parte del estudiante, respecto a la conceptualización de la línea de investigación a desarrollar. Planteamiento de la Estructura y conformación para su análisis de los apartados a desarrollar en el Informe del Diagnóstico Ambiental Acopio, análisis y reflexión en los apartados de introducción, antecedentes y descripción de los rasgos físicos, biológicos y socioeconómicos de la zona en estudio, vinculada a la línea de investigación por realizar. Acopio y análisis de Información estadística especializada en la línea de investigación para redacción e integración del Informe. Estudio comparativo de las Estrategias y Líneas de acción del Plan de Desarrollo Municipal, con respecto al Objetivo número 11.- denominado: Ciudades y Comunidades Sostenibles , que forma parte de los 17 Objetivos del Desarrollo Sustentable 2030.    


CONCLUSIONES

El PMD se encuentra estructurado, en cinco ejes de desarrollo municipal cuyas estrategias a las que atienden estos ejes son 31, podrán lograrse mediante el impulso de 233 líneas de acción que plantea el Plan, en esta fase de diagnóstico se determinó la vinculación con tres ejes transversales: I. Derechos humanos e igualdad de género; II. Prevención social de la violencia y la delincuencia; y, III. Transparencia y combate a la corrupción.  Considerando los rasgos del medio natural y social, se Identificaron cinco ODS, determinando a dos de ellos como prioritarios el Objetivo 6.- Agua limpia y Saneamiento y el de Objetivo 13.- de Acción Climática caracterizando las estrategias y vinculación con los ejes transversales al ser evaluados para determinar la Sustentabilidad Municipal.
Jacobo Cuenca Luis David, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana

DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO


DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO

Hernández Casarrubias Natividad, Instituto Tecnológico de Chilpancingo. Jacobo Cuenca Luis David, Instituto Tecnológico de Chilpancingo. Medina Valdes Hector, Instituto Tecnológico Superior de Uruapan. Muñoz Flores José Gilberto Otoniel, Benemérita Universidad Autónoma de Puebla. Rojas Rubio John Rafael, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Históricamente los fenómenos naturales como huracanes, tsunamis, terremotos, etc., han generado desastres de gran magnitud, dejando a su paso una considerable cantidad de estructuras colapsadas, extensas regiones naturales devastadas y aún más, una gran pérdida de vidas humanas. Se calcula que en promedio más de diez mil personas pierden anualmente la vida, debido a este tipo de eventos.   El estudio del comportamiento de las estructuras ante la presencia de cargas generadas por sismos ha sido y es de gran interés en el área de la ingeniería de terremotos y en la dinámica estructural. En los años más recientes, el avance en este campo, con el fin de minimizar la respuesta (aceleración, velocidad y/o desplazamiento) en las estructuras civiles (edificios, puentes, hospitales, escenarios deportivos, etc.), ha sido bastante significativo. Una de las alternativas para mitigar los daños, causados por un sismo, en una estructura es reducir la demanda de la energía absorbida por la estructura. Dentro de esta alternativa, existen los sistemas o equipos de control, los cuales pueden ser pasivos, activos o semiactivos. El disipador de fluido viscoso se cataloga como disipadores pasivos y pueden disminuir considerablemente desplazamientos, y aceleraciones producidas por un sismo. Los dispositivos de fluido viscoso disipan energía forzando el flujo de un fluido a través de un orificio, su comportamiento depende netamente de la velocidad. Los amortiguadores viscosos han sido utilizados con éxito en estructuras civiles, especialmente en áreas geográficas de alta sismicidad. La adición de amortiguadores viscosos a una estructura puede elevar el amortiguamiento de la estructura a un 30 % del amortiguamiento crítico o más. Por consiguiente, esta adición puede reducir las aceleraciones y desplazamientos laterales por un 50% respecto a la estructura sin amortiguadores (Constantinou y Symans, 1992). Ecuación de balance de energía Ei=Ek+Es+Ea+Ed Donde: Ei= Energía de entrada por el sismo Ek= Energía cinética Es= Energía de deformación elástica Ea= Energía de amortiguamiento Ed= Energía de deformación inelástica o ductilidad



METODOLOGÍA

Metodología de la investigación Estudio del estado del arte: Ecuación de movimiento armónico con amortiguamiento Disipación de energía Disipadores viscosos Macheo de acelerogramas Obtención del espectro de diseño símico utilizando el programa SACID de la Ciudad de México. Búsqueda y obtención de 7 acelerogramas de magnitud mayor a 6.5 Diseño de 3 modelos estructurales en el software SAP2000 v22, de 5, 7 y 9 niveles. Revisión de las distorsiones de cada edificio para cada uno de los 7 acelerogramas Diseño del disipador sísmico de fluido viscoso Modelado de los edificios con disipadores en SAP2000 v22 Resultados


CONCLUSIONES

Conclusión Las distorsiones que se presentaron para cada uno de los sismos deben ser controladas por el disipador viscoso que resulte del diseño. Se debe revisar el diseño de los modelos ya que las secciones son robustas. Una vez que tengamos el modelo adecuado se revisarán de nuevo las distorsiones, estas distorsiones deberán ser controladas en un porcentaje por el disipador de fluido viscoso. Las distorsiones obtenidas por medio del análisis dinámico en los modelos, fueron menores a la distorsión máxima que exige la Norma Técnica Complementaria de la Ciudad de México 2017, resultado de un correcto dimensionamiento de las secciones para los elementos estructurales.
Jasso Osornio Daniel, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

CONSTRUCCIÓN DE UN MODELO EN SIMIO DE UN SITIO DE TAXIS (SIMULACIóN Y REDES LOGíSTICAS)


CONSTRUCCIÓN DE UN MODELO EN SIMIO DE UN SITIO DE TAXIS (SIMULACIóN Y REDES LOGíSTICAS)

Carrasco Avalos Alexis, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Jasso Osornio Daniel, Tecnológico de Estudios Superiores de Jocotitlán. López Escobar Miguel Ángel, Universidad Mexiquense del Bicentenario. López Montoya Jhoana, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

Grisales, A. & Posada, C.A. (2020) dan a conocer en su trabajo titulado: Diseño de estrategias de planeación de la demanda en servicios individuales de pasajeros tipo taxi, que la planeación del transporte público de vehículos Taxi, depende en un alto porcentaje de la disponibilidad y ubicación de estos en el área. Por ello, se considera que al comenzar a desarrollar cambios en un negocio y/ o servicio es de suma importancia que de antemano se realice una previa investigación sobre si es viable o no la propuesta de lo que buscamos realizar. Un servicio de taxis es utilizado diariamente por un gran numero de personas y es prescindible el ofrecer un servicio de calidad, dado que en la actualidad se han presentado nuevos servicios como el medio de transporte instantáneo por medio de una aplicación móvil, autobuses más económicos, que han causado la baja de clientes a este. Es prescindible considerar que tras la constante demanda del servicio el número de taxis disponibles en todo momento debe de cumplir con la demanda de clientes en los distintos horarios.



METODOLOGÍA

Para el desarrollo del presente proyecto de investigación se hará uso de la metodología de Law y Kelton (2001), la cual cuenta con 10 etapas para desarrollar un estudio de simulación, estas son:  1. Formulación del problema El sistema bajo estudio corresponde al sitio de taxis 24 de junio ubicado en la localidad de San Juan Coajomulco, municipio de Jocotitlán, Estado de México, cuenta con un total de 36 taxis distribuidos en las distintas bases de la localidad, pero en el sitio de taxis principal con el que se trabajó solo cuenta con un total de 10 taxis; ofrece dos tipos de servicios: colectivo y local o especial. El objetivo a cumplir con el desarrollo del proyecto fue: construir un modelo de simulación en Simio del Sitio de taxis para conocer el funcionamiento del sistema. 2. Recolección de datos y definición del modelo Se identificaron los parámetros de entrada del sistema, los cuáles son: Número de taxis en el sitio Tipo de servicio Tiempo entre llegadas de los pasajeros Destinos más frecuentes Tiempo de viaje (redondo) Con los datos recolectados, se construyeron las bases de datos de cada una de las variables y se procedió al análisis estadístico de las misma. El análisis estadístico corresponde a la aplicación de pruebas de bondad de ajuste que determinarán si los datos de las variables se ajustan o no a distribuciones teóricas conocidas. Para la realización de las pruebas de bondad de ajuste se hizo uso del software estadístico Stat::Fit ®. Este software, una vez alimentados los datos, realiza tres pruebas de bondad de ajuste: Chi-cuadrada, Kolmogorov-Smirnov y Anderson Darling, eligiendo dos de ellas dependiendo la naturaleza de los datos. 3. Verificación del modelo. Esta fase se desarrolló mediante el análisis del diagrama de flujo con personas familiarizadas con la operación del sistema, quienes lo avalaron. 4. Construcción del programa Se construyó el modelo en SIMIO® para ello fue necesario conocer los elementos básicos. ELEMENTO DEL SISTEMA Y ELEMENTO SIMIO Llegada del pasajero - Source Paradas - Server (s) Pasajeros - Entity Rutas de Viaje - TimePath (s) Selección de tipo de viaje - Path Destinos - Sink (s) Horarios de trabajo - Data_Workshedules Total de taxis en la parada - Definitions_Lists 5. Realización de pruebas piloto Esta etapa se dónde el modelo se consideró casi terminado, consiste en que tras la ejecución del programa un cierto número de veces, se obtiene información y para posteriormente poder realizar la validación de la simulación del modelo. 6. Validación del programa La validación de un modelo de simulación es el procedimiento matemático por medio del cuál se asegura que los datos que arroja el modelo son estadísticamente iguales a los del sistema real. Para realizar este procedimiento se utiliza una prueba de hipótesis, en donde: Ho: La media de los datos del sistema real son iguales a la media de los datos del modelo de simulación Ha: Las medias de los datos de sistema no son iguales a la media de los datos del modelo de simulación. Se utiliza la prueba t-pareada y se valida cada una de las variables.  7. Diseño de experimentos Esta fase fue donde se determinó el número de simulaciones independientes, es decir, el número de veces que se ejecutara el programa, especificando claramente su tiempo y sus condiciones iniciales. Para esto, se hizo uso de un procedimiento matemático a través de determinar un error absoluto. Después de realizado el procedimiento se obtuvo que el número mínimo de replicaciones a efectuar son 80. 8. Corrida del programa En esta etapa, se corrió el modelo 80 veces. 9. Análisis de resultados Esta etapa se desarrolló mediante el análisis de la información generada tras la corrida del programa el número de veces indicado. Con ello se estiman las medidas de desempeño para determinar el mejor sistema con respecto a alguna de ellas. 10. Documentación e implementación de resultados En esta fase es donde se guardó todo lo realizado para el desarrollo del proyecto, esto con la finalidad de tener una base sólida en la cual se puedan probar escenarios de mejora al sistema.


CONCLUSIONES

Durante la estancia virtual de investigación en el Instituto Tecnológico Superior de Tierra Blanca, se logró adquirir conocimientos y habilidades tanto teóricas como practicas en el desarrollo de simulación de procesos logísticos, se desarrollo un pequeño proyecto. Además, se aprendió a manejar el simulador Simio® en un nivel básico, de tal forma que ahora es posible modelar sistemas. Así mismo, se aprendieron los métodos y fórmulas para el tratamiento de la información y de los resultados obtenidos tras el proceso de simulación, esto con la finalidad de apoyarnos en la toma de decisiones de los modelos desarrollados en dicho software.
Jiménez Avila Carlos Alan, Instituto Tecnológico de Querétaro
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

DESARROLLO E IMPLEMENTACIóN DE UNA ASISTENTE DE VOZ CON APLICACIONES EN LASER CLADDING


DESARROLLO E IMPLEMENTACIóN DE UNA ASISTENTE DE VOZ CON APLICACIONES EN LASER CLADDING

de Jesus Consuelo Cinthia Lizeth, Tecnológico de Estudios Superiores de Valle de Bravo. Jiménez Avila Carlos Alan, Instituto Tecnológico de Querétaro. Montemayor Vasquez Maria Fernanda, Tecnológico de Estudios Superiores de Villa Guerrero. Sol Altúzar Antonio Alejandro, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La manufactura aditiva (MA) es una tecnología disruptiva en México. La impresión volumétrica de componentes metálicos personalizados la vuelve muy atractiva para sectores industriales. Gracias a esto, se pueden concebir aplicaciones tan variadas que pueden abarcar desde el sector metal-mecánico hasta la bioingeniería médica. Hoy en día, el Consorcio Nacional en Manufactura Aditiva (CONMAD) cuenta con diversas tecnologías de la familia de Deposición Directa de Energía, entre ellas la conocida como Laser Cladding, el cual permite añadir material capa por capa hasta construir o reparar un volumen. La tecnología de Laser Cladding requiere una configuración inicial especifica de parámetros de impresión. Dicha configuración está en función del material a imprimir y las características funcionales que se buscan en la pieza (por ejemplo, más resistencia a la corrosión). Es decir, existe un universo de parámetros de configuración, llamados ventanas de proceso, que deben ser conocidos o calculados previamente por el usuario. Por lo cual, surge la necesidad de crear un repositorio digital con toda esta información para que así pueda ser consultada posteriormente por los usuarios. Una idea para dar solución es el uso de un asistente de voz. Este asistente podrá ser consultado previo al depósito garantizar la configuración adecuada de la celda de Cladding. Logrando así mantener condiciones de impresión, repetibilidad y la calidad adecuada de componentes.



METODOLOGÍA

Los asistentes de voz con inteligencia artificial (IA) han experimentado un crecimiento sin precedentes. Centrándose en las interacciones de voz, combinamos los fundamentos teóricos y prácticos de un asistente de voz para lograr una comunicación usuario-asistente. Para la comunicación usuario-asistente se usó una bocina Smart Echo Dot de Amazon de 3 generación y la asistente de voz de Amazon llamada Alexa. Para el entorno MA, se utilizó una estación de celda de Laser Cladding conformada por un Láser TruDisk 6002 de TRUMPF de estado sólido de alto rendimiento para la soldadura, un manipulador ABB IRB6620-120 de 6 GDL, un alimentador de polvos por vibración Medicoat Flowmotion Duo de dos tolvas y un cabezal de impresión coaxial de 3 puertos TRUMPF BEO D70 para Laser Metal Deposition (LMD). Se revisó el estado del arte para familiarizarse con los tópicos relacionados con la Manufactura Aditiva y gracias a esto, se logró tener una mejor compresión de lo que se iba a realizar a lo largo de las siete semanas en el desarrollo del proyecto. La metodología está compuesta por 4 etapas: Base de datos: La base de datos está compuesta por los parámetros que usa una celda de Laser Cladding y los parámetros de distintos materiales que se utilizan en la TruDisk 6002 de acuerdo a los proveedores que maneja CIDESI. Para agilizar el trabajo, decidimos usar los servicios de Amazon Web Services (AWS), por lo cual se revisó el estado del arte del servicio AWS y del lenguaje de programación Python. AWS maneja distintos servicios de base de datos, se realizó una tabla comparativa de los servicios de AWS teniendo en cuenta los pros y contras de cada servicio, se tomó la decisión de usar el servicio Amazon RDS de AWS. En RDS se creó una instancia (entorno en la nube con los recursos informáticos y de almacenamiento que especifique) y una base de datos con el motor de MySQL y se usó el cliente de MySQL Workbench para trabajar en la base de datos hecha en RDS. Amazon Lambda Function Se aprendió y probó el Software Development Kit (SDK) del Alexa Voice Services (AVS) y su integración con AWS Lambda Function para generar el código de programación que permitió enlazar la base de datos con Lambda. De esta manera se estableció la comunicación entre usuario y asistente. El AVS permite añadir control de voz inteligente a cualquier producto usando habilidades diseñadas por terceros en Alexa bajo el nombre de Skill. Modelo de interacción de voz Se diseñó el modelo de interacción de voz en la plataforma de Alexa Developer Console para crear una Skill personalizada con programación en Python usando las API de AVS. Para el funcionamiento de la Skill, se agregaron los siguientes elementos: Intents, utterances, variables, invocation name, slots, endpoint, automatic speech recognition (ASR). Skill de Alexa Se desarrollaron las distintas fases para entablar una comunicación entre AWS Lambda y la Skill de Alexa en donde se evaluó el funcionamiento del modelo, la respuesta del mismo y el tiempo de despliegue. Se usó la función Beta (con duración de 90 dias activa) de la Skill de Alexa para desplegar nuestra Skill a dispositivos inteligentes Echo Dot para realizar la comunicación entre usuario y asistente. La diferencia entre una Skill publicada y una beta es que la beta tiene una etiqueta dev y aún no pasa el proceso de certificación que se requiere para desplegarla a la tienda de Alexa. La certificación de la Skill excede el tiempo establecido para el proyecto, por lo cual se quedó en espera y por el momento la función Beta es la única válida para funcionar en los dispositivos Echo Dot. .


CONCLUSIONES

Se aprendió a crear una Skill en el entorno de Alexa Developer Console y como resultado se obtuvo una Skill para el asistente de voz Alexa para aplicaciones en Laser Cladding. Por otra parte, encontramos limitaciones como: el uso de los servicios de AWS usando la capa gratuita y sus costos fuera de esa capa porque se cotizan en USD, además de que el soporte técnico es muy limitado para usuarios principiantes. Hasta donde se conoce, este es uno de los primeros estudios en el campo de asistentes de voz aplicados en manufactura aditiva puesto que, en la actualidad no existe una aplicación similar en la industria. Para futuras investigaciones, se recomienda obtener más datos generales sobre los diversos materiales que se trabajan dentro del CONMAD y pulir esta aplicación para tener una visión más amplia ya que el entorno de Alexa Developer Console cambia constantemente porque se actualiza constantemente.
Jimenez Dimas Angel, Universidad Autónoma de Guerrero
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO COMPARATIVO DEL DESEMPEñO MECáNICO DEL CONCRETO REFORZADO CON FIBRAS SINTéTICAS PARA CONOCER LA FACTIBILIDAD EN LA INCORPORACIóN DE PET COMO REFUERZO EN EL CONCRETO HIDRáULICO


ESTUDIO COMPARATIVO DEL DESEMPEñO MECáNICO DEL CONCRETO REFORZADO CON FIBRAS SINTéTICAS PARA CONOCER LA FACTIBILIDAD EN LA INCORPORACIóN DE PET COMO REFUERZO EN EL CONCRETO HIDRáULICO

Jimenez Dimas Angel, Universidad Autónoma de Guerrero. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto fue usado por primera vez en roma alrededor de la tercera centuria antes de Cristo,construido por agregados unidos mediante un aglomerante conformado por una mezcla de cal y ceniza volcánica. En 1845 I.C. Johnson descubrió que el mejor cemento provenía de la pulverización de esta sustancia inútil denominada Clinker. Este es el cemento que se conoce hoy en día(E. Harmsén, 2005). Por otra parte, para una mezcla de concreto es fundamental determinar su resistencia a la compresión y flexión.Dentro de los tipos de fibra empleadas se presentan: las fibras de acero, fibras de vidrio, fibras naturales y fibras sintéticas. A partir de lo anterior, el presente estudio tiene como propósito realizar un estudio comparativo de investigaciones encontradas en buscadores académicos, que evalúan el desempeño mecánico del concreto reforzado con fibras sintéticas y de esta manera conocer si es factible la incorporación de PET como refuerzo en el concreto hidráulico para futuras investigaciones con este tipo de fibra sintética. Por lo cual durante esta investigación se tuvo la prioridad de analizar, evaluar, y comparar mediante la creación de tablas de registro y graficas estadísticas, el comportamiento de la resistencia mecánica del concreto con diferentes tipos de fibras sintéticas empleadas en el concreto.



METODOLOGÍA

La metodología empleada constó de la participación en 33 ponencias desarrolladas por investigadores del Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil (UMSNH) las cuales ayudaron de manera aleatoria a asentar las bases teóricas respecto al tema en estudio. Se implementó una investigación documental, en buscadores académicos, guiada por coordinadores del tema en estudio. Por otra parte, se realizó la recopilación de trabajos o investigaciones por diferentes autores enfocadas en el desempeño mecánico del concreto con fibras sintéticas. Se llevó a cabo una recolección de datos, para ello se requirió la creación de una tabla de registro para el llenado de datos, de acuerdo a las investigaciones consultadas.  Para la presente investigación, se analizaron un total de 30 trabajos relacionados con el empleo de fibras sintéticas en el concreto hidráulico, para posteriormente realizar un análisis mediante la creación de gráficas estadísticas, de los resultados encontrados por cada autor referente a los valores obtenidos de ensayos de resistencia mecánica de las mezclas de concreto reforzadas con fibras sintéticas. Con la muestra de información recopilada, las gráficas presentan los siguientes resultados: En el año 2019 se han realizado un mayor número de investigaciones con fibras sintéticas que representa un 30% seguido del año 2017 con un porcentaje del 16.67%, 2011(10%) ,2018(10%), 2015 (6.67%), entre los años de 2006-2020 sin considerar los años antes mencionando presentan un porcentaje del 26.64% por lo que podemos observar se han realizado constantes investigaciones del empleo de fibras sintéticas en el concreto con excepción del año 2008 y 2009. Las fibras sintéticas que más se utiliza en el concreto como adición para el refuerzo del concreto son las fibras tereftalato de polietileno con un 42.86% seguida de las fibras de polipropileno que representa un 28.57%, las fibras de caucho 14.29% que son empleadas como sustitución del agregado grueso y fino en el concreto. El 96.67% de los autores emplean el concreto con adición de fibras para evaluar la resistencia a la compresión, así como también el 16.67% evalúa la resistencia a la tensión mientras que el 60% realiza pruebas a flexión en el concreto. En el concreto con adición de tereftalato de Polietileno, el porcentajes de adición más empleado es 1%, en el caso de las fibras de polipropileno se manejan porcentajes del 0.50%. La relación agua/cemento de 0.56 utilizada en el diseño de las mezclas muestran un incremento de la resistencia a la compresión. Para el diseño de concreto con fibras de tereftalato de polietileno (PET) el f´c con el que se diseña la mayoría de las mezclas de concreto son de 210 kg/cm^2 y 300 kg/cm^2, en el caso de las fibras de polipropileno el f´c más empleado es de 210 kg/cm^2. Al incorporar fibras de tereftalato de polietileno se presenta un incremento de la resistencia a compresión a los 28 días debido a que supera el f´c de diseño del concreto, con un porcentaje del 203.97% seguida por las fibras de Rafia con un porcentaje de 202.17%, las fibras de caucho 181.92% y las fibras de polipropileno con un 154.96%. La fibra plástica de polietileno (PE) presenta un aumento de la resistencia con respecto a la resistencia a flexión que obtuvo la mezclas patrón con un porcentaje del 147.99%, así como también las fibras de PET representa un porcentaje del 128.15% y las fibras de polipropileno un porcentaje de 121.95%.


CONCLUSIONES

Mediante el análisis de datos consultados se concluye las fibras sintéticas incrementan la resistencia a la compresión; tanto las fibras de polipropileno que son comerciales como las fibras de PET se muestra un incremento de la resistencia con un porcentaje del 0.50% de adición mientras que la relación agua/cemento más factible para el diseño de mezcla en el concreto es 0.56.Cabe mencionar que, para lograr un aumento de la resistencia mecánica, los autores emplearon un aditivo plastificante. Al aumentar la adición de fibras sintéticas en el concreto se observa una disminución de la resistencia. En la actualidad las fibras sintéticas más empleadas son: tereftalato de polietileno (PET) las cuales podemos afirmar que tienen un excelente comportamiento mecánico tanto a compresión como a flexión del concreto. Por otraparte,se ha implementado el uso de las fibras sintéticas recicladas.Las fibras sintéticas de Polietileno presentan un mejor comportamiento de la resistencia a flexión, reduciendo el agrietamiento, permitiendo una mayor deformación y una mayor capacidad de carga.    
Jimenez Flores Ricardo, Universidad Autónoma del Estado de México
Asesor: Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar

LA TECNOLOGíA DE LA INFORMACIóN EN LA CADENA DE SUMINISTRO EN LAS MIPYMES, (ANALIZANDO LA ADMINISTRACIóN DE LAS RELACIONES CON LOS CLIENTES (CRM))


LA TECNOLOGíA DE LA INFORMACIóN EN LA CADENA DE SUMINISTRO EN LAS MIPYMES, (ANALIZANDO LA ADMINISTRACIóN DE LAS RELACIONES CON LOS CLIENTES (CRM))

Jimenez Flores Ricardo, Universidad Autónoma del Estado de México. Asesor: Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar



PLANTEAMIENTO DEL PROBLEMA

Actualmente la cadena de suministro se ha convertido en la base del desarrollo empresarial para lo cual, se han implementado diferentes tecnologías que mejoran su gestión. La información es crucial para el desempeño de una cadena de suministro porque constituye la base para que los gerentes tomen decisiones. La tecnología de la información se compone de herramientas que se emplean para percatarse de la información, analizarla y ejecutar acciones basadas en esta para mejorar el desempeño de la cadena de suministro. Las tecnologías de la información son la parte fundamental de una cadena de suministro, que captan y analizan la información necesaria para tomar una buena decisión de acuerdo con las necesidades. El objetivo principal del proyecto es diseñar y especificar un Sistema de Gestión de Clientes Inteligente (CRM-I). El sistema podrá ser utilizado por cualquier empresa que se dedique a la venta y asistencia a clientes. Un CRM es generar la demanda de los clientes y facilitar la transmisión y el seguimiento de los pedidos. La debilidad en este proceso da por resultado que se pierda la demanda y que los clientes tengan una mala experiencia porque los pedidos no se procesan y ejecutan con eficacia. (SUNIL CHOPRA, ESTRATEGIA, PLANEACIÓN Y OPERACIÓN).



METODOLOGÍA

Se estudio la importancia que tienen las TIC´s en las empresa para llevar a cabo decisiones dentro de la empresa, también para tener control de los clientes sobre como tener una relación con ellos y darles un trato digno, algunas de las consideraciones que debemos tener en cuenta en un CRM tener conocimiento del cliente y personalización del trato, cuando incorporamos un CRM este permite identificar y conocer a los clientes, por ende, personalizar más detallado las ofertas y trato recibido. Fase de planeación: Se identificaron temas de estudios, conforme a la pertinencia de formación de los investigadores. Seleccionado las TIC en la Administración de la cadena de suministro. Fase de Definición de alcance: Conforme a la información encontrada y selección de los controladores en la Cadena de Suministro, se selecciona como proceso de estudio la Administración de las relaciones con los Clientes (CRM) y su importancia en la implementación de las MIPYMES. Fase de Recolección de información: Se investigan las diferentes herramientas digitales de CRM dispuestas para las MIPYMES. ·         Britix24 Britix24 es una opción sólida de CRM para organizaciones que buscan un conjunto de herramientas proyectadas para gestionar proyectos, colaborar y reforzar los esfuerzos del área de Marketing. ·         Freshsales Con este CRM es posible encontrar soluciones para interacciones con e-mails, teléfonos y calificación de leads registradas, además de identificar oportunidades de negocio. ·         Agile CRM Se trata de un CRM en la nube que cuenta con excelentes recursos y soporte por e-mail en su versión gratuita.Sin duda, es una de las alternativas que más ofrece diferenciales a los usuarios en la versión gratis: es posible incluir 50 mil contactos y un número ilimitado de transacciones, tareas y documentos. Fase de análisis de la información: Se identifican los procesos de implementación de las diferentes herramientas de CRM para las MIPYMES. Para lo cual es de suma importancia considerar los siguientes datos de el cliente, en la mayoría de las plataformas se inicia sesión de usuario es decir en donde se crea un perfil para tener comunicación con la MYPIMES, este inicia como un usuario nuevo y la plataforma le ayuda a dar continuidad, en caso de tener una incidencia el usuario la registra y es así como la MYPIMES se entera de esto y da solución al problema, normalmente los usuarios realizan estos pasos y dejan esperar cierto tiempo de acuerdo a que la plataforma le de alguna solución, propone una acción como resultado, en caso de tener una respuesta rápida por la plataforma el usuario puede checar el estado de la incidencia en ¨Consultar incidencia¨ y es ahí en donde puede escribir un nuevo comentario. Fase de resultados: Con la investigación se pretende, recolectar información de diferentes fuentes, para la síntesis de un modelo de implementación de herramientas de CRM en las MIPYMES  


CONCLUSIONES

Durante la estancia se logró comprender lo importante que es tener una buena TIC para la cadena de suministro, ya que con ello se toman decisiones muy importantes con relación al cliente o de acuerdo con la solución que le queremos dar al problema, con la aplicación de este sistema en una empresa se espera obtener, un aumento de fidelidad y satisfacción al cliente, incrementar ventas, obtener mayor información sobre nuestros clientes, creación de perfiles que permitan un mayor conocimiento de las preferencias de cada cliente, mejorar la fiabilidad del producto y la comunicación con el cliente. El CRM es básicamente el motor fundamental para la respuesta de la tecnología a la creciente necesidad de las empresas de fortalecer las relaciones con sus clientes. Ya que es la encargada de tener el control de los datos de los clientes y es está misma la que se encarga de darle una solución a los problemas que llegan a ocurrir en la empresa, otros de los puntos importantes es que programa de CRM es el encargado de llevar la administración de los clientes. Este proyecto sigue en marcha debido al tiempo reducido en el verano científico, sin embargo, se tiene estimado un lapso aproximado de 2 a 3 meses para finalizar con el diseño de un Sistema de Gestión de Clientes Inteligente (CRM-I) y los respectivos documentos públicos. Aclarando de esta manera que se sigue trabajando par obtener una conclusión general.
Jimenez Hernandez Rosalia, Universidad Autónoma de Tamaulipas
Asesor: Dra. Gloria Sandoval Flores, Universidad Autónoma de Tamaulipas

ESTUDIO DEL COMPORTAMIENTO DE LA MOLéCULA DE ALMIDóN POR PROCESO áCIDO Y ACUOSO


ESTUDIO DEL COMPORTAMIENTO DE LA MOLéCULA DE ALMIDóN POR PROCESO áCIDO Y ACUOSO

Jimenez Hernandez Rosalia, Universidad Autónoma de Tamaulipas. Asesor: Dra. Gloria Sandoval Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

El almidón es un polímero natural, renovable y biodegradable, producido por muchas plantas como fuente de energía almacenada. Es el segundo material de biomasa más abundante en la naturaleza. El gránulo de almidón es una estructura compleja con un orden jerárquico compuesto por amilosa (25%) y amilopectina (75%). Las fuentes potenciales más importantes de almidones son los granos de cereales, tubérculos, leguminosas y frutas verdes, se encuentran en tejidos vegetales, bajo la forma de gránulos intracelulares compactos, son insolubles en agua fría. Están compuestos por monómeros de glucosa formando estructuras de amilosa y amilopectina, en sus capas externas se encuentra la amilopectina, en las internas la amilosa cuya proporción es variable dependiendo de la fuente de almidón. El almidón se extrae principalmente del maíz y es utilizado en la industria de alimentos para producir féculas, jarabes, maltodextrinas y otros derivados. Otras fuentes de almidón importantes se encuentran en trigo, papa y yuca, pero todos estos son alimentos de consumo humano. Por lo que se buscan fuentes alternativas para la extracción de almidón, una de las alternativas es la utilización de frutas verdes y semillas.  



METODOLOGÍA

De acuerdo con la teoría investigado encontramos que el almidón está compuesto aproximadamente por una mezcla conformada por amilosa y amilopectina su estructura glucosídica está conformada por un 20 % de amilosa y un 80 % de amilopectina, las funcionalidades y propiedades de resistencia mecánica depende de la relación de amilosa y amilopectina. De acuerdo con varios estudios el almidón extraído mediante método acuoso es un producto biodegradable, con características no toxicas, sin embargo, su uso es limitado debido a su fragilidad. Ya que el proceso de su extracción es por método acuoso. Tiene como característica un mayor rendimiento, pero también presenta mayor contenido de impurezas. La extracción de almidón con ácidos o bases modifica los grupos hidroxilos, oxidando el almidón y esto permite modificar naturalmente la hidrofilia del almidón obteniendo la mejora de propiedades mecánicas y térmicas obtenido diferentes productos. Lo que se espera de esta investigación es comparar las extracciones acuosas y acidas ya con el método acido la viscosidad es reducida a comparación con el método acuoso, varias de sus propiedades también cambian.


CONCLUSIONES

Durante esta estancia de verano se logró adquirir conocimientos teóricos de la extracción del almidón mediante el método acuoso y ácido, entre ellos presentan diferencias en rendimiento y composición químicas de acuerdo con el método de extracción al ser una investigación extensa a un se encuentra en fase de desarrollo. Por lo cual esta investigación permite ampliar el campo para la extracción de almidón de fuentes no convencionales como semillas de frutas, frutas verdes, cascaras etc. Probando los dos métodos y comparando los resultados. Así que dependiendo del tipo de extracción y de la fuente de extracción puede indicar el uso de los almidones. Para el almidón extraído mediante soluciones acidas o básicas los usos pueden ser como espesantes, en la industria del papel y en recubrimientos. El almidón extraído por el método acuso pueden ser utilizados como gelificantes, sustratos de fermentación, vehículo para fármacos.  
Jimenez Huchim Josue Benjamin, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

CAPTACIóN DE AGUA DE LLUVIA EN UN HOGAR EN LA CIUDAD DE CANCúN, MéXICO.


CAPTACIóN DE AGUA DE LLUVIA EN UN HOGAR EN LA CIUDAD DE CANCúN, MéXICO.

Jimenez Huchim Josue Benjamin, Consejo Quintanarroense de Ciencia y Tecnología. Uc Hau Joseb Eliazar Abisai, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

A nivel global debido al cambio climático, uno de los grandes retos a los cuales nos enfrentaremos, es la escasez de agua, la cual aumentará en un 20 % los siguientes años, lo que provocará la necesidad de transportar este recurso desde lugares lejanos o pozos más profundos, esto se verá reflejado en las tarifas de costos que se le aplicará al usuario, pero sobre todo en la disponibilidad que se tendrá de este vital líquido para el desarrollo de diversas actividades cotidianas como el aseo y limpieza u otro uso que se le pretenda dar a esta.  Una de las maneras de obtener agua, es la proveniente de la lluvia, la cual en muy pocas ocasiones presenta contaminación, esta es almacenada en contenedores para su posterior uso, lo que puede significar un ahorro en el consumo de la red de agua disponible en los hogares, la conservación de la fuentes disponibles y un mejor  manejo de este recurso. La ciudad de Cancún cuenta con una precipitación anual mayor a los 1,000 mm, tiene una temporada de secas muy corta, por lo cual la captación de agua de lluvia puede ser una alternativa viable para satisfacer cierta demanda de este líquido. Por lo cual en este verano de investigación se analiza la viabilidad que tiene un hogar para satisfacer la demanda de agua solicitada, con el agua que puede ser captada de la lluvia, mediante estos sistemas de captación.  



METODOLOGÍA

El estudio fue llevado a cabo en la ciudad de Cancún, ubicada en el municipio de Benito Juárez, en el Estado de Quintana Roo, México con coordenadas latitud norte 21° 09’ 41’’ y latitud oeste 86° 49’ 29’’, posee un clima cálido subhúmedo, con temperaturas mínimas de 19.0 °C y máximas de 35.2 °C, con  media de 27 °C, la precipitación media anual de 1,334.6 mm con variaciones desde los 1032.0 mm hasta los 1955.3 mm,  siendo los meses de mayo a octubre en los cuales de presenta una mayor precipitación, con temporadas de secas durante los meses de marzo a abril.   El área de captación utilizada fue de 96 metros cuadrados, para un hogar de 6 personas, con una dotación diaria de 50 litros, lo mínimo recomendado por la Organización Mundial de la Salud (OMS). Se utilizaron dos métodos para calcular el volumen de captación de agua de lluvia, una de acuerdo a los lineamientos de la Comisión Nacional del Agua (CONAGUA) y otra mediante una calculadora, herramienta que nos brinda la página web Isla Urbanda. Para el primer método de acuerdo a los lineamientos antes mencionados, se describe lo siguiente: Los datos de la precipitación normal con distribución mensual. Estos fueron obtenidos de los datos históricos del Sistema Meteorológico Nacional, en el periodo de 1951-2010 (59 años),  la Estación Meteorológica utilizada fue la 00023153 Cancún, ubicada en la Latitud 21° 09’ 24’’N. y longitud 086° 49’ 13’’ W. En el cual se utilizaron datos en un periodo de 20-21 años. Con los datos obtenidos de la precipitación se procedieron a utilizar las fórmulas proporcionadas por la Comisión Nacional del Agua en el documento Lineamientos Técnicos: Sistemas de Captación de Agua de Lluvia con Fines de Abasto de Agua Potable a Nivel Vivienda. Estos lineamientos nos sirven para poder realizar cálculos básicos para conocer la capacidad de aprovechamiento que tiene algún área para la captación de agua de lluvia, dependiendo del material con que esté construida dicha área. Las variables calculadas son el volumen de captación de agua de lluvia (VA), la demanda de agua anual con distribución mensual (DA). Por último comparamos la cantidad de agua de lluvia captada y la cantidad de agua demanda por mes. Se calcula el déficit o el excedente si fuera el caso y son colocados en un tabla para poder ver gráficamente esta relación. Si existe un déficit se determina que no se pudo obtener suficiente agua para satisfacer la demanda en periodo de tiempo, en cambio si existe un excedente, es almacenado y utilizado al día siguiente para satisfacer la demanda, se calculan los días satisfechos al mes y por año.  Para el segundo método Isla Urbana. Esta es una página web, diseñada con información recopilada en la pluvioteca, cuenta con una calculadora de captación de agua de lluvia y con un observatorio. Estaremos usando la calculadora, la cual es una herramienta para la planeación y diseño de sistemas de captación de agua de lluvia, donde mediante el análisis y cálculos básicos nos ayuda a conocer los posibles niveles de aprovechamiento que se tendrían en la captación de agua de lluvia según nuestro municipio. La diferencia entre estas dos herramientas es que el de Isla Urbana es el que nos permite tener un estimado del costo del sistema de almacenamiento.  


CONCLUSIONES

Durante el verano de investigación se logró adquirir conocimientos para poder calcular el volumen de captación de agua de lluvia, en este caso se determinó que con un suministro diario de 50 litros, en un hogar de 6 personas, con un área de captación de 96 metros cuadrados y un coeficiente de escurrimiento de 0.90, lo días satisfechos son de 135 días, este resultado es alentador, sin embargo se tiene que recordar que solo se dotan de 50 litros por persona lo que da un total de 300 litros por día, si se desea dotar de más agua a los residentes se tendría que aumentar el área de captación, de lo contrario los días satisfechos se reducirían considerablemente, esta cantidad puede no ser significativa sin embargo al hacer la conversión se obtiene que los 135 días se ahorran 40.5 metros cúbicos de agua, que puede ser utilizado para la limpieza del hogar, el riego de plantas e incluso el aseo personal.
Jimenez Pizaña Luis Arturo, Instituto Tecnológico de Toluca
Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica

REINGENIERíA DE ALGORITMO DE DETECCIóN DE SENTENCIAS DE INYECCIóN SQL


REINGENIERíA DE ALGORITMO DE DETECCIóN DE SENTENCIAS DE INYECCIóN SQL

Anguiano Ponce Edgar Javier, Instituto Tecnológico Superior de Ciudad Hidalgo. Jimenez Pizaña Luis Arturo, Instituto Tecnológico de Toluca. Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la mayoría de los sistemas de software almacenan su información y autenticación en bases de datos que regularmente funcionan con el lenguaje SQL por lo que son un foco de ataques para buscar vulnerabilidades que permitan realizar actividades de manera maliciosa. Uno de  los principales ataques es la inyección SQL, la cual los desarrolladores en su mayoría desconocen o pasan por alto hasta que es detectada después de haber sido usada para generar daños.



METODOLOGÍA

Durante el periodo indicado para la estadía del XXV Verano de la Investigación Científica y Tecnológica del Pacífico en la  modalidad virtual, se llevó a cabo el proyecto titulado Reingeniería de algoritmo de detección de sentencias de inyección SQL , en el cual formamos parte los estudiantes Luis Arturo Jimenez Pizaña y Edgar Javier Anguiano Ponce, liderados por el Dr. Dougglas Hurtado Carmona, quien semana a semana realizaba monitores de los desarrollos para poder planificar las mejores estrategias de trabajo que mejores resultados nos brindaran a lo largo de la estadía.   Durante la primera semana de trabajo de la estadía se realizó una actividad de socialización y conocimiento de las habilidades y fortalezas de los integrantes del equipo para poder determinar el rumbo que tomaría el proyecto y posicionarnos en las áreas en donde la aportación y aprendizaje de los integrantes fuera la mejor.   Durante las siguientes semanas nos dimos a la tarea de realizar prácticas en el desarrollo de ingeniería de requisitos  por medio de un software sugerido por el Dr. Dougglas que lleva por nombre REM, el cual permite desarrollar documentación que es necesaria para poder registrar proyectos de software de manera formal ante instituciones de derechos de autor, lo cual será un requisito para el objetivo del proyecto motivo de la estadía. Entre las prácticas de ingeniería de requisitos se realizó la documentación de softwares propuestos por el investigador en donde se encuentra el juego punto y fama, un software para realizar evaluaciones de examen para certificación de conocimientos del lenguaje de programación Java y otro para obtener la representación de forma fraccionaria más cercana a un número.   En paralelo al desarrollo  de la ingeniería de requisitos se desarrolló la reingeniería del juego punto y fama con lo cual se pretende mejorar nuestras habilidades para mejorar los algoritmos de programación. La mejora de habilidades de reingeniería nos permitirá desenvolvernos de mejor manera en la mejora del algoritmo de detección de sentencias de inyección SQL con el cual pretendemos ayudar a identificar y resolver la problemática de las vulnerabilidades SQL.   De la misma manera se llevaron a cabo pruebas básicas de inyección SQL en páginas web que tenían este fin, de tal manera que pudiéramos magnificar los efectos que puede generar las vulnerabilidades de inyección SQL y de esta forma generar mayor interés por parte del Dr. Dougglas hacia nosotros sobre este tema. Además de mostrarnos algunos otros desarrollos dedicados a la seguridad informática en donde hay un campo de oportunidades de mejora donde podemos seguir aportando y colaborando.


CONCLUSIONES

Durante el tiempo de la estadía logramos comprender los requisitos, habilidades y alcances que se requieren para la reingeniería del algoritmo de detección de inyección SQL, sin embargo debido al tiempo relativamente corto de la estadía no fue posible iniciar y enfocarnos totalmente desde al principio. El proyecto requiere de más tiempo e investigación para realmente aportar mejoras significativas en el producto final.
Jimenez Santiago Amada Uiritzikiri, Instituto Tecnológico Superior Purépecha
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

SEGUIMIENTO OCULAR: UN ACERCAMIENTO AL EYE-TRACKING


SEGUIMIENTO OCULAR: UN ACERCAMIENTO AL EYE-TRACKING

Jimenez Santiago Amada Uiritzikiri, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

En un mundo donde día con día el continuo avance de las tecnologías de la información y la comunicación va creciendo a pasos agigantados, no es posible quedarse estancado sino de forma contraria debe avanzarse a la par, ya que estas tecnologías forman parte fundamental de nuestra cotidianidad, ejemplo claro de lo mencionado es que hoy por hoy  estamos más en contacto con entornos visuales que con nuestros semejantes, ello derivado de múltiples situaciones que en realidad están fuera de nuestro control pero a las cuales debemos adaptarnos. Los acercamientos a los procesos cognitivos y sensitivos de las personas mediante las TICS siempre han sido un tema de relevancia por su complejidad en la interpretación, sus alcances y aplicaciones en distintos ambientes y claro la apasionante idea de la comunicación entre un humano y una máquina, y es que es imposible ignorar la gran cantidad de información que puede obtener, para este caso de estudio de las ventanas del alma y es que quizás los ojos, sean unos los órganos más importantes a través de los cuales obtenemos información del mundo. Es por lo anterior, que las técnicas de seguimiento ocular han ido adquiriendo mucha importancia en investigación de diferentes campos, como la lingüística cognitiva, la psicología, el márketing, el diseño de productos, etc. Específicamente para este tema hablamos del Eye-Tracking que literalmente se define como seguimiento ocular y que es básicamente una técnica que permite evaluar hacia donde dirige la mirada una persona, así como donde centra su atención y durante cuánto tiempo [1], teniendo estas variables tan prometedoras se consideró realizar un acercamiento más profundo a esta técnica que se realizó por faces que a continuación son descritas.



METODOLOGÍA

Al no contar con conocimientos previos de esta técnica de seguimiento ocular fue necesario partir desde una investigación meramente conceptual para entrar en contexto, es decir, se habla de la consulta del significado de seguimiento ocular, Eye-Trcaking, y en un momento dado también EEG, partiendo de la revisión de antecedentes y teoría sobre Eye-Tracking  se encontró la existencia de varios softwares dedicados a este estudio, de igual forma la existencia de multiples Eye-Trackers para la recolección de los datos. Realizando la depuración y organización de la información recolectada, y reconociendo las limitantes en lo que se refiere a la parte material se optó por enfocarse en el tema de Eye-Tracking con la simulación de dos tipos de movimientos oculares, las sacadas que son los que realiza nuestro ojo al moverse un punto de observación a otro y las fijaciones que son los pequeños momentos donde el ojo queda estático, esto con la ayuda del mouse. En un principio se consideró la utilización del lenguaje de programación Python en conjunto con la caja de herramientas denominada PyGaze [2], sin embargo al sumergirse un poco más en la investigación de complementos  se encontró con el software llamando Opensesame que Es un programa para facilitar el desarrollo de experimentos de comportamiento para psicología, neurociencia y economía experimental. [3] Este Software en conjunto con algunos elementos de la caja de herramientas PyGaze y complementos de Python fueron los pilares para la creación de los ejercicios iniciales de Eye-Tracking. Entre pruebas y errores el ejemplo más acertado o más cercano al objetivo se denominó POPS que consistió en la creación de un lienzo con dos tipos de imágenes (emoticones) una como distractor y otra como objetivo que se movían aleatoriamente en dicho lienzo, el objetivo se centró en seleccionar con un clic (simulando las fijaciones) las imágenes objetivo esto con ayuda de una función denominada Mouse Clic, tratando de omitir las imágenes distractores, lo cual de acuerdo con estudios realizados desde los años 50 es casi imposible pues nuestra vista salta de un punto a otro creando sacadas notorias, las cuales para lograr su simulación se logró utilizando la función Mouse trap que básicamente traza todo movimiento realizado por el Mouse simulando el recorrido de la vista por la pantalla. De este ejercicio fundamentalmente se obtuvo la recreación poco sofisticada de un mapa de fijaciones de Eye-Tracking. Como segundo acercamiento a la técnica se recurrió a la utilización de un programa denominado Gazerecorder que es un complemento para utilizar la cámara Web como un Eye-Tracker, con este recurso y  mediante estímulos visuales se logró la calibración de la Camara Web en 20 puntos iniciales, el movimiento de la cabeza a los cuatro puntos cardinales y la adaptación de la pupila a un entorno claro y uno obscuro de manera que se consideraran varias situaciones posibles. Como resultado se obtuvieron Heatmaps que al igual que los mapas de fijación son  representaciones estáticas, estos son representados por colores y son adecuados para el análisis aglomerado de los patrones de exploración visual de un usuario o de grupos de usuarios. Finalmente como perspectiva se pretende conectar ambos ejercicios de manera que pueda existir una representación de ambos mapas realizar una discusión entre un eye-tracker simulado y uno real.


CONCLUSIONES

Finalmente con respecto a los ejercicios realizados, las metodologías aplicadas y los recursos utilizados, los resultados obtenidos a pesar de no ser los que se pretendían en un inicio, fueron bastante positivos, con respecto al ejercicio uno, se logró obtener la simulación del mapeo por fijación cumpliendo así con el objetivo que era la simulación del movimiento de los ojos a partir del uso del Mouse. Con respecto al segundo ejercicio, se obtuvieron resultados más satisfactorios los cuales hacen considerar este método más prometedor de forma que se puede seguir perfeccionándolo y  trabajar con él en experimentos de más complejidad y posiblemente con mayor aplicabilidad al área de la la ingeniería biomédica.
Jiménez Toscano Eréndira del Carmen, Instituto Tecnológico Superior de Los Ríos
Asesor: Dra. Fabiola Virginia Cruz García, Instituto Tecnológico Superior de Los Ríos

PLANEACIóN, ANáLISIS Y DISEñO DE UNA PEDAGóGICA DE EDUCACIóN A DISTANCIA MEDIANTE TECNOLOGíAS APLICADAS EN LA MODALIDAD SEMI ESCOLARIZADO DE LA ISC DEL ITSR.


PLANEACIóN, ANáLISIS Y DISEñO DE UNA PEDAGóGICA DE EDUCACIóN A DISTANCIA MEDIANTE TECNOLOGíAS APLICADAS EN LA MODALIDAD SEMI ESCOLARIZADO DE LA ISC DEL ITSR.

González Ramírez Kevin de Jesús, Instituto Tecnológico Superior de Los Ríos. Jiménez Toscano Eréndira del Carmen, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Fabiola Virginia Cruz García, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

El área en el que se trabajó esta investigación fue en el Instituto Tecnológico Superior de los Ríos, el tema en cuestión se tratara en específico en la academia de Ingeniería en Sistemas Computacionales, tomando como muestra los valores estadísticos que se encuentran en la jefatura de Estadística y Evaluación, en el Departamento de Planeación y Vinculación de dicha institución, enfocado en el área de la carrera de Ingeniería en Sistemas Computacionales.



METODOLOGÍA

La investigación realizada es de enfoque cualitativo, debido a que es necesaria la recolección de datos en una población específica para poder conocer de qué manera se puede mejorar el proceso enseñanza - aprendizaje en el Instituto Tecnológico Superior de los Ríos ubicado en Balancán, Tabasco, México que ofrece en modalidad sabatina distintas carreras entre las que se pretende estudiar específicamente a Ingeniería en Sistemas Computacionales.


CONCLUSIONES

Actualmente hoy en día nos tenemos que adaptar a un nuevo estilo de vida y debemos llevar la modalidad a distancia y para esto ya existen varios softwares de educación, esto también ayuda a que el estudiante sea autodidacta, aparte se usan pedagogías innovadoras para la educación también se desarrollan nuevas competencias, además que hace más responsables a los alumnos para buscar solución a sus problemas, cada día se van innovando más y más herramientas para facilitar al alumno la educación como lo son video conferencias, bibliotecas digitales entre otros, también existen plataformas para ayudar al docente a calificar y que puedan revisar los trabajos de los alumnos. La tecnología es algo que avanza a grandes pasos, lo que hoy puede ser tendencia en nuestro país, mañana ya es obsoleto en el resto del mundo, por ello es necesario implementar de manera inteligente, eficaz y continua un modelo que se adapte al proceso de enseñanza - aprendizaje y que sea flexible para complementar las cátedras de los docentes y el aprendizaje del alumno. De igual manera, los egresados son parte importante de la institución, ya que llevan en alto el nombre de ésta, por lo que, es aceptable que su alma mater se preocupe por su desarrollo como profesional y que siga habiendo oportunidades de mantenerse a la vanguardia para la mejora continua de su profesión.
Juarez Coriche Norma Patricia, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Guillermo Becerra Nuñez, Universidad de Quintana Roo

ANáLISIS DE SISTEMAS HíBRIDOS PARA CALEFACCIóN DE AGUA. CONVENCIONAL VS RENOVABLE


ANáLISIS DE SISTEMAS HíBRIDOS PARA CALEFACCIóN DE AGUA. CONVENCIONAL VS RENOVABLE

Juarez Coriche Norma Patricia, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Guillermo Becerra Nuñez, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la situación climática no es la mejor ya que en los últimos años hemos tenido un aumento en la temperatura y esta afecta los ciclos que se lleva a cabo en el planeta, tenemos la reducción de la superficie de glaciares, como consecuencia, elevación del nivel del agua de los mares y océanos, afectación de los ecosistemas por el cambio en el clima, con lo que plantas y animales deben adaptarse a una nueva situación entre otros. Ante esta situación, es necesario implementar medidas para dañarlo menos, entre ellos: usar menos combustibles fósiles y cambiarlos por energía alternas, como los calentadores solares. Los beneficios de tener un calentador solar son muchas, tomando en cuenta que es una de las maneras de empezar el cambio que requiere el planeta. Este equipo es cien por ciento amigable con el medio ambiente, porque permite reducir la emisión de dióxido de carbono. En la presente investigación se presentará la comparación de sistemas de calefacción de agua, por un lado, estarán los sistemas convencionales y por el otro, sistemas renovables.



METODOLOGÍA

Calentamiento del agua Podemos usar la capacidad térmica para determinar el calor liberado o absorbido por un material mediante el uso de la siguiente fórmula: q = m x C x DeltaT donde m es la masa de la sustancia (en gramos), C es el calor específico y DeltaT es el cambio de temperatura durante la transferencia de calor. Se debe tener en cuenta que la masa y el calor específico solo pueden tener valores positivos, por lo que el signo de q dependerá del signo de DeltaT. Podemos calcular DeltaT al usar la siguiente ecuación: DeltaT = Tf - Ti donde Tf y Ti y pueden tener unidades de °C o K. Tipos de calentadores Calentador a base de gas Calentador eléctrico La tecnología utilizada por los calentadores eléctricos es un proceso en el que la energía eléctrica se convierte en calor. Esto se logra mediante el efecto Joule, donde una corriente eléctrica pasa a través de una resistencia de metal, convirtiendo la energía eléctrica en calor, y mediante el uso de reflectores que dirigen el calor fuera del calentador o incluso ventiladores que ayudan con la distribución. calor. Regadera eléctrica Funciona muy similar a los calentadores eléctricos, solo que estos cuentan de una resistencia eléctrica que a través del efecto Joule calienta el agua que entra a la ducha cuando se abre la válvula. Calentador Solar Un calentador solar es cualquier tipo de dispositivo que, mediante el uso de energía solar, se utiliza para calentar un líquido o un gas. Estos calentadores se utilizan para calentar agua, aceite, salmuera, glicol y aire, por nombrar algunos ejemplos. Se utilizan principalmente para calentar el agua de las piscinas, así como para desinfectar platos y ropa. Además, el agua caliente se utiliza para las duchas, por lo que se ha adaptado para su uso en comercios y hogares. Energía Solar La energía solar térmica se utiliza en instalaciones domésticas y grandes centrales eléctricas para generar electricidad y calor. El poder calorífico del sol también se aprovecha a través de la concentración de energía solar (CSP), espejos que siguen al sol y concentran su calor en un punto, tanto en instalaciones de gran como de pequeña escala (micro- csp). La energía solar se puede obtener de dos formas: fotovoltaica y térmica. En Puebla la zona centro-sur cuenta con una buena incidencia de radiación solar que oscila entre 4.5 y 5 kWh/m2 por día en temporada alta y en temporada baja entre 2.5 y 3 kWh/m2. Con estos datos podríamos decir que la entidad tiene el potencial para poder hacer uso de la energía solar. Tipos de calentadores solares Calentador solar plano Calentadores solares de tubos de vacío Calentadores solares de concentración Sistemas híbridos Los sistemas híbridos son sistemas autónomos que funcionan sin estar conectados a un sistema de distribución de electricidad. Para aquellos momentos en los que ni el sistema eólico ni el solar están produciendo, la mayoría de los sistemas híbridos proporcionan energía a través de baterías y / o un motor generador alimentado por combustibles convencionales, como el diésel. Si las baterías están agotadas, el generador del motor puede suministrar energía y recargar las baterías. Estos, permiten aprovechar los recursos renovables existentes en el territorio, constituyendo una opción específica compatible con el medio ambiente y lo social. Tipos Existen muchos tipos de sistemas híbridos, con diferentes características, los siguientes son algunos que se adaptan a la investigación Sistemas heliotérmicos Paneles Solares Híbridos Colectores Híbridos fotovoltaicos\_térmicos(PV/T) Aerotermia híbrida Sistemas Híbridos fotovoltaicos y aerotermia Es importante recordar que el sistema que se escogerá deberá ser el adecuado para una casa habitación de 5 personas. La temperatura promedio del agua para ducharse es de 25° a 30°C, el sistema ideal sería el panel solar hibrido ya que te brindara agua caliente y además podrá ahorrarte energía eléctrica pero aún no está a la venta en México y este sistema va enfocado a espacios mayores (25 personas en adelante) porque de lo contrario se invertiría mucho y tardaría muchos años en ver los beneficios de este sistema. Es por eso por lo que el sistema ideal para este caso es el de los paneles solares. Al inicio requiere una inversión un tanto costosa dependiendo del modelo que se quiera, pero los beneficios se notan de manera inmediata, ya que este te ahorra gas y además la temperatura que alcanza es excesivamente alta que puede incluso sobrar agua caliente que se le puede dar otros usos.


CONCLUSIONES

Tener un calentador solar además de ser beneficioso para el planeta también lo es para nosotros ya que nos ahorra el consumo de luz o gas, aunque este implique un gasto un poco grande al inicio.  Existe una gran gama de costos, capacidades y marcas que se ajustaran de acuerdo con nuestras necesidades. Para el caso de esta investigación, fue para una casa con 5 personas.
Juarez Garcia Valeria Concepcion, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Fernando Martinez Reyes, Universidad Autónoma de Chihuahua

LOS EXERGAMES COMO MEDIO DE REHABILITACIÓN PARA LAS PERSONAS MAYORES


LOS EXERGAMES COMO MEDIO DE REHABILITACIÓN PARA LAS PERSONAS MAYORES

Juarez Garcia Valeria Concepcion, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Fernando Martinez Reyes, Universidad Autónoma de Chihuahua



PLANTEAMIENTO DEL PROBLEMA

En los adultos mayores los accidentes por caídas son frecuentes, así como también es común que se presenten lesiones graves, lo cual impacta considerablemente los costos relacionados con las atenciones médicas. En México según el Censo de Población y Vivienda (2010), Perfil sociodemográfico de adultos mayores/ Instituto Nacional de Estadística y Geografía (INEGI) menciona que las personas de 60 años y más se consideran un grupo vulnerable por ser adultos de la última etapa de la vida. En esta etapa suelen presentarse problemas de movilidad o cognitivos, lo cual requiere supervisión familiar y médica de forma continua. Un reto para el futuro inmediato es la provisión de medios para que el adulto mayor pueda llevar una vida saludable de forma independiente y en el mejor de los casos integrarlos en actividades sociales que les brinde tranquilidad e integridad en esa etapa de la vida. Por otro lado, en la literatura se identifican propuestas basadas en tecnología para apoyar el estilo de vida de un adulto mayor [1]. Si consideramos actividades de rehabilitación, por ejemplo, dentro del contexto de la animación digital se encuentran los exergames, los cuales pretenden estimular la movilidad del cuerpo entero mediante el uso de ambientes interactivos con experiencias inmersivas que simulan diferentes sensaciones de presencia. Considerando que el adulto mayor obtiene beneficios en su salud cuando realiza ejercicios de fisioterapia, en esta estancia de investigación, se revisaron algunas de las experiencias de usuarios con los exergames y principalmente aquellas donde se incentiva al adulto mayor a realizar ejercicios de rehabilitación para algunas de sus extremidades.



METODOLOGÍA

Muchas plataformas han surgido como respuesta al llamado de tecnología que apoye el envejecimiento activo y saludable en adultos mayores. El proyecto FitForAll (FFA) [2], es una plataforma de ejercicios que proporciona un semi entorno virtual donde se apoya el desarrollo de actividad física de adultos mayores, y donde la intensidad del ejercicio es ajustable. Para evaluar FFA se reclutaron personas que experimentaron algún problema o limitante de movilidad de la cintura hacia abajo, por ejemplo, fracturas de tobillo, o fractura de cadera. El proyecto iStoppFalls [3], consiste de un sistema basado en la tecnología de la información y la comunicación (TIC) disponible para que los adultos mayores lo utilicen en el hogar a fin de realizar ejercitación muscular, lo cual en consecuencia les ayuda a mejorar habilidades de equilibrio y por ende reducir la posibilidad de caídas. Para evaluar el sistema se reclutaron 165 personas mayores de 65 años Play Mancer [4], es otro proyecto basado en exergames para la rehabilitación física de pacientes con dolor crónico músculo esquelético. Este exergame es controlado por movimientos relevantes del cuerpo del paciente capturados por un traje de movimiento y varias cámaras infrarrojas. En tres mini juegos integrados diferentes el paciente puede entrenar las siguientes habilidades motoras: velocidad al caminar, estiramiento por encima de la cabeza y movilidad del cuello. 10 pacientes participaron en este estudio y completaron las cuatro semanas de juego y en general los pacientes indican haber progresado en sus habilidades motoras. Otros proyectos han utilizado exergames disponibles en el mercado como el Dance Dance Revolution (DDR®) [5], para estudiar el impacto en habilidades de concentración, equilibrio estático y equilibrio dinámico, en los adultos mayores. En este caso, 27 adultos con edad promedio de 63 años.


CONCLUSIONES

Durante la elaboración de esta investigación se logró adquirir un conocimiento de lo que son los exergames y de la gran utilidad que pueden tener en las personas y en exclusivo con las personas de la tercera edad. Este tipo de tecnologías pueden servir como medio para apoyar actividades de rehabilitación, o en general para mantener la actividad física de los adultos, sin la necesidad de salir de casa. En particular, se plantea la configuración de un estudio en el cual se utilice la tecnología del sensor de Microsoft para recolectar información de las actividades de rehabilitación que un adulto mayor entre los 60 y 75 años realice. Para ello se considera reclutar 15 adultos de las casas de cuidado, y configurar un espacio físico con la tecnología necesaria para que las personas puedan interactuar con los exergames. El sistema le ofrece retroalimentación al adulto respecto al ángulo con el cual está desarrollando la actividad de rehabilitación, la velocidad en la que se desarrolla la actividad y el número de interacciones de la misma. Esta información se presenta en formato de un jardín de flores que se mantiene saludable con el nivel de adhesión y compleción de las actividades de rehabilitación por parte del adulto mayor. Finalmente, se espera que mientras vamos avanzando en base a la tecnología se pueda tener una respuesta cada vez mayor por parte de los usuarios para utilizar los exergames como método de rehabilitación. Referencias. 1. Cabrera-Fernández, A., Chacón-Cuberos, R., & Castro-Sánchez, M. (2015). La alternativa de los EXERGAMES en la mejora de la calidad de vida de la tercera edad. Revista Iberoamericana de Ciencias de la Actividad Física y el Deporte, 4(3), 34-44. 2. Konstantinidis, E. I., Billis, A. S., Mouzakidis, C. A., Zilidou, V. I., Antoniou, P. E., & Bamidis, P. D. (2014). Design, implementation, and wide pilot deployment of FitForAll: an easy to use exergaming platform improving physical fitness and life quality of senior citizens. IEEE journal of biomedical and health informatics, 20(1), 189-200. 3. Guzmán, K. S., Fonseca, A. S., Jiménez, J. M., & Mora, L. C. S. (2018). Mejora del equilibrio, atención y concentración después de un programa de entrenamiento exergame en la persona adulta mayor. Retos: nuevas tendencias en educación física, deporte y recreación, (33), 102-105. 4. Vaziri, D. D., Aal, K., Ogonowski, C., Von Rekowski, T., Kroll, M., Marston, H. R., ... & Wulf, V. (2016). Exploring user experience and technology acceptance for a fall prevention system: results from a randomized clinical trial and a living lab. European review of aging and physical activity, 13(1), 6. 5. Jansen-Kosterink, S. M., Huis in’t Veld, R. M., Schönauer, C., Kaufmann, H., Hermens, H. J., & Vollenbroek-Hutten, M. M. (2013). A serious exergame for patients suffering from chronic musculoskeletal back and neck pain: a pilot study. GAMES FOR HEALTH: Research, Development, and Clinical Applications, 2(5), 299-307.
Juarez Ramirez Vania Arisbeth, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla

GLUCOSA Y UREA COMO MATERIALES PARA INNOVAR EN LA INDUSTRIA MÉDICA


GLUCOSA Y UREA COMO MATERIALES PARA INNOVAR EN LA INDUSTRIA MÉDICA

Juarez Ramirez Vania Arisbeth, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

¿Qué estudian los científicos e ingenieros de materiales? La habilidad  de innovar e incorporar materiales de manera segura en un diseño tiene sus orígenes en una comprensión de cómo manipular las propiedades y la funcionalidad de los materiales a través del control de la estructura y de las técnicas de procesamiento del material. Los materiales tienen como aspecto fundamental que son permisibles, quiere decir que estos hacen que las cosas sucedan. La ciencia e ingeniería de los materiales se encarga de la composición (constitución química) y estructura (arreglo de los átomos) de los mismos para controlar sus propiedades a través de la síntesis (cómo se fabrican) y el procesamiento (cómo se transforman).  El objetivo es convertirlos en estructuras o dispositivos útiles en la vida diaria. La investigación de la estructura de un material y su microestructura (estructura a escala microscópica) es uno de los aspectos con los cuales trabaja la ciencia de los materiales. Varios factores están implicados en la selección de un material, pues éste debe cumplir con las propiedades físicas y mecánicas deseadas y a la vez proveer una solución económica al problema del diseño. Es decir, se quiere un material que genere algo útil y comercial. Métodos de mecánica molecular. Está basado en la mecánica clásica y tiene como modelo una molécula compuesta por átomos (partículas puntuales con carga y masa) que están unidos por enlaces que se comparan con resortes. Este método construye una expresión para medir la energía potencial en función de las posiciones atómicas X, Y, y Z. Con esto se predicen geometrías en el equilibrio y energías relativas. La suma de estas contribuciones produce la energía potencial (V, también llamada energía estérica), que designará una conformación y conectividad molecular específica. A partir de esto surge el término campo de fuerza representado con la siguiente ecuación: V= Valarg + Vdef + Voop + Vlor + Vcruz + Vvdw + Velec La MM funciona con la propiedad de transferibilidad, es decir, los parámetros de cada tipo de átomo son los mismos en cualquier ambiente. Para que un campo de fuerza sea útil y proporcione resultados confiables, es necesario que los parámetros de fuerza sean transferibles completamente de una molécula a otra. Esto se utiliza para poder tratar de igualar lo experimental a lo que sucede en la realidad.



METODOLOGÍA

Después de ésta breve explicación del programa utilizado en la investigación, se trabajó con dos compuestos orgánicos con los cuales se hizo su optimización geométrica: urea, compuesto orgánico (CH₄N₂O) que podemos encontrar en el cuerpo humano como producto de desecho en la orina y la glucosa, compuesto orgánico (C₆H₁₂O₆) que en el cuerpo humano se encuentra en la sangre, el cual tiene como función el aporte de energía.  Al iniciar con el empleo del programa, se calibro de manera que los valores fueran más acertados para obtener resultados confiables. Las distancias a calibrar son medidas entre dos atomos de hidrogeno del cristal de urea. UREA: Supercelda del cristal de urea 3X3X2. Total energy :  -5227.623691 kcal/mol Contributions to total energy (kcal/mol): Valence energy (diag. terms)  : 168.478 Bond  : 59.801 Angle  : 21.556 Torsion  :  82.700 Inversion :  4.421 Non-bond energy :  -5396.102 van der Waals :-246.364 Electrostatic : -5149.738 En el programa COMPASS forcefield en el campo de fuerza experimental la distancia entre dos puntos de la molécula era de A: 5.576 Ǻ. Al probar el campo de fuerza Universal el resultado fue de A: 4.635 Ǻ, con Compass27 A: 5.545 Ǻ y con Nomorse A: 5.545 Ǻ. Con lo cual podemos observar que el campo de fuerza óptimo es Compass27 y Nomorse puesto se acercan al experimental, y para decidir sobre cuál de estos dos programas es más apto, tomamos en cuenta un segundo punto, el punto B que en experimental es 3.947 Ǻ, y en Nomorse 3.921 Ǻ y en Compass27 3.926 Ǻ. Ya con estos resultados observamos que Compass27 es el programa con el campo de fuerza más óptimo para esta molécula de urea puesto se acerca más. GLUCOSA: Molécula de glucosa. Total energy: 34.825278 kcal/mol Contributions to total energy (kcal/mol): Valence energy (diag. terms) :   -10.835 Bond  :  0.721 Angle :  2.898 Torsion  :-14.454 Inversion  : 0.000 Valence energy (cross terms)  :  -3.038 Stretch-Stretch  : 0.020 Stretch-Bend-Stretch :   -0.204 Stretch-Torsion-Stretch  : 0.031 Separated-Stretch-Stretch  :  0.000 Torsion-Stretch  : -0.016 Bend-Bend  : -0.021 Torsion-Bend-Bend :  -0.297 Bend-Torsion-Bend :  -2.551 Non-bond energy :48.698 an der Waals  :  5.905 Electrostatic : 42.793 Se midieron los enlaces del hexágono formado por los cinco atomos de carbono y 1 oxigeno. Así, del el campo de fuerza experimental la distancia entre dos puntos de la molécula era de A: 1.425 Ǻ. Al probar el campo de fuerza Universal el resultado fue de A: 1.415 Ǻ, con Compass27 A: 1.426 Ǻ y con Nomorse A: 1.461 Ǻ. Con lo cual podemos observar que el campo de fuerza óptimo es Compass27  puesto se acerca al valor experimental. Y por ende es el programa con el campo de fuerza más óptimo para esta molécula de glucosa.


CONCLUSIONES

Durante mi estancia en este verano de la investigación logré adquirir conocimientos teóricos sobre la Mecánica molecular, sobre las propiedades de las moléculas de glucosa y urea y recabe mucho aprendizaje sobre su utilización en un programa de modelos geométricos moleculares. Comprendí la importancia de la investigación del doctor, puesto con estas herramientas como lo es el programa, con la utilización de moléculas de diversos materiales, puede llegar a la creación e innovación de diversos aparatos como lo son diversas prótesis para diferentes padecimientos a un valor accesible para la comunidad.
Justiniani Vazquez Abigail Montserrat, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

SISTEMAS DE COMUNICACIóN DE EMERGENCIA: SERVICIOS, TECNOLOGíAS Y ARQUITECTURAS


SISTEMAS DE COMUNICACIóN DE EMERGENCIA: SERVICIOS, TECNOLOGíAS Y ARQUITECTURAS

Justiniani Vazquez Abigail Montserrat, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

Con el paso de los años se han presentado en las sociedades del mundo distintos desastres provocados por el hombre (incendios, enfermedades, explosiones y ataques terroristas) o por la naturaleza (tormentas, huracanes, tornados, sequias, ciclones, derrumbes, inundaciones, deslizamientos de tierra, hundimientos, terremotos, erupciones volcánicas, tsunamis y maremotos) esto causa la pérdida de cosas materiales pero sobre todo centenales o miles de muertes y damnificados por la falta de servicios y tecnologías para poder comunicarse y pedir ayuda o la falta de diseño en la construcción de viviendas para poder protegerse ante esto, aunque cada país cuenta con sus protocolos de ayuda no es suficiente para poder salvaguardar a todos. Es por ello que en documento se presentara un diseño auxiliar para a cada desastre utilizando distintos servicios, tecnologías y arquitecturas esto con el fin de ayudar a salvar vidas y al mismo tiempo poder crear una cultura capaz de reaccionar rápidamente y salvarse así mismo.



METODOLOGÍA

Dentro de la metologia se investigo sobre los destrastres y algunos conceptos basicos que ayudaron a entender mejor el proyecto  y de estos se hizo una clasificación como se muestra a continuación: Los de origen natural son aquellos producidos por la naturaleza de forma imprevista que afecta la vida diaria de las personas causando pérdidas. Estos a su vez se clasifican en: Meteorológico se relacionan con las condiciones físicas de la troposfera (temperatura, presión, humedad), capa atmosférica que está en contacto con la superficie terrestre, ejemplo tormentas, huracanes, tornados, sequias, ciclones. Topológicos es el que es involucrado por los eventos de movimiento de la corteza terrestre, deslizamientos de la tierra y otros materiales, el movimiento de placas tectónicas y de las avalanchas de nieve de la montaña, ejemplo derrumbes, inundaciones, deslizamientos de tierra, hundimientos. Tectónicos o telúricos se da por el movimiento de las placas tectónicas, ejemplo terremotos, erupciones volcánicas, tsunamis, maremoto. Provocados por el hombre son causados por el hombre de forma voluntaria o involuntaria que afecta a una sociedad causando pérdidas. Se clasifican en Incendio es una ocurrencia de fuego no controlada que puede afectar o abrasar algo que no está destinado a quemarse. Enfermedades es un estado de deterioro de la salud del organismo humano. Explosiones es la liberación simultánea, repentina y por lo general, violenta de energía calórica, lumínica y sonora. Ataques terroristas es la dominación por medio del terror, el control que se busca a partir de actos violentos cuyo fin es infundir miedo.  Sobre la clasificación de estos se esta investigando nuevas tecnologias que se puedan aplicar en los sitemas de comunicación en espeficico en los servicios, tecnología y arquitectura para ayudar a salvar vidas.


CONCLUSIONES

En conclusión durante la estancia de verano se logro adquirir conocimientos teoricos sobre los desastre que pueden llegar a ocurrir y se espera encontrar alternativas que ayuden a las personas a estar al salvo y ponerlas en practica. Como el trabajo es extenso se sigue investigando sobre las alternativas a estos, despues se espera desarrollar prototipos para ver si estos pueden funcionar durante los desastres.
Laguna Garcia Cristopher, Instituto Tecnológico de Querétaro
Asesor: M.C. Jesus Daniel Rojas Cid, Instituto Tecnológico de Lázaro Cárdenas

MODELO DE HERRAMIENTA MóVIL PARA EL MEJORAMIENTO COGNITIVO EN LA EDUCACIóN INICIAL DEL ALUMNO DE MATEMáTICAS


MODELO DE HERRAMIENTA MóVIL PARA EL MEJORAMIENTO COGNITIVO EN LA EDUCACIóN INICIAL DEL ALUMNO DE MATEMáTICAS

Laguna Garcia Cristopher, Instituto Tecnológico de Querétaro. Asesor: M.C. Jesus Daniel Rojas Cid, Instituto Tecnológico de Lázaro Cárdenas



PLANTEAMIENTO DEL PROBLEMA

El auge que han tenido las tecnologías de la información y comunicación a inicios del siglo XXI ha hecho que actualmente, marquen una tendencia respecto a la actualización de los procesos de aprendizaje en la educación inicial facilitando atender las exigencias de la sociedad. Actualmente se vive una situación ocasionada por el virus SARS-CoV-2, originando un aislamiento indefinido, así como la suspensión de clases presenciales, la cual, trajo consigo una nueva forma de trabajar. La incorporación de clases de manera virtual ha sido prolongada hasta nuevo aviso, lo cual ocasionará conflicto en el aprendizaje de los alumnos de nuevo ingreso a educación inicial ya que se requiere de especial atención sobre aquellos alumnos que presenten dificultades para realizar operaciones básicas como es la suma. La rama de las matemáticas suele ser complicada ya que requiere de del entendimiento de símbolos y números, y su dificultad para comprenderlas implica más allá de numerosas lecciones. 



METODOLOGÍA

De acuerdo con Corvalán (2018) partiendo de la inteligencia humana, existen diversas innovaciones tecnológicas implicando un procesamiento de información para la resolución de problemas y la toma de decisiones partiendo de tecnología operada por algoritmos inteligentes, sustentando así a la Inteligencia Artificial (AI) como algoritmos inteligentes o algoritmos de aprendizaje. El diseño del modelo se representa mediante un diagrama de colaboración (figura 1) que explican a detalle la relación que existe entre el usuario y la aplicación, así como un diagrama de secuencias (figura 2) identificando la relación entre el usuario, el funcionamiento de la cámara y la lógica central de la Realidad Aumentada. Iniciando con la descripción del diagrama de colaboración mediante el cual se puede apreciar como usuario a la persona que interactuará con el dispositivo móvil y la aplicación en base al siguiente proceso diseñado: Abrir aplicación. Al abrirse la aplicación de inmediatamente se podrá mostrar en pantalla la opción de abrir cámara AR para poder realizar la captura de la suma. Enviar frame. En este paso se realiza el envío de la imagen para poder ser procesada y pueda ser identificada. Conversión de archivos mediante el gestor de Vuforia permitiendo examinar la realidad entendiendo qué es lo que ve la cámara para así poder organizar un esquema del entorno. Seguimiento de base de datos Búsqueda de ID Proceso de representación 3D. Se procesa la imagen que se mostrará en pantalla. Carga de elementos procesados Conversión de archivos Renderización de la imagen con animación Interfaz de la aplicación Mostrar pantalla al usuario de identificación de la suma   Posteriormente, el diagrama de secuencias se muestra la comunicación existente para la ejecución de la función de la aplicación entre el usuario describiendo el orden lógico comprendiendo de esta manera los requisitos necesarios para su desarrollo. El proceso se inicia partiendo del usuario, quien va a ser el encargado de abrir la aplicación que contiene una cámara AR, posteriormente esta se activa y se muestra en pantalla, se realiza el enfoque de la suma que se requiere identificar y realiza el reconocimiento de la misma la cual es enviada a la lógica central de AR para ser desplegada en la interfaz y así la aplicación pueda mostrar la información de reconocimiento de la suma y el usuario pueda observarla.


CONCLUSIONES

Resulta evidente que la educación del futuro dependerá en su totalidad del uso de las tecnologías que cada día han evolucionado en pro del beneficio de quien las utiliza. Se puede entender que las innovaciones disruptivas en la educación inicial potenciaran de manera considerable el rendimiento de los alumnos que más lo necesiten, como es el caso el aprendizaje de la suma, la cual es una operación matemática simple, sin embargo, existen alumnos que por diversos problemas como lo son dislexia, déficit de atención, así como la falta de comprensión lectora. El diseño de herramientas móviles que permitan a los niños aprender mediante tecnología motivará su aprendizaje y podría lograr un mejor desempeño estudiantil.
Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora

APLICACIóN DE UN DISEñO INSTRUCCIONAL BASADO EN UN MODELO CONSTRUCTIVISTA QUE MEJORE EL RENDIMIENTO ACADéMICO EN EL TECNOLóGICO DE ZAMORA


APLICACIóN DE UN DISEñO INSTRUCCIONAL BASADO EN UN MODELO CONSTRUCTIVISTA QUE MEJORE EL RENDIMIENTO ACADéMICO EN EL TECNOLóGICO DE ZAMORA

Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán. Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán. Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán. Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Hoy en día los avances en la tecnología de la comunicación han producido cambios muy significativos en la educación tradicional. Un gran número de instituciones educativas están ofreciendo aprendizaje a distancia o virtual a través del internet. Ahora estos docentes se enfrentan con el reto de cambiar el diseño instruccional tradicional para que sus cursos sean efectivos en línea. En el Instituto Tecnológico de Estudios Superiores de Zamora, normalmente cada docente tiene sus propios cursos en diversas plataformas virtuales, sin embargo, no se cuenta con un diseño instruccional que permita estandarizar las actividades que se pretenden y que el curso contenga todo lo necesario para que el estudiante aprenda. Los cursos no presentan el uso de diferentes actividades que proporciona la plataforma utilizada. Las reducidas actividades que actualmente proporcionan los profesores de estos cursos virtuales no promueven la característica principal del constructivismo social que es la de relacionarse socialmente para aprender. Esto a pesar de que el modelo educativo basado en competencias se fundamenta en la teoría constructivista.



METODOLOGÍA

Esta investigación es de tipo experimental. El proceso secuencial se efectuaría de la siguiente manera: Investigación documental. Técnicas de investigación de campo. Recopilación de la información. Análisis de la información obtenida. Interpretación de la información obtenida. Conclusiones y recomendaciones. Definir los resultados obtenidos. Determinar las causas y los efectos de dichos resultados. Precisar la alternativa más conveniente. Reporte final de investigación. Metas: A corto plazo se pretende aplicar el diseño instruccional en una clase con un grupo ya formado para llevarlo a cabo como una prueba piloto, se presentará al estudiante los temas y subtemas que contiene alguna unidad y se describirá la importancia de la misma. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. A mediano plazo se implementará en una materia completa, en donde cada unidad contenga todos los elementos del diseño instruccional constructivista. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. A largo plazo se implementará en una carrera, en donde todas las asignaturas cuenten con el diseño instruccional constructivista, de igual forma se emplea con los anteriores, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. Finalmente, se incluirá, cómo se llevaron a cabo las actividades de aprendizaje, Éstas se realizarán a través de las actividades que proporciona Moodle como son: wikis, diario, glosario, cuestionario, encuesta, tareas, foros, crucigramas y chat. 


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos acerca del diseño instruccional basado en un modelo constructivista y poner en práctica esos conocimientos tomando el rol de profesores, donde nos dimos cuenta que la labor de un docente no es nada fácil, tienen que pasar por una etapa de organización demasiado detallada para que todo cuadre a lo largo de lo que se imparte la materia, además de cumplir con los objetivos de la asignatura a base de las actividades que se van dejando. También aprendimos a utilizar las plataformas virtuales con Sway, para apoyarnos en presentaciones dinámicas y Educaplay para actividades interactivas. ---Andrea Guadalupe Rosas Miranda   La educación en línea tomó por sorpresa a muchos, pensando en esto, se realizó una plantilla de diseño instruccional constructivista, la cual, estandariza la manera en la que el docente impartiría sus clases, es importante que los estudiantes se instruyan de manera efectiva y dinámica, estimulándolos a la investigación, proporcionándoles la inquietud y el interés por aprender cosas nuevas, por lo que se propusieron actividades de aprendizaje con distintas plataformas virtuales, entre ellas: Moodle, Genially, Sway, Visual Paradigm, Educaplay, Zoom, Meet Google, entre otras. Algunos docentes todavía son tradicionales en su forma de enseñanza y como estudiantes, a veces no nos percatamos del esfuerzo y dedicación de nuestros profesores, el tomar el papel de docente en esta investigación nos hizo valorar aún más dicha profesión, que dicta de la paciencia y el entusiasmo de enseñar. ---María José Carrillo Núñez   Mi participación en el programa Delfín, sin duda alguna fue de las mejores experiencias que he tenido, porque he aprendido a trabajar en equipo de una mejor manera. Los conocimientos que adquirí fue el trabajar mediante un modelo constructivista para acoplar una página, en la cual los estudiantes puedan tomar clases de manera virtual, de forma más sencilla, ordenada y didáctica. Sin dejar de lado la experiencia de trabajar de manera virtual en el desarrollo de este proyecto, ya que fue un verdadero reto, debido a que se presentaron muchos inconvenientes como fallas con el internet, entre otras cosas, que hicieron un poco más complicado el desarrollo del proyecto, aunque no imposible. ---Verónica Guadalupe Martínez Mora   Jamás tuve experiencia relacionada con elaborar contenido educativo en las ya conocidas plataformas virtuales, como estudiante únicamente estaba del lado de tener que introducirme a nuevas plataformas. Realizando mi estancia me percaté que tenía que utilizar un lenguaje para el desarrollo de páginas web; que es una asignatura que vi en mi carrera. Comprendí que ser docente no es simple, que con los límites que nos impidan asistir a la escuela, aún así, los docentes tienen que adaptarse y aprender a utilizar estas tecnologías para seguir enseñándole a sus alumnos. Mi punto de vista sobre las plataformas virtuales y el docente cambiaron considerablemente, fue algo que admiré mucho y que estaría dispuesto a hacer si en algún momento a mí también me toca compartir mis conocimientos. ---Fermín Lara Chávez      
Lara Sánchez Sarai Julieta, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

USO DE SOFTWARE DE CóDIGO ABIERTO EN LA INGENIERíA DE PROCESOS QUíMICOS


USO DE SOFTWARE DE CóDIGO ABIERTO EN LA INGENIERíA DE PROCESOS QUíMICOS

Lara Sánchez Sarai Julieta, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las instituciones académicas preparan ingenieros químicos cada año ocasionando mayor demanda de trabajo, entre ellos los que encuentran empleo lo hacen principalmente en el campo de la tecnología de la información (TI). Con la inminente automatización, se prevé que los empleos de bajo nivel en el ámbito de la tecnología de la información disminuyan considerablemente. Dado que se espera que esto afecte principalmente a los trabajos realizados por no especialistas en TI, se espera que las vías de empleo disponibles para los ingenieros químicos se reduzcan más. Para este proyecto se indicó una buena opción trabajar con el programa DWSIM (dwsim.inforside.com.br) que es un simulador de proceso químicos multiplataforma, este programa permite a los estudiantes de ingeniería química a los ingenieros químicos entender mejor el comportamiento de sus sistemas químicos utilizando rigurosos modelos termodinámicos y de operación unitarias sin ningún coste. Este proyecto tiene como objetivo de generar empleos para ingenieros químicos y capacitarlos en gran media, utilizando el simulador y hacerlos aptos para el empleo en la industria química.



METODOLOGÍA

Para el inicio de manejo del programa DWSIM se requiere de tutoriales para conocimiento básico de las herramientas que nos otorga el programa. Las simulaciones de diagramas de flujo de estado continuo se utilizan a menudo como herramientas de diseño y análisis en el desarrollo de plantas de procesos químicos. En un entorno de diagramas de flujo, los modelos de funcionamiento de las unidades se unen mediante corrientes de material, energía o información para cerrar los balances de masa y energía. Típicamente, los entornos de simulación vienen acompañados de un conjunto incorporado de modelos genéricos de operación de unidades, pero con bastante frecuencia existe la necesidad de modelos de operación de unidades más especializados. Ejemplo de un intercambiador de calor: Este es un diagrama de flujo de un intercambiador de calor, el programa nos muestra de manera practico el funcionamiento del proceso asignando las herramientas adecuadas y en cada operación se asigna las condiciones en las que se lleva a cabo el proceso. El programa si es ejecutado de manera correcta es posible que corra la simulación y nos dé un resultado coherente y se pueda interpretar su funcionamiento, el programa DWSIM es de utilidad ya que contiene una serie de herramientas que hace posible realizar varias simulaciones de diagrama de flujo; se puede obtener resultados de flujos de salida, de potencia generada, eficiencia del proceso, temperatura, presión, gasto energético, etc. Los problemas que se realizaron en esta investigación al simularlas se considera que el programa nos dio buenos resultados, es posible crear un análisis de los datos de la simulación seleccionando las variables que se desea conocer. En la experiencia de esta investigación solo se obtuvo una respuesta diferente ya que algunas herramientas, el programa las maneja de manera adiabática, pero se puede sacar conclusiones de los resultados obtenidos. Para esta investigación, se realizaron simulaciones de diferentes diagramas de flujo para diferentes problemas termodinámicos así generando un análisis de datos y observando su funcionamiento. El uso de este programa es beneficiado en los estudiantes de ingeniería química obteniendo capacitación y aplicar su conocimiento en las simulaciones además ya conociendo sus funcionamientos DWSIM nos permite observar la simulación del proceso y conocer y comprender porque se lleva a cabo cada operación así conociendo los datos de resultado se obtiene la conclusión de la simulación y el estudiante e ingeniero obtendrá conocimiento y capacitación. A continuación, se mostrarán algunos resultados de las simulaciones de diagramas de flujo que se realizaron durante la estancia: Ejemplo de un compresor: Se realizo una simulación de el funcionamiento de un compresor conociendo los datos iniciales de flujo y del compresor. Se anexaron los resultados en una tabla de propiedades del flujo de salida del compresor y la respuesta que se buscaba en el problema que el gasto energético que se llevo en un 70% de eficiencia. Se realizo un ejemplo de una planta geotérmica, el proceso se conecta de varias operaciones donde se asigna sus condiciones en cada una. En cada operación el programa no corre la simulación si se anexa una condición no apropiada, la simulación de este diagrama se asignaron los datos proporcionados al problema. Se puede colocar en tablas las propiedades de cada operación, conociendo los datos que trabaja el proceso, los datos más relevantes y se deben de mantener es la temperatura, presión y los flujos, las operaciones nos dan resultados de importancia como la potencia generada, la eficiencia del proceso, las fases de cada flujo que sale de las operaciones, etc.


CONCLUSIONES

El programa DWSIM es un programa que una de sus funciones es capacitar a los estudiantes de ingeniería química en la su solución de problemas termodinámicos, de diseño de procesos y en general de ingeniería; conociendo las herramientas que simula el programa se puede adaptar y obtener resultados coherentes, generando conocimiento de lo que sucede en el proceso y generando los resultados de cada operación; se pueden generar análisis para obtener una gráfica con las variables que se desea analizar. Se puede considerar que los problemas termodinámicos analizados en este trabajo dieron resultados coherentes y se pudieron adaptar al programa de simulación; lo que resulto una adecuada capacitación para los participantes.
Leandro Gonzalez Emmanuel, Instituto Politécnico Nacional
Asesor: Dr. Alejandro Sebastián Ortiz Pérez, Universidad Autónoma de Baja California

INFLUENCIA DE LAS FUERZAS AERODINáMICAS EN EL DESEMPEñO DE UNA AERONAVE DE AVIACIóN CIVIL Y SU CONTRIBUCIóN EN LA ESTABILIDAD ESTáTICA.


INFLUENCIA DE LAS FUERZAS AERODINáMICAS EN EL DESEMPEñO DE UNA AERONAVE DE AVIACIóN CIVIL Y SU CONTRIBUCIóN EN LA ESTABILIDAD ESTáTICA.

Castrejón Ocampo Yael Eduardo, Instituto Politécnico Nacional. Leandro Gonzalez Emmanuel, Instituto Politécnico Nacional. Asesor: Dr. Alejandro Sebastián Ortiz Pérez, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La industria aérea se ha convertido en una de las más importantes a nivel mundial, ya que tiene gran impacto principalmente en el sector económico, social y ambiental. Es una de las principales entradas de recursos económicos del país. Sin embargo, no todos los costos llegan a ser tan accesibles, y por esto es necesario desarrollar aviones más eficientes aerodinámicamente, lo que conlleva ser capaces de mantener un mayor tiempo de vuelo con una cantidad considerable de combustible, siendo esta, una de las formas óptimas para reducir las tarifas establecidas.



METODOLOGÍA

Primero, se abarcaron los conocimientos previos teóricos necesarios. Se nos encargó investigar para tener, dentro del análisis a realizar, un panorama completo de qué aspectos se toman en cuenta para la solución de las problemáticas que generan las fuerzas aerodinámicas en el desempeño de una aeronave. Para un mejor entendimiento, investigamos las características que influyen en el desempeño aeronáutico. Una vez visto esto, comenzamos a desarrollar modelos matemáticos aplicables a diversas situaciones que influían en el desempeño de la aeronave, tal como el que describe el equilibrio de las fuerzas en esta, el factor de carga, la eficiencia aerodinámica y la velocidad óptima. De igual manera, determinamos el modelo para el cálculo del rango de vuelo de un turborreactor, con la finalidad de evaluar el desempeño de este, su comportamiento de consumo de combustible específico (TSFC) en función a la altitud y la velocidad de vuelo, así como el alcance máximo de una aeronave con un sistema propulsivo a base del turborreactor antes mencionado. A partir de los resultados, se obtuvo que a una altura constante se alcanza un mayor rango en comparación con el de velocidad constante, esto se debe a que el consumo específico del combustible siempre va a depender de la altitud, por esa razón si lo mantenemos a una altitud constante, se obtendrá un mejor aprovechamiento del combustible. Por otra parte, determinamos el modelo para el cálculo de un óptimo despegue de una aeronave, buscando obtener el tiempo por cada intervalo y la distancia recorrida total, considerando las fuerzas de fricción, arrastre y empuje. A partir de esto, se obtuvo la ecuación para calcular el tamaño mínimo de la pista, así como el tiempo que va a tardar en despegar. Para el caso del aterrizaje, serán distintos la longitud de la pista de aterrizaje necesaria y el tiempo, ya que el análisis se dividirá en 3 partes:  approach, flare y ground run. Por último, se buscó modelar matemáticamente y describir todos los aspectos que llegan a influir, en el giro de una aeronave, encontrando la relación de los coeficientes de la aeronave, en distintas situaciones de giro. Finalmente, analizamos y resolvimos cada posible situación donde aplicarán los modelos matemáticos obtenidos, se desarrollaron y se buscó darle una interpretación más cercana a la realidad para encontrar la solución más factible, normalizando los modelos matemáticos obtenidos para alcanzar una máxima eficiencia de la aeronave contemplando todas las fuerzas aerodinámicas que influyen.


CONCLUSIONES

Durante la estancia, los contenidos teóricos fueron totalmente abarcados y comprendidos, se aplicaron para la solución de distintas situaciones cercanas a la realidad, en donde se buscó la eficiencia máxima de la aeronave, tomando en cuenta los distintos aspectos aerodinámicos. Se obtuvieron buenos resultados los ejercicios realizados, además al ser prácticos, se aplicó conocimiento de otras ramas. El no poder tomar las lecciones presencialmente, limitó la parte práctica de la solución de la problemática, ya que no se comprobó experimentalmente los resultados teóricos. Se espera que en un futuro se apliquen estos conocimientos en la rama de ingeniería aeronáutica y contribuya al mejoramiento de una aeronave.
Lecona Valdespino Carlos Natanael, Instituto Politécnico Nacional
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

MODELO DE INTELIGENCIA ARTIFICIAL PARA LA DETECCIóN DE ENFERMEDADES CARDIOVASCULARES.


MODELO DE INTELIGENCIA ARTIFICIAL PARA LA DETECCIóN DE ENFERMEDADES CARDIOVASCULARES.

Hernandez Carmona Josue Jyaru, Instituto Politécnico Nacional. Lecona Valdespino Carlos Natanael, Instituto Politécnico Nacional. Magaña Medina Jesus Omar, Universidad Autónoma de Sinaloa. Sáenz Salazar César David, Instituto Tecnológico de Chihuahua II. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Actualmente existen muchos métodos y herramientas para la detección de enfermedades cardiovasculares. Los doctores y personal médico de los hospitales utilizan diversos instrumentos para poder hacer la detección de enfermedades, además de contar con preparación dentro del área en que se desenvuelven para concluir con un diagnostico basado en síntomas previos del paciente. El objetivo del modelo desarrollado es agilizar la manera en la que se pueden detectar enfermedades cardiovasculares, de tal forma que, al introducir ciertos valores por computadora se obtiene como resultado un diagnostico fiable el cual determina si el paciente diagnosticado cuenta con presencia de alguna enfermedad o no. De esta manera el personal medico puede auxiliarse y obtener resultados mas rápidos de los pacientes diagnosticados.



METODOLOGÍA

Los métodos adecuados a aplicar en el trabajo de investigación de este proyecto son el deductivo, cuantitativo, cualitativo y comparativo. Se utilizaron con el objetivo de analizar diferentes algoritmos de inteligencia artificial, sin embargo, previo al análisis se preprocesaron los datos con ayuda del lenguaje de programación Python. Los algoritmos utilizados fueron Regresión Múltiple Lineal, Redes Neuronales, Random Forest, Vecinos Cercanos y Maquinas de Vectores de Soporte (algunos de ellos basados en probabilidad y estadística). De esta manera se compararon los resultados obtenidos con dichos algoritmos y se pudo determinar el mejor de ellos para el caso utilizado. Los datos utilizados previamente al preprocesamiento fueron proporcionados por un repositorio de machine learning, donde el crédito de los datos utilizados de Cleveland se le atribuyen a V.A. Medical Center, Long Beach and Cleveland Clinic Foundation: Robert Detrano, M.D., Ph.D.


CONCLUSIONES

Los resultados en porcentaje de exactitud obtenidos de la aplicación de cada algoritmo en los datos preprocesados fueron los siguientes: Regresión Múltiple Lineal: 57% Redes Neuronales: 89% Random Forest: 74% Vecinos Cercanos: 95% Máquinas de Vectores de Soporte: 41%
Ledesma López Andrea Guadalupe, Universidad Politécnica de Tecámac
Asesor: Mtra. Graciela Margarita Cetina Quijano, Universidad Politécnica de Tecámac

PLATAFORMA PARA EL PROCESO DE EVALUACIóN DE ESTUDIANTES EN EDUCACIóN DUAL, DESARROLLADA CON PHP, HTML5, CSS3 Y JAVASCRIPT PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC


PLATAFORMA PARA EL PROCESO DE EVALUACIóN DE ESTUDIANTES EN EDUCACIóN DUAL, DESARROLLADA CON PHP, HTML5, CSS3 Y JAVASCRIPT PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC

Cabrera Sanchez Itzel, Universidad Politécnica de Tecámac. Gómez Monroy Luis Alberto, Universidad Politécnica de Tecámac. Ledesma López Andrea Guadalupe, Universidad Politécnica de Tecámac. Martinez Gonzalez Obed Noe, Universidad Politécnica de Tecámac. Asesor: Mtra. Graciela Margarita Cetina Quijano, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la gestión del Sistema Dual en la Universidad Politécnica de Tecámac, la cual es una opción educativa, en la que los estudiantes reciben, de manera alternada, formación teórica en los planteles educativos y formación práctica en las empresas, con la finalidad de facilitar la inserción de los egresados en el ámbito laboral. Sin embargo, la plataforma que se usa actualmente es independiente de la universidad, por lo que sólo permite dar de alta a los estudiantes y no llevar un seguimiento de su desempeño académico y dentro de la empresa. En el año 2015 la Educación Dual comenzó a tener su auge en la educación media superior y superior, su finalidad es cualificar profesionalmente a personas trabajadoras en un régimen de alternancia, que combina la formación de los alumnos en el centro educativo y la formación en la empresa, integrando al estudiante en la empresa para desarrollar sus competencias profesionales, al tiempo que desarrolla competencias genéricas y disciplinares a fin de lograr una educación integral. El principal problema a resolver durante la investigación, fue lograr diseñar y crear un sistema que cumpliera todas las necesidades, que fueron requeridas por nuestro asesor empresarial, y una vez comenzado el desarrollo, ir resolviendo las dudas y problemáticas que se iban presentando al momento de la codificación del sistema.



METODOLOGÍA

El proyecto se realizó en el lenguaje de programación PHP el cual está destinado para el desarrollo web, con el uso del espacio de trabajo, mejor conocido como framework, Laravel. La plataforma está diseñada en base a la arquitectura de software; Modelo Vista Controlador, la cual separa los datos de una aplicación, la interfaz de usuario y la lógica de control. El modelo contiene una representación de los datos que maneja el sistema, en el caso de la vista, es la encargada de proporcionar la información enviada al cliente y el controlador actúa como intermediario entre los dos anteriores. Por ejemplo, para el llenado del formulario de inicio de sesión del estudiante, este usuario ingresa sus datos en la vista y da clic en un botón, por medio de este , la plataforma realiza una petición al controlador y este a su vez por medio del modelo busca los datos del usuario y verifica que sean compatibles con alguno registrado en la base de datos, si la consulta es exitosa, el controlador retornará una respuesta positiva a la vista, en este caso, lo dejaría entrar a su perfil personal, en caso de que no se encuentren los datos, el controlador lanzará una respuesta de error, que se visualizará en la misma vista de inicio de sesión. Para del Front-end, es decir, la interfaz gráfica de la plataforma utilizamos el lenguaje HTML5 el cual nos permite estructurar y presentar el contenido web, nos apoyamos de las Hojas de Estilo en Cascada, CSS3, para mayores detalles de diseño, como colores y tamaños en los elementos de la cada página, así como del framework Bootstrap, el cuál es una biblioteca de código abierto para el diseño de sitios web que contiene plantillas para formularios, botones, menús, entre otros elementos. Del mismo modo utilizamos el lenguaje de programación JavaScript para el diseño de tablas que permitan al usuario visualizar información importante, como lista de tareas, lista de becarios, biblioteca de archivos, registro de asistencia, por mencionar algunos. Sin embargo, JavaScript no sólo lo utilizamos para el diseño, también nos permitió establecer vínculo con el Sistema Único de Información Escolar de la Universidad Politécnica de Tecámac (SUIE), por medio de peticiones para la obtención de información que ayudara a abastecer la Plataforma de Evaluación de Estudiantes en Educación Dual, principalmente los catálogos de estudiantes, docentes, materias, cuatrimestres, carreras, áreas, plan educativo e inscripciones, con la finalidad de no repetir la captura de datos para la plataforma.


CONCLUSIONES

Durante nuestra participación en este verano virtual, logramos obtener un mejor conocimiento tanto de manera personal, pues el hecho de poder convivir con nuestro investigador de una manera mas personal para mejorar nuestro ser, así como el poder aprender nuevas tecnologías de desarrollo de proyectos y convivir con profesores que manejen estas mismas, teniendo asesorías de calidad. Logrando concluir que se espera lograr un impulso en nuestro plantel sobre estos sistemas, logrando una automatización de todos los sistemas posibles hasta ahora.  Se seguira dando seguimiento a este trabajo de investigación con la finalidad de obtener los mejores resultados y estos sean de calidad.
Leon Alvarez Jocelyn, Instituto Tecnológico de Toluca
Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica

DISPOSITIVO DE SEGUIMIENTO VEHICULAR PARA NUEVAS REDES DE INTERNET DE LAS COSAS ORIENTADO AL SISTEMA INTEGRADO DE TRANSPORTE PÚBLICO DE LA CIUDAD DE BARRANQUILLA Y SU ÁREA METROPOLITANA


DISPOSITIVO DE SEGUIMIENTO VEHICULAR PARA NUEVAS REDES DE INTERNET DE LAS COSAS ORIENTADO AL SISTEMA INTEGRADO DE TRANSPORTE PÚBLICO DE LA CIUDAD DE BARRANQUILLA Y SU ÁREA METROPOLITANA

Leon Alvarez Jocelyn, Instituto Tecnológico de Toluca. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El tráfico dentro de las ciudades y sus áreas metropolitanas ha pasado a ser una problemática cotidiana, produciendo efectos adversos para la movilidad de vehículos y usuarios como: aumento en los tiempos de viajes, efectos medioambientales negativos, accidentalidad entre otros (Seguí Pons & Martínez Reynés, 2004). Desde la implementación de las señales de tránsito hasta los grandes esfuerzos de la ingeniería para la creación de vehículos más seguros, se han desarrollado técnicas y tecnologías que permiten mejorar los sistemas de transporte, estas se engloban colectivamente como sistemas de transporte inteligente (ITS). Los ITS pueden definirse como la aplicación de tecnologías de: informática, información y comunicaciones para el manejo de vehículos y redes que involucran el movimiento de un usuario o bien usuarios (Sayeg & Charles, s. f.).   Dentro de los ITS, los sistemas de posicionamiento global (GPS) juegan un papel fundamental para conocer en tiempo real posición e información fundamental del vehículo según sea el caso, datos fundamentales que influyen en la toma de decisiones (Seguí Pons & Martínez Reynés, 2004).  Los dispositivos GPS comerciales están limitados por dos factores fundamentales: El uso de la red de telefonía celular, lo que restringe su funcionalidad al despliegue y capacidad de esta, y seguidamente por el tiempo de carga, no son equipos direccionados al bajo consumo de energía lo que disminuye su tiempo de libertad sin una carga externa (batería del vehículo) (Cabric, 2017).   Actualmente la ciudad de Barranquilla y su área metropolitana en continuidad con el plan de gobierno anterior y actual ha iniciado la migración de transporte público a un sistema de transporte integrado público (SITP), por lo anterior se propone diseñar e implementar un dispositivo GPS para redes IoT con estándar Lora WAN orientado al SITP de la ciudad de Barranquilla y su área metropolitana.   Dada la clara necesidad de desarrollar un dispositivo GPS con tecnologías emergentes, orientado a la gestión y localización de vehículos SITP de Barranquilla y su área metropolitana, surge el siguiente interrogante:   ¿Cómo desarrollar un dispositivo GPS para redes IoT orientado al sistema integrado de transporte público de la ciudad de Barranquilla y su área metropolitana?



METODOLOGÍA

Esta investigación es de tipo cuantitativa, se realiza la implementación del dispositivo GPS para adquieren datos y de esta validar su correcto funcionamiento. Su alcance es de tipo descriptivo, ya que busca establecer la viabilidad de una nueva tecnología aplicada a una solución para servicios de seguimiento satelital y sirve como base para establecer conceptos relacionados a esta.   Al ser una investigación cuantitativa, se utiliza un modelo secuencial a través de diferentes fases que se describen a continuación:    En la primera fase, inicialmente se refinarán los conceptos y estado de la técnica entorno a las soluciones IoT con protocolo Lora WAN, consultando publicaciones, libros y artículos científicos en bases de datos especializadas. Se realizará análisis de los requisitos técnicos del dispositivo AVL (localización vehicular automatizado) con base a dispositivos comerciales y las especificaciones técnicas del mercado vehicular. En esta fase se construye la taxonomía de los dispositivos AVL, caracterización de las especificaciones y se identificaran todas las variables para tener en cuenta en el desarrollo del dispositivo.   La segunda fase, corresponde al desarrollo del dispositivo AVL, parte de una evaluación para la selección de los materiales y accesorios necesarios para fabricación del dispositivo, seguido se procederá al diseño del circuito esquemático con el apoyo de software de diseño electrónico. Por último se implementará el circuito diseñado con los materiales seleccionados.   En la tercera fase, se realizará el diseño e implementación de la base de datos para captar la información enviada por el dispositivo AVL a su vez se realizará el desarrollo de la interfaz gráfica para la visualización de estos datos.   Por último, en la cuarta fase se realizará la integración entre el dispositivo y la interfaz de visualización, seguidamente se verificará el correcto funcionamiento del dispositivo.


CONCLUSIONES

A continuación, se mencionan los resultados principales esperados al finalizar el desarrollo de esta propuesta:   Desarrollo de un dispositivo de seguimiento satelital IoT orientado a ser implementado en el sistema integrado de transporte publico de Barranquilla, lo que convertiría a Barranquilla, en la primera ciudad con un sistema de seguimiento con tecnología Lora WAN de Colombia y una de las primeras en la región. Evaluación de parámetros y acciones para gestión de flotas a través de los dispositivos desarrollado, en pro de mejorar la toma de decisiones en empresas del sector.   Tomando en cuenta los resultados finales , se expone a continuación los resultados obtenidos : Conceptos sobre tecnología LPWAN,  su normatividad y aplicación dentro del desarrollo del proyecto. Familiarización con los dispositivos Heltec  con su nueva serie CubeCell(TM) ,principalmente la dev-board HTCC-AB01 , para aplicaciones de nodos LoRa/LoRaWAN.La serie CubeCell (TM) se basa en ASR605x (ASR6501, ASR6502), esos chips ya están integrados con el MCU. Se ha hecho una gran cantidad de migración y desarrollo, para hacerlo perfectamente compatible con Arduino, puede ejecutar el protocolo LoRaWAN de forma estable, puede conectar fácilmente baterías de litio y paneles solares. Acoplamiento de la tarjeta de desarrollo HTCC-AB01 dentro del entorno de desarrollo integrado de Arduino con ayuda de las librerías, TinyGPS,TiniGPS++ y SoftwareSerial, asi como la sintonización del protocolo LoRaWAN (Región, clase, netmode, linkmode, etc.) dentro del mismo. Diagrama de conexiones electronicas entres el modulo GPS Neo-6M v2 y la tarjeta de desarrollo HTCC-AB01, asi como la alimentación de ambos dispositivos.  
León Utrilla Yuliana Guadalupe, Instituto Tecnológico de Morelia
Asesor: Dra. Ofelia del Carmen Hernández Negrete, Universidad de Sonora

METALúRGIA EXTRACTIVA DEL LITIO


METALúRGIA EXTRACTIVA DEL LITIO

León Utrilla Yuliana Guadalupe, Instituto Tecnológico de Morelia. Asesor: Dra. Ofelia del Carmen Hernández Negrete, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El litio es un muy metal importante con una amplia variedad de propiedades únicas y una vasta gama de aplicaciones. Debido al uso cada vez mayor en dispositivos electrónicos portátiles y vehículos eléctricos, se espera que la demanda de litio en el mercado de productos básicos aumente grandemente por lo menos durante la próxima década. Una de las grandes dificultades respecto al uso de este material, es su suministro, esto es debido a las escasas fuentes producción que se han concentrado principalmente en países como estados unidos, china, chile y argentina. Actualmente México, está siendo considerado como un futuro proveedor de Litio debido a la evaluación de factibilidad recientemente desarrollada para explotar una reserva natural de Litio de unos 4500 millones de toneladas ubicada en poblado La Ventana, Bacadehuachi, Sonora. De acuerdo con la evaluación a la reserva natural de litio en sonora desarrollada por el Mining Technology, tiene un gran potencial para convertirse en uno de los principales proveedores de litio no solamente de América Latina si no que del mundo. De esta reserva se tienen grandes expectativas, como mejorar la calidad de vida, no solo de los habitantes de la región sino también del resto del país. Al presente, la empresa Bacanora Lithium, se encuentra en proceso de construcción de una mina para la explotación de este valioso material y comercializarlo como Li2CO3. Actualmente, México cuenta con una gran capacidad de recursos humanos calificados en metalurgia extractiva de múltiples minerales, pero no especializados en los procesos de extracción y manejo de litio y sus compuestos. Así mismo, la mayoría de los procesos de reciclaje de baterías gastadas de litio (LIB’s), están basados en procesos de metalurgia extractiva. Sin embargo, referente a los procesos de reciclaje de baterías gastadas de Litio en México, se limita al acopio de manera informal de las mismas, lo cual podría ser muy peligroso.



METODOLOGÍA

Debido a la contingencia sanitaria, el trabajo de investigación se llevó a cabo, sólo de manera documental. Sin embargo, la metodología consistió en hacer la investigación de manera sistemática haciendo consulta en fuentes científicas en el estado de arte. Se utilizaron artículos científicos de reciente publicación de revistas científicas internacionales, indizadas y con arbitraje estricto. Libros de reciente publicación, plataformas de ciencia y tecnología internacionales, información de sitios web de las empresas mineras locales, así como sus reportes de evaluación de factibilidad recientes y de progreso en la construcción de la mina. Se elaboró constantemente el reporte con supervisión constante mediante reuniones virtuales frecuentes.


CONCLUSIONES

Actualmente, existen algunas tecnologías a escala industrial o desarrolladas a escala piloto para recuperar litio tanto de minerales, arcillas, salmueras y baterías de iones de litio (LIB´s). Aunque existen múltiples procesos para la recuperación de litio a partir de fuentes minerales y arcillas la mayoría de estos son de alto costo tanto de minería, como en el consumo de energía. Hasta el momento, debido a la cantidad de litio presente en el mineral, la espodumena, es el principal recurso de los minerales de Litio. La extracción de litio de salmueras y agua de mar requiere de tiempos de residencia muy largos para la evaporación y la concentración, lo cual es un serio inconveniente y también se ven seriamente afectadas por el clima. En la actualidad, pocas empresas reciclan el litio de las LIBs, por lo que recuperarlo de los LIBs podría resolver de manera efectiva cualquier posible crisis futura de suministro de litio. El proceso de reciclaje de las LIBs suele ser complejo y poco fructífero en cuanto a este metal, y todavía la recuperación de otros metales presentes, como cobre cobalto y níquel es muy baja. Por lo que, en la actualidad, la extracción de litio no se practica industrialmente a partir de las LIBs. Por todo esto, es necesario continuar los esfuerzos de investigación y desarrollo para desarrollar tecnologías sostenibles que puedan recuperar efectivamente todos los metales valiosos de los recursos primarios y secundarios, simplificar el proceso de reciclaje y reducir el costo de reciclaje. La reserva natural de Litio en México pone a nuestro país en la mira como un potencial proveedor, para el desarrollo de nuevas tecnologías generadoras de energía de manera sustentable. Y que también, pueda ser una valiosa fuente de trabajo para la localidad y su mejoramiento de calidad de vida.  
Leonel Hernandez Carlos, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dra. Izol Emilia Marez Lopez, Universidad Autónoma de Sinaloa

DESARROLLO TURíSTICO: ANáLISIS COMPARATIVO DE CHETUMAL Y CANCúN


DESARROLLO TURíSTICO: ANáLISIS COMPARATIVO DE CHETUMAL Y CANCúN

Leonel Hernandez Carlos, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Izol Emilia Marez Lopez, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

A nivel mundial, en la segunda mitad del siglo XX hasta nuestros días la actividad turística ha provocado cambios y alteraciones a la arquitectura, la cual se ha adaptado a las necesidades del turismo. La evolución creciente de las actividades turísticas llevados a cabo pone en oposición clara entre lugares turísticas y no turísticas. Esto implica que ciertos lugares turísticos se convierten en lugares ordinarios y que lugares ordinarios o suburbios populares se convierten en un punto de enfoque turístico. Estos cruzamientos entre lo que es ordinario y turístico son provocados, en ocasiones, por el siglo XXI, el siglo del post-turismo. México es de los pocos países del mundo que proyecta el turismo desde el Estado, para cumplir esta función creó el Fondo Nacional de Fomento al Turismo (FONATUR), que planificó, desarrolló y promovió la creación de (entre 1974 y 1984) cinco enclaves turísticos llamados Centros Integralmente Planeados (CIP) de costa a lo largo del país, apostando por el turismo de sol y playa como reactivador económico. Esto igual deja por afuera los lugares que en algún momento pudieron ser orientados al turismo, pero por la planificación, se convirtieron en lugares ordinarios. Chetumal es un ejemplo de un lugar con potencial turística que se convirtió a un lugar ordinario.



METODOLOGÍA

Primeramente, se hace una propuesta de proyecto de investigación retroalimentandolo con el planteamiento del problema para adquirir información requerida para justificar el tema elejido. Posteriormente, se estudia el tema de acuerdo a conceptos claves de la investigación y conocer qué casos de éxitos existen alrededor del mundo para comparar lo que ha pasado con lo que se está investigando. De acuerdo a ésta información base, podemos definir los objetivos, lo que se quiere hacer y lograr, esto son las aportaciones ya sea una propuesta de solución o una herramienta de diseño, etc. Con la búsqueda de bibliografía se encuentran los artículos que sirven como apoyo para saber más del tema. Posteriormente,  se deben conocer los conceptos generales que rígen el proyecto de investigación. Estos conceptos deben ser definidos y puestos en clasificación de manera jerarquica conociendo las diferencias entre los conceptos y la importancia de cada concepto. Se debe definir la zona de estudio, al seguir este punto importante hay que formular las hipótesis generales y particulares, afirmando lo que está planteado. En el análisis se tiene que hacer una observación de campo de la zona de estudio de la investigación, tomando importancia los registros de mapas, imagenes, etc. Todos estos registros se debe de análizar y reflexionar utilizando mapas conceptuales, tablas, gráficas, láminas, etc. Ya por último se hacen conclusiones con posibles soluciones de la problemática o posibles conceptos.


CONCLUSIONES

Una ciudad CIP que es dedicada al turismo o más bien, una ciudad bien planeada muestra diferencias significativas en su ordenamiento, desarrollo, calidad de vida que se presenta y en grande, la economía que desarrolla gracias al impulso del turismo. A pesar que Chetumal puede ser un lugar de atracción y de turismo alternativo, se tienen que proponer a que los tipos de suelos se relacionan entre ellos de manera integrado para un mayor aprovechamiento de estos.   
Lerma Valdivia Joaquín David, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

ANÁLISIS COMPARATIVO DE PROPUESTAS DE CONCENTRACIÓN SOLAR POR SALES FUNDIDAS USANDO EL SOFTWARE “SAM”


ANÁLISIS COMPARATIVO DE PROPUESTAS DE CONCENTRACIÓN SOLAR POR SALES FUNDIDAS USANDO EL SOFTWARE “SAM”

Lerma Valdivia Joaquín David, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Actualmente en La Paz Baja California Sur, más de la mitad de la población no cuenta con todos los servicios básicos, entre ellos la electricidad. Así que, las plantas de energía solar por concentración juegan un papel importante en el desarrollo de esta costa. Por lo tanto, por medio de este trabajo se busca conceptualizar el tema, darlo a conocer más a fondo y proporcionar posibilidades de generar energía eléctrica a base de concentración por sales fundidas Ya que la problemática que se me presenta se resume en que se carece de un análisis, que dé a conocer si es viable implementar plantas de concentración solar a base de sales fundidas en el municipio de La Paz, Baja California Sur por lo que durante el verano de investigación virtual se estudian estas posibilidades mediante el software libre SAM (System Advisor Model), un software que me permitirá simular distintos diseños de este tipo de centrales propuestas y poder observar sus características.



METODOLOGÍA

Se propusieron dos modelos distintos en el software SAM enfocados en la concentración de energía solar mediante torre de energía a base de sales fundidas, utilizando un acuerdo de compra de energía para un único propietario para definir el modelo financiero de la planta con el que se realizó la comparativa buscando ayuda para la toma de decisiones sobre si es factible este tipo de tecnologías en la zona antes descrita, así como el aprendizaje de este software.  Ya seleccionadas las características iniciales incluyendo la localización de estudio, lo siguiente fue definir en el apartado de diseño del sistema para el ciclo de poder, un diseño de potencia bruta de la turbina de 10 MWe para los dos modelos, esto con el fin de tener un margen aceptable de producción de energía y a su vez reducir costos del diseño.  Para definir las diferencias de mis modelados se optó por modificar la altura y anchura de los heliostatos, uno de 6 m por 6 m y otro de 12.2 m por 12.2 m, en cada caso se calculó mediante el software para definir posiciones y dimensiones de los helióstatos, así como de la torre, receptores y área total que abarcará todo el sistema.  Dentro de la torre de concentración se optó por utilizar sales de Na NO3 (nitrato de sodio) en un 60% y el otro 40% K NO3 (nitrato de potasio) estas fueron por ser las sales comerciales y comunes, ya que es lo que es lo necesario dentro de los criterios hacer una planta de concentración de la manera económica y factible posible, dentro de la misma razón se decidió tomar en cuenta el ciclo de potencia a utilizar que mediante un intercambiador de calor se alimenta lo que es un ciclo Rankine este ciclo fue elegido por los motivos ya expuestos. No obstante, estas sales requieren siempre estar a no más de una temperatura de 594 °C ya que pueden dañar el sistema, para este tipo de sobre generación de calor se encarga el ciclo Rankine de generar de acelerar el proceso de generación para suministrar más energía.  Por otra parte, tenemos los tanques de almacenamiento, de los cuales tienen un volumen de 1232 m3que esto es lo que se requiere para mantener el sistema de almacenamiento de sales por 10hrs, siempre y cuando no se tenga una temperatura menor a los 270°C ya que de lo contrario se daña el sistema causando problemas dentro de los tanques. 


CONCLUSIONES

Finalmente tenemos un factor muy importante que son los costos donde realmente la tasa de recuperación de inversionista no es muy buena ya que esto es para 20 años de recuperación. Analizando los resultados nos dio que es necesario alrededor de 62 millones de dólares para una central de este tipo, debido a todo lo que engloba, se complica, entonces, por la energía generada anualmente de aproximadamente 33,506,588 KWh hablando sobre el modelo financiero, no representa una inversión ajustable para los inversionistas. Cabe mencionar que nunca es tiempo perdido el que se usa para desarrollar nuestros aprendizajes, para aumentarlos. Esto es lo que más queda en claro cuando se habla de la conclusión de una investigación, definitivamente se logró durante la estancia de verano científico, adquirir conocimiento de distintos tipos de energías renovables, temas que se consideran de gran importancia y merecen toda la atención posible.
Lizama Ramirez José Candelario, Universidad Autónoma de Nayarit
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

INVESTIGACIóN DE META DATOS COVID-19


INVESTIGACIóN DE META DATOS COVID-19

Hernandez Roque Isabel Anahi, Universidad Autónoma de Nayarit. Lizama Ramirez José Candelario, Universidad Autónoma de Nayarit. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Según la OMS (Organización Mundial de la Salud) los coronavirus son una extensa familia de virus, algunos de los cuales pueden ser causa de diversas enfermedades humanas, que van desde el resfriado común hasta el SRAS (síndrome respiratorio agudo severo). Los virus de esta familia también pueden causar varias enfermedades en los animales. El coronavirus SARS-Cov-2 conocido como COVID-19 es un virus que se ha extendido por todo el mundo provocando una pandemia, apareciendo principalmente en China, después se extendió afectando mayormente a Europa y América dejando en considerable riesgo a personas mayores, embarazadas y aquellas con enfermedades crónicas o degenerativas como hipertensión, diabetes, cáncer, etc. Este virus causa síntomas que van desde fiebre, dolor de cabeza y articulaciones, impedimento para respirar y dolor de garganta con dificultades previas en personas con enfermedades adicionales, es decir comorbilidades, en México las afecciones comórbidas con mayor presencia son la hipertensión, obesidad, diabetes y tabaquismo. La mayor problemática que se ha presentado hasta ahora es erradicar este virus y por lo tanto los esfuerzo para encontrar la cura se intensifican cada vez más llevando medicamentos y fármacos a ser usados como posibles soluciones para la disminución de síntomas o resultados positivos en pacientes en etapas iniciales mientras llega una vacuna que elimine por completo este virus.



METODOLOGÍA

Se realizaron diversas investigaciones en las que incluyen propagación y cifras del COVID-19, posibles vacunas y fármacos como soluciones al problema además de las comorbilidades que presentan la mayoría de los pacientes, casos acumulados y activos y las defunciones que ha tenido la república Mexicana durante la pandemia así como posibles soluciones médicas.  Según los reportes de la Secretaría de Salud del Gobierno de México, la distribución por sexo en los casos confirmados muestra un predomino del 53.12% en hombres mientras que un 46.88% en mujeres. La mediana de edad en general es de 44 años.  Las cinco entidades con el mayor número de casos acumulados distribuidos por entidad de residencia son: Ciudad de México, Estado de México, Guanajuato, Tabasco y Veracruz, que en conjunto forman el 43.2% de todos los casos registrados en el País, a la última fecha de actualización, del total de defunciones confirmadas: 43% de los casos padecían hipertensión, 37% diabetes, 25% obesidad,  y 8% tabaquismo, mientras que un 27% de las defunciones no tenían ningún padecimiento. La lista de enfermedades subyacentes que aumentan el riesgo de enfermarse gravemente a causa del COVID-19 se actualizó con base en informes, artículos de prensa, borradores sin revisión y datos internos disponibles entre el 1 de diciembre del 2019 y el 10 de julio del 2020. Esta lista es un documento dinámico que puede ser actualizado periódicamente por los CDC (Centros para el Control y la Prevención de Enfermedades), y que puede cambiar rápidamente a medida que evoluciona la ciencia. Enfermarse gravemente a causa del COVID-19 implica por definición: hospitalización, admisión a una UCI, intubación o asistencia respiratoria mecánica, o muerte, todo esto con el fin de tener una clara comparativa de lo que se está realizando estratégicamente en México y en otros países donde sus cifras han disminuido relativamente. Mientras tanto el uso de algunos fármacos en pacientes gravemente enfermos ha sido de gran ayuda, por mencionar algunos como es la Dexametasona y el Remdisivir medicamentos que han sido utilizados contra el ébola y medidas antiinflamatorias, sin embargo el uso de estos medicamentos no combaten por completo el virus por lo que son solamente suministrados en pacientes antes mencionados que de alguna manera les ayuda a disminuir los síntomas y el daños que causa al sistema inmunitario del cuerpo mientras trata de combatir el coronavirus, sin saber futuros trastornos que podrían causar  al tener un fin distinto, por otro lado las investigaciones por obtener una vacuna a finales de este año o más pronto posible que termine por controlar el virus, se han intensificado, estudios desarrollados por el laboratorio francés Sanofi-Pasteur que prometen soluciones efectivas al tener una vacuna en etapa tres de la cual son partícipes una gran cantidad de personas voluntarias de diferentes países del cual México se encuentra involucrado esperando tener una respuesta positiva para dar acceso a esta misma a todos los habitantes.


CONCLUSIONES

Durante la estancia de verano se obtuvo conocimiento teórico de este nuevo coronavirus SARS-Cov-2 que  se ha extendido por todo el mundo, aprendizajes como son, cifras de comorbilidades,  infectados, pruebas realizadas, defunciones, rangos de edades con mayor número de contagios, etc; a escala nacional e internacional permitiéndonos tener una clara comparativa y saber sobre los procesos que llevan a cabo para evitar la mayor propagación del virus así como los posibles fármacos que  suministran a  los pacientes infectados sin embargo al ser una enfermedad nueva nos deja muchas dudas por delante que serán resueltas sobre la marcha  de soluciones al tema, por otro lado las intensificadas luchas por encontrar una vacuna como cura a este virus cada vez está más cerca teniendo medicamentos en fases 3 es decir  que se encuentran en la medición de eficacia a gran escala lo que permite medir las dosis adecuadas, los medios de administración, la comparación con otros medicamentos ya en uso y la interacción con los mismos todo esto con el fin de corroborar los datos obtenido de los dataset que se utilizaron como referencia de las páginas de estudios primarios. Referencias OMS. (2020). Covid-19. agosto,10,2020, de Organización Mundial de la Salud Sitio web: https://www.who.int/es/emergencies/diseases/novel-coronavirus-2019/advice-for-public/q-a-coronaviruses Secretaria de Salud. (2020). Datos de covid. agosto,10,2020, de salud Sitio web: https://www.gob.mx/salud CDC. (2020). Personas con mayor riesgo. agosto 5, 2020, de Centro para el control de enfermedades Sitio web: https://espanol.cdc.gov/coronavirus/2019-ncov/need-extra-precautions/index.html
Loaiza Ospina Julián Andrés, Pontificia Universidad Javeriana
Asesor: Dr. Ulises Martínez Contreras, Instituto Tecnológico de Ciudad Juárez

OPTIMIZACIóN DE PRODUCTOS Y PROCESOS


OPTIMIZACIóN DE PRODUCTOS Y PROCESOS

Loaiza Ospina Julián Andrés, Pontificia Universidad Javeriana. Vaquera Martínez María Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Ulises Martínez Contreras, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

I. RESUMEN El sector industrial se enfrenta constantemente a problemas de los cuales la mayoría de estos ocurren debido a un balanceo de líneas deficiente, además a este se le suman condiciones internas como lo es el ausentismo que provocan una deficiencia en los procesos y en la calidad del producto, lo que genera costos para las industrias, es por esto que un balanceo de líneas óptimo es aquel que aprovecha los recursos y las habilidades de sus operadores al máximo, creando un flujo continuo que aumente la productividad en la empresa. El problema de balanceo de líneas cae en un problema de combinatoria de problemas no tratables o de orden no determinístico polinomial (NP-hard) lo que favorece que se hayan desarrollado una gran cantidad de algoritmos para resolverlo: algoritmos de aproximación computacionales, algoritmos heurísticos y métodos exactos. El proyecto consiste en el desarrollo de una estrategia que permita mejorar el algoritmo genético de codificación de directa propuesto por Martínez (2015) para el balanceo de líneas tipo II, a partir de un tiempo de ciclo inicial obtenido con la suma de los tiempos más largos de cada trabajador por operación, método propuesto por Millares (2007). En términos más precisos la finalidad es encontrar soluciones óptimas para el mejoramiento del tiempo de ciclo, utilizando como apoyo un prototipo de programa que implemente y pueda ser utilizado en industria local. 



METODOLOGÍA

II. MÉTODO EXPERIMENTAL En la investigación presente en primera instancia se identificaron los problemas y los factores que influyen en ellos, posteriormente se realizaron investigaciones que se implementaron en el algoritmo de codificación directa de Martínez, (2015), finalmente se prosiguió con la comprobación y análisis de las soluciones. Parte fundamental de la investigación se centra en el algoritmo genético para el balanceo de líneas por Martinez, (2015).En el cual mediante la adición de genes que representan el número de trabajadores, estos crean un cromosoma que da solución al balanceo. Para encontrar el tiempo de ciclo inicial se utilizó el método descrito por Miralles, (2007) en donde se realizó la sumatoria de los tiempos más largos de cada actividad y posteriormente se dividió entre el número de trabajadores con el cuál se contaba, se observó que el balanceo de líneas se podía mejorar, ya que había un desequilibrio entre las estaciones de trabajo por lo que se optó por realizar la sumatoria del tiempo más largo y el más corto de las estaciones, dividiéndolo entre dos. Después se prosiguió con la realización de pruebas utilizando reglas heurísticas, las pruebas se realizaron tanto manualmente como en el programa. Estas reducciones porcentuales se hicieron de acuerdo al criterio Divide y vencerás la Es claro que la solución estará entre una reducción del 0 al 100%, así que se procede con el algoritmo propuesto por Martínez (2015) reduciendo el 50% si tenemos una respuesta, significaría que podemos aumentar a un 75%, en caso contrario, debemos disminuirlo a un 25% y así sucesivamente el número de iteraciones dependiendo de la eficiencia que necesitemos.


CONCLUSIONES

III. RESULTADOS Una vez realizadas las pruebas de la adición de los genes que representan a los trabajadores al algoritmo genético de codificación directa propuesto por Martínez (2015) se obtuvo un resultado favorable donde se llegó a la conclusión de que es posible dar solución al problema de balanceo de líneas tipo II. El método descrito por Miralles, (2007) en el cual se realizó la suma de los tiempos más largos divididos entre el número de trabajadores dio un resultado favorable sin embargo el tiempo de ciclo mostraba oportunidad de mejorarse. con las pruebas manuales, en la cual se observa que el tiempo de cada estación, muestra un desequilibrio entre el tiempo de las estaciones. Para dar solución a este problema se optó por realizar la sumatoria de del tiempo más largo y el menos largo y dividirlo entre dos, así realizando un promedio, en el caso anterior el nuevo tiempo de ciclo fue de 193, por lo cual se prosiguió a la realización de pruebas. El nuevo balanceo dado utilizando el nuevo tiempo de ciclo no resulta ser una solución factible ya que para poder cumplir con lo establecido necesitamos agregar otro trabajador, por lo cual fue descartado este método. Una vez descartado el método anterior se optó por tomar el tiempo de ciclo inicial dado anteriormente, pero en este caso se siguieron reglas heurísticas, utilizando el tiempo mayor y menor. Ambas reglas heurísticas resultaron favorables, sin embargo, no son óptimas ya que solo se utilizan 6 trabajadores en lugar de 7. Para solucionar el problema antes mencionado se inició reduciendo el 50%, resultó favorable por lo cual se aumentó a un 75%, se obtuvo un caso contrario y se disminuyó a un 25%, logrando así llegar a un 12.5% de reducción del tiempo de ciclo inicial lo cual dio una maximización del tiempo de ciclo. Cabe mencionar que las pruebas se llevaron a cabo tanto manualmente como en el algoritmo. Como prueba final se ejecutó el programa con un ejemplo particular del artículo de Millares (2013) donde a partir del cromosoma 1 16 5 6 17 0 7 8 9 10 14 11 12 15 13 2 18 19 22 23 24 20 25 26 3 4 21 27 0 1 2 3 4 5 6 El resultado fue un tiempo de ciclo de 208 con una reducción del 14.0625% a partir del tiempo inicial
Londoño Delgado Santiago Alejandro, Servicio Nacional de Aprendizaje SENA - Regional Caldas
Asesor: Dra. Eugenia María Azevedo Salomao, Universidad Michoacana de San Nicolás de Hidalgo

TECNOLOGÍA VERNÁCULA EN VIVIENDAS DE INTERÉS PRIORITARIO, MANIZALES, COLOMBIA


TECNOLOGÍA VERNÁCULA EN VIVIENDAS DE INTERÉS PRIORITARIO, MANIZALES, COLOMBIA

Londoño Delgado Santiago Alejandro, Servicio Nacional de Aprendizaje SENA - Regional Caldas. Asesor: Dra. Eugenia María Azevedo Salomao, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las viviendas de invasión  se encuentran ubicadas en zonas de alta vulnerabilidad y no utilizan una normatividad adecuada para la construcción de las mismas, un ejemplo claro en la ciudad de Manizales se localiza en el barrio Bajo Andes donde estas viviendas fueron construidas por los mismos habitantes al pasar de los años en terrenos privados o que hacen parte del estado. la mayoría de viviendas de invasión generan peligro para sus ocupantes, al no contar con las medidas mínimas que se requieren para la construcción de una vivienda tradicional y que cumpla con las normas en terrenos inestables donde generalmente tienen lugar los asentamientos.  



METODOLOGÍA

La investigación se realizó en sus primeras fases con investigación de tipo cuantitativo y cualitativo, con el fin de recolectar información para realizar análisis estadísticos, que describe las características de los procesos de diseño a implementar. En la última fase se utilizará la metodología de investigación-acción-participación (IAP) . Análisis del estado de arte . Recolección de datos . Aplicación de encuestas . Reporte y análisis de los resultados . Consulta de la norma NSR-10 y el Plan de ordenamiento territorial de la ciudad de Manizales . Diseño de vivienda de interés prioritario . Planimetría y volumetría de la vivienda


CONCLUSIONES

Rescate de tecnología vernácula . Aceptación de diseño por parte de la comunidad . Implementación de sistemas sostenibles tales son energía fotovoltaica y aprovechamiento de aguas lluvias . Establecimiento de un plan de acción con las entidades del gobierno para la implementación de vivienda de interés prioritario con participación de los usuarios. . Maqueta a escala
López Blas Alicia Lucero, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dr. Juan Valderrama Rincón, Universidad Antonio Nariño

REVISIÓN SISTEMÁTICA SOBRE MODELOS MATEMÁTICOS CON SOLUCIÓN ANALÍTICA APLICADOS A BIORREACTORES TIPO AIRLIFT


REVISIÓN SISTEMÁTICA SOBRE MODELOS MATEMÁTICOS CON SOLUCIÓN ANALÍTICA APLICADOS A BIORREACTORES TIPO AIRLIFT

López Blas Alicia Lucero, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Juan Valderrama Rincón, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

En el diseño y escalado de procesos se requieren de metodos que proporcionen una solucion facil de aplicar, el problema con los biorreactores tipo airlift dentro de la industria, es que dentro de las soluciones para resolver modelos matemáticos que estudian el modelo de tanques en serie, requieren de métodos numéricos que se vuelven más complejos, cuando se requieren para un escalado industrial; el objetivo del análisis de datos experimentales es saber las condiciones óptimas que nos permiten un mejor crecimiento, dentro de este proceso, es importante escalar tanto la geometría del reactor como el régimen de mezcla del mismo, en base a números adimensionales que se mantengan constantes. Una solución es analizar datos de laboratorio en biorreactores mediante un modelo analítico, es decir, encontrar la modificación de variables sobre las ecuaciones, para realizar y obtener una solución analítica que permita un escalado más fácil, poder realizar comparaciones entre estos, verificar cual es mejor y realizar una propuesta sencilla de escalamiento, siempre y cuando exista una configuración satisfactoria.  



METODOLOGÍA

El presente estudio consiste en un Systematic review de la literatura con enfoque específico en la investigación; la revisión sistemática adopta tres propósitos: (1) evaluar un tema de investigación mediante método riguroso y sistemático; (2) identificar espacios para mejoras futuras; (3) resumir y proporcionar antecedentes para actividades de investigación. El método adoptado sugiere utilizar medios electrónicos para un análisis completo el cual sigue: (1) busqueda de métodos y herramientas de busqueda; (2) clasificación de información; (3) análisis de información y exploración con herramientas de análisis. Esto permite la validación de información y posible generación de estrategias sobre desempeño de los biorreactores airlift.


CONCLUSIONES

Como resultado del proceso metodológico, se tiene: En la busqueda de métodos y herramientas de busqueda se cuenta con: Google Scoholar, Science direct, Web of Science y Scopus, de los cuales los dos últimos son seleccionados ya que tienen bases de datos mejor organizadas, con más información y están depuradas; como gestores bibliográficos con Mendeley y Zotero. Para estructurar y organizar la información nos referimos a la ecuación de busqueda basada en key words, citaciones y autores, la cual nos arrojó la base de datos con 139 documentos, que son analizados con herramientas de análisis: Bibexcel, Excel, Vosviewer y Microsoft Power Bi El análisis de datos de los 139 documentos se basó en: (1) tema; (2) mayor número de citaciones; (3) mayor impacto; y (4) revisión bibliográfica a métodos analíticos en biorreactores tipo airlift. Finalmente, el número de documentos queda reducido para una revisión conceptual basada en el criterio propio donde existen o no soluciones analíticas semejantes a la diseñada en laboratorio El análisis mediante Microsoft Power Bi y Vosviewer requiere de datos depurados e identificados, las visualizaciónes del reporte elaborado, los datos que son útiles en esta investigación son los siguientes: El primer artículo del que se tienen los primeros antecedentes fue desarrollado en 1974 en  India, su publicación fue realizada en Chemical Engineering Science y el autor es Mhaskar R.D et. al El articulo más citado es de: Shah, Y.T. et. al, Design parameters estimations for bubble column reactors con 947 citaciones, publicado en el año 1982, en la revista AIChE Journal, en colacoración de paises como Estados Unidos y Alemania. Los 5 países que realizan más investigación acerca del tema de interés son: Estados Unidos, Japón, Francia, Alemania y Canadá. El año en el que empieza el incremento de publicaciones de este tipo de información es a partir del año 2000 al 2010, sin embargo, el año en el que se comienza con el estudio es desde 1974 y el último publicado es en 2020. El tipo de documento que más se publica son artículos de investigación con un 82%, seguidos de documentos referentes a conferencias con un 15 %, review con un 2% y el resto se encuentra en chapter books Las 5 revistas que más publican acerca de este tema, son: Chemical Engineering Science, Chemical Engineering Journal, Chemical Engineering and Processing: Process intensification, Industrial and Engineering Chemistry Research y AlChE Journal con 23, 8, 8, 7 y 7 documentos, respectivamente En el análisis mediante revisión conceptual se genera una primera revisión donde se obtienen un total de 139 artículos para delimitar la investigacion, posterior se genera una segunda revisión la cual queda reducida a 36 documentos, cuando se realiza una tercera, el análisis de revisión que es de lectura completa del documento se reduce a 15 artículos, que específicamente hablan sobre mathematical models, airlift reactor, tanks in series y analitycal solution, del cuales se espera una revisión bibliográfica.  La utilización de una solución analítica que permita el escalamiento de procesos que incremente de manera eficiente los recursos disponibles de manera sustentable y sostenible, permite también el desarrollo de la funcionalidad de tecnología eficiente en Ingeniería en Bioprocesos e Ingeniería Ambiental. Con base en la revisión sistemática y con miras a enfocar el objetivo dentro del aporte que tiene hacia los ODS, el análisis va dirigido al ODS 12 Consumo y producción sostenibles, la aplicación que tiene la tecnología desarrollada por el investigador tanto cualitativa como cuantitativa dentro del laboratorio, contribuye en: disminuir la degradación medioambiental (con cultivo de microalgas), aumentar la eficiencia de recursos (tratamiento de agua residual, escalamiento de procesos), promover estilos de vida sostenibles (generación de biomasa, biogás y biofertilizantes), a la mitigación de la pobreza y la transición hacia una economía verde y con bajas emisiones de carbono.
López Escobar Miguel Ángel, Universidad Mexiquense del Bicentenario
Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

CONSTRUCCIÓN DE UN MODELO EN SIMIO DE UN SITIO DE TAXIS (SIMULACIóN Y REDES LOGíSTICAS)


CONSTRUCCIÓN DE UN MODELO EN SIMIO DE UN SITIO DE TAXIS (SIMULACIóN Y REDES LOGíSTICAS)

Carrasco Avalos Alexis, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Jasso Osornio Daniel, Tecnológico de Estudios Superiores de Jocotitlán. López Escobar Miguel Ángel, Universidad Mexiquense del Bicentenario. López Montoya Jhoana, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

Grisales, A. & Posada, C.A. (2020) dan a conocer en su trabajo titulado: Diseño de estrategias de planeación de la demanda en servicios individuales de pasajeros tipo taxi, que la planeación del transporte público de vehículos Taxi, depende en un alto porcentaje de la disponibilidad y ubicación de estos en el área. Por ello, se considera que al comenzar a desarrollar cambios en un negocio y/ o servicio es de suma importancia que de antemano se realice una previa investigación sobre si es viable o no la propuesta de lo que buscamos realizar. Un servicio de taxis es utilizado diariamente por un gran numero de personas y es prescindible el ofrecer un servicio de calidad, dado que en la actualidad se han presentado nuevos servicios como el medio de transporte instantáneo por medio de una aplicación móvil, autobuses más económicos, que han causado la baja de clientes a este. Es prescindible considerar que tras la constante demanda del servicio el número de taxis disponibles en todo momento debe de cumplir con la demanda de clientes en los distintos horarios.



METODOLOGÍA

Para el desarrollo del presente proyecto de investigación se hará uso de la metodología de Law y Kelton (2001), la cual cuenta con 10 etapas para desarrollar un estudio de simulación, estas son:  1. Formulación del problema El sistema bajo estudio corresponde al sitio de taxis 24 de junio ubicado en la localidad de San Juan Coajomulco, municipio de Jocotitlán, Estado de México, cuenta con un total de 36 taxis distribuidos en las distintas bases de la localidad, pero en el sitio de taxis principal con el que se trabajó solo cuenta con un total de 10 taxis; ofrece dos tipos de servicios: colectivo y local o especial. El objetivo a cumplir con el desarrollo del proyecto fue: construir un modelo de simulación en Simio del Sitio de taxis para conocer el funcionamiento del sistema. 2. Recolección de datos y definición del modelo Se identificaron los parámetros de entrada del sistema, los cuáles son: Número de taxis en el sitio Tipo de servicio Tiempo entre llegadas de los pasajeros Destinos más frecuentes Tiempo de viaje (redondo) Con los datos recolectados, se construyeron las bases de datos de cada una de las variables y se procedió al análisis estadístico de las misma. El análisis estadístico corresponde a la aplicación de pruebas de bondad de ajuste que determinarán si los datos de las variables se ajustan o no a distribuciones teóricas conocidas. Para la realización de las pruebas de bondad de ajuste se hizo uso del software estadístico Stat::Fit ®. Este software, una vez alimentados los datos, realiza tres pruebas de bondad de ajuste: Chi-cuadrada, Kolmogorov-Smirnov y Anderson Darling, eligiendo dos de ellas dependiendo la naturaleza de los datos. 3. Verificación del modelo. Esta fase se desarrolló mediante el análisis del diagrama de flujo con personas familiarizadas con la operación del sistema, quienes lo avalaron. 4. Construcción del programa Se construyó el modelo en SIMIO® para ello fue necesario conocer los elementos básicos. ELEMENTO DEL SISTEMA Y ELEMENTO SIMIO Llegada del pasajero - Source Paradas - Server (s) Pasajeros - Entity Rutas de Viaje - TimePath (s) Selección de tipo de viaje - Path Destinos - Sink (s) Horarios de trabajo - Data_Workshedules Total de taxis en la parada - Definitions_Lists 5. Realización de pruebas piloto Esta etapa se dónde el modelo se consideró casi terminado, consiste en que tras la ejecución del programa un cierto número de veces, se obtiene información y para posteriormente poder realizar la validación de la simulación del modelo. 6. Validación del programa La validación de un modelo de simulación es el procedimiento matemático por medio del cuál se asegura que los datos que arroja el modelo son estadísticamente iguales a los del sistema real. Para realizar este procedimiento se utiliza una prueba de hipótesis, en donde: Ho: La media de los datos del sistema real son iguales a la media de los datos del modelo de simulación Ha: Las medias de los datos de sistema no son iguales a la media de los datos del modelo de simulación. Se utiliza la prueba t-pareada y se valida cada una de las variables.  7. Diseño de experimentos Esta fase fue donde se determinó el número de simulaciones independientes, es decir, el número de veces que se ejecutara el programa, especificando claramente su tiempo y sus condiciones iniciales. Para esto, se hizo uso de un procedimiento matemático a través de determinar un error absoluto. Después de realizado el procedimiento se obtuvo que el número mínimo de replicaciones a efectuar son 80. 8. Corrida del programa En esta etapa, se corrió el modelo 80 veces. 9. Análisis de resultados Esta etapa se desarrolló mediante el análisis de la información generada tras la corrida del programa el número de veces indicado. Con ello se estiman las medidas de desempeño para determinar el mejor sistema con respecto a alguna de ellas. 10. Documentación e implementación de resultados En esta fase es donde se guardó todo lo realizado para el desarrollo del proyecto, esto con la finalidad de tener una base sólida en la cual se puedan probar escenarios de mejora al sistema.


CONCLUSIONES

Durante la estancia virtual de investigación en el Instituto Tecnológico Superior de Tierra Blanca, se logró adquirir conocimientos y habilidades tanto teóricas como practicas en el desarrollo de simulación de procesos logísticos, se desarrollo un pequeño proyecto. Además, se aprendió a manejar el simulador Simio® en un nivel básico, de tal forma que ahora es posible modelar sistemas. Así mismo, se aprendieron los métodos y fórmulas para el tratamiento de la información y de los resultados obtenidos tras el proceso de simulación, esto con la finalidad de apoyarnos en la toma de decisiones de los modelos desarrollados en dicho software.
López García Aldo Antonio, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS


DESARROLLO, ADAPTACIóN Y TRANSFERENCIA DE TECNOLOGíAS APROPIADAS EN MATERIA DE AGUA EN ZONAS RURALES, INDíGENAS Y PERIURBANAS MARGINADAS

López García Aldo Antonio, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El abastecer de agua a zonas rurales , es uno de los grandes problemas en la actualidad, ya que al estar tan alejadas de zonas urbanas o semiurbanas que es donde normalmente existe una buena infraestructura de tuberías, pozos, y equipos de extracción de agua, se vuelve realmente complicado poder llevar agua hasta estas comunidades, añadiendo que muchas de ellas no cuentan todo el tiempo con energía eléctrica, por lo que aunque exista un pozo de agua cercano, no se les puede garantizar que esté funcionando óptimamente. Las comunidades rurales muchas veces no cuentan con el poder adquisitivo  para pagar el servicio de pipas para su suministro de agua, además de que estas no pueden llegar a muchos lugares por el difícil acceso. En zonas con alto grado de marginación, sus habitantes deben de acarrear agua por distancias muy largas y empinadas, en algunas familias pueden llegar a sobrevivir con 6 o 7 litros de agua por persona al día, lo cual complica la vida óptima de las personas y su salud. Se calcula que cerca del 10% de la población mexicana no tiene acceso al agua potable, aproximadamente entre 12.5 y 15 millones de habitantes, sobre todo del área rural, pero también de zonas marginadas en las grandes ciudades. De los que sí reciben el servicio de agua, casi 30% no lo tiene en cantidad ni con la calidad suficiente para uso potable, lo cual genera infecciones gastrointestinales y en la piel, a los usuarios de agua contaminada.



METODOLOGÍA

Se estudiaron las localidades de La Cebolleta y San Andrés Cohamiata, ambas comunidades Huichol del estado de Jalisco, ambas se encuentran a una altura aproximada de 1950 msnm, en la sierra jalisciense. Se necesitan datos de la climatología del lugar en donde se va a realizar la captación, para saber cuánto es el volumen de agua que se puede captar. Utilizamos datos del sistema meteorológico nacional, utilizando la estación de Totuate, la cual es la estación más cercana a las comunidades. Se utilizaron los datos de las normales climatológicas, tomando valores registrados de los años 1951 al 2010, donde nos muestra la precipitación normal por mes, y estos datos son los que utilizamos para calcular el posible volumen de captación. Es necesario conocer el área de captación de cada hogar, comúnmente se utiliza el techo de las casas. Se encontraron distintos tamaños de techos, pero los más comunes eran techos de 5 metros por 10 metros, lo cual nos arroja que son 50 m2 en promedio de todas las casas. Ya que se tiene el valor de precipitación y del área de captación, se prosigue a obtener los datos de los requerimientos de cada familia, los cuales son: el número de usuarios de familia, el uso diario por persona (mínimo 50 litros por día), la calidad del agua para lo que se va a utilizar (consumo humano, higiene y aseo personal, wc o riego) y por último el volumen de almacenamiento. Se realizan cálculos con los datos de precipitación, área y coeficiente de escurrimiento, se obtiene el volumen de captación, esto nos permite saber de cuantos litros es necesario el tanque de almacenamiento. Teniendo todos los datos anteriores, se comienza con el diseño del sistema de captación, comenzando con la instalación del material para la conducción (tuberías), el más común es PVC del techo de las viviendas al tanque de almacenamiento. Se necesita garantizar la calidad del agua, por lo que es necesario instalar un filtro de hojas en la bajada de la tubería y en seguida se utiliza un separador de primeras lluvias, el cual ayuda a separar las precipitaciones iniciales las cuales son las que arrastran algunos contaminantes. Al llenarse el separador el agua, continúa al tanque de almacenamiento en donde se lleva a cabo el primer paso de desinfección, comúnmente con hipoclorito de sodio o calcio. En caso de necesitar el agua con una calidad extra, se pueden aplicar distintos tipos de filtros para aumentar la calidad del agua y eliminar la mayor cantidad de contaminantes, los filtros pueden ser filtro de sedimentos, carbón activado y filtro pulidor. En estos casos aumenta la calidad del agua, pero también los costos de los equipos y de su mantenimiento.


CONCLUSIONES

Durante esta estancia virtual de verano delfín, se logró adquirir conocimiento sobre cómo se pueden realizar trabajos de abastecimiento de agua en hogares de zonas rurales, como los sistemas de captación de agua de lluvia, los cuales permiten suministrar agua suficiente y limpia para las familias que lo necesitan. Se estudiaron los lineamientos necesarios para aplicar esta tecnología, materiales y distintos equipos que ayuden al mejor funcionamiento del sistema según las necesidades de cada hogar. Se logró identificar cual sistema de desinfección y/o potabilización se debe instalar para que el agua pueda ser utilizada según el fin que se la va a dar. Debido a las circunstancias de la pandemia no se logró visitar las comunidades, pero se logró realizar un modelo el cual puede ser aplicado a cada casa en específico, en el cual solo se tienen que modificar los datos climatológicos, del área de captación y de los requerimientos de cada hogar. Esto permite poder aplicar el sistema de captación a cada hogar de la comunidad. Esta tecnología es de gran utilidad ya que permite a las familias que no cuentan con servicio de agua por tubería o que les llega muy poca cantidad de agua, tener un volumen extra del líquido, para poder realizar sus actividades básicas del hogar y tener una mejor calidad de vida.
Lopez Herrera Keily Anahi, Instituto Tecnológico de Matamoros
Asesor: Dr. Marco Leopoldo García Guaderrama, Universidad de Guadalajara

ARSÉNICO EN AGUA POTABLE. UNA PROPUESTA DE SOLUCIÓN PARA LA CIUDAD DE TORREÓN, COAHUILA.


ARSÉNICO EN AGUA POTABLE. UNA PROPUESTA DE SOLUCIÓN PARA LA CIUDAD DE TORREÓN, COAHUILA.

Lopez Herrera Keily Anahi, Instituto Tecnológico de Matamoros. Asesor: Dr. Marco Leopoldo García Guaderrama, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El arsénico existe en 4 estados de oxidación (As0, As3- , As3+ y  As5+), los cuales determinan  la capacidad del compuesto para combinarse con otros elementos. Las formas comunes son el arsenito (As III), destacando que son más tóxicas, y el arsenato (As V). Según la OMS es una de las sustancias químicas más peligrosas en el agua de consumo humano. Los niveles altos de As en el agua son un peligro para las personas a nivel mundial y nacional. El As inorgánico está naturalmente presente en niveles altos en aguas subterráneas de varios países, entre ellos Bangladesh, China, India, Chile, Argentina, E.U. y México. Esta situación puede causar diversos daños, provocando enfermedades tales como afectación cutánea, diabetes, daño renal, cáncer, hasta problemas de aprendizaje en niños.   La OMS recomienda un valor de 10 ppb, mientras que en México la NOM-127-SSA1-1994 establece 25 ppb. Existen diversas áreas donde han  resultado niveles altos de As en el agua subterránea de México. Algunos lugares son la Comarca Lagunera, Coahuila y Durango, en las cuales las concentraciones de As fueron de 7-740 ppb (Hurtado-Jiménez & Gardea-Torresdey, 2006). En Torreón, Coahuila se han encontrado hasta 112 ppb en pozos y tanques que abastecen a la ciudad según estudios realizados en 2019 (https://vanguardia.com.mx/articulo/arsenico-rebasa-norma-oficial-mexicana-en-el-agua-de-torreon). Las plantas potabilizadoras tradicionales tales como coagulación-floculación no remueven totalmente el As (As III + As V). Por lo que se dará una propuesta de solución para eliminar el As del agua que llega a los hogares de Torreón. Esta ciudad tiene 731,902 habitantes y aproximadamente 182,975 familias.  



METODOLOGÍA

Descripción del proyecto​ En este proyecto se propone una solución para eliminar el As de agua destinada al consumo humano y para cocinar en los hogares de Torreón, Coahuila. La propuesta consiste en un sistema de filtros  conectados en serie constituido por 3 filtros caseros, colocados por debajo del lavabo de la cocina de los hogares, así como sus respectivos accesorios necesarios. Estos filtros son utilizados a baja escala y cada etapa del proceso tiene un objetivo específico para lograr que el agua potable de  esté libre de As y otras impurezas.   Etapas del sistema de filtración Etapa 1: Cartucho de carbón activado que tiene como función remover el cloro y la materia orgánica que es la causante del mal olor, color y sabor en el agua. También remueve orgánicos como pesticidas y herbicidas.   Etapa 2: Cartucho de Bayoxide E33 que tiene una capacidad de adsorción de 11 mg As/ g de material (Kanematsu et al., 2010).  Según los estudios del Dr. Marco García Guaderrama de la UDG el Bayoxide E33 es capaz de remover hasta el 100% de As.   Etapa 3: Filtro de polipropileno de 5 micras, capaz de retener posibles partículas de FeOOH o de carbón activado.   El FeOOH o el carbón activado no son peligroso para la salud, se debe tomar en cuenta que si hubiera partículas que se pudieran ir en el agua, no presentan un problema para la salud. Sin embargo, también se instalara un filtro de polipropileno que retiene esas partículas.   Materiales y costos 3 portafiltros 2.5x10 (AIQUA, $490.20) 1 cartucho de carbón activado 2.5x10 (AIQUA, $62.55) 1 cartucho vacío 2.5x10 (Carbotecnia, $18.54) 225 g de Bayoxide E33 (Grupos filtrantes, $165.19) 1 cartucho de polipropileno de 5 micras 2.5x10 (Carbotecnia, $19.00) 7 conexiones (Carbotecnia, $154.00) 2 mt de manguera 1/2 (Carbotecnia, $30.00) 1 llave de ganso (AIQUA, $196.22) Mano de obra ($200.00)   La vida útil de los cartuchos depende de las concentraciones de As que tiene el agua en Torreón que son hasta 112 ppb, se calculara la vida útil del carbón activado y del Bayoxide E33 se calculara la cantidad necesaria para el cartucho así como la vida útil.   Vida útil del carbón activado granular Según el proveedor 500 gr de carbón tratan 5000 galones de agua. Agua que trata el cartucho de carbón activado 0.5 Lt: (5000 gal agua)(3.785 Lt agua/1 gal agua)=18,925 Lt Consumo de agua en una familia promedio en México: 15 Lt/día (18,925 Lt)(1 día/15 Lt de agua)=1,261.66 días (1,261.66 días)(1 año/365 días)=3.45 años La vida útil del carbón activado es de aprox. 3.5 años.   Cantidad necesaria del Bayoxide E33 Densidad Bayoxide E33=0.45 g/m3 Portafiltro de 0.5 Lt=500 cm3. Material adsorbente necesario para cartucho 0.5 Lt: (0.45 g Bayoxide E33/cm3)(500 cm3)= 225 g Bayoxide E33. Bayoxide E33 elimina As: (11 mg As/g Bayoxide E33)(225 g Bayoxide E33)=2575 mg As, 225 g de Bayoxide E33 elimina 2575 mg As.   Vida útil del Bayoxide E33 En Torreón se encuentran hasta 112 ppb As=0.112 mg As/Lt Cantidad de adsorción diaria de As: (0.112 mg As/Lt)(15 Lt/Día)= 1.68 mg As/Día Vida del material adsorbente Bayoxide E33: (2575 mg As)(Día/1.68 mg As)=1532.738 días=4.19 años. La vida útil del Bayoxide E33 es de aprox. 4 años.   Vida útil del cartucho de polipropileno Según el proveedor tiene una vida útil de 6-7 meses.   Costo total El sistema tiene un costo total de $1,335, en Torreón hay aproximadamente 182,975 familias. Suponiendo que de ese total de familia el 25% está recibiendo agua contaminada de As y no tiene alternativa (compra de garrafón por cuestión de dinero). En base a esta consideración se tiene que el costo total del proyecto es de $60.4 millones de pesos. 


CONCLUSIONES

  Se logró conocer la problemática del As, así como posibles soluciones, encontrando de esta manera el método ideal para la propuesta de solución en la ciudad de Torreón. Las concentraciones elevadas de As en el agua de consumo humano es un problema a nivel mundial y nacional. Las enfermedades relacionadas a este elemento son muchas y pueden llegar a causar la muerte de las personas que ingieren el As de manera crónica. El sistema de filtros que se propone es muy rentable, sencillo y eficaz y puede ir dirigida también para otras zonas de México con esta problemática en común con el As.
López Huerta Lesly Yanel, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo

RELLENO SANITARIO


RELLENO SANITARIO

López Huerta Lesly Yanel, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo



PLANTEAMIENTO DEL PROBLEMA

México se encuentra dentro de los diez países más productores de residuos sólidos urbanos a nivel mundial, el problema de los residuos y su disposición se divide en dos partes principales que son los generadores (sociedad) y los que manejan desde su generación hasta su disposición final que es el gobierno que rige y toma las decisiones más importantes en la sociedad. Lamentablemente, el biogás que es producido en el país no se aprovecha por lo que más de 40 millones de toneladas de CO2 terminan yéndose a la atmosfera. Lo que genera muchas implicaciones ambientales. Considerando que el metano tiene un impacto equivalente a 21 veces el efecto invernadero producido por el bióxido de carbono. El proceso de captación comienza con las extracciones del biogás a través de pozos verticales perforados en toda la profundidad del relleno sanitario. Mediante una red superficial de tuberías, el biogás es conducido hasta una estación en donde se le quita la humedad y otras substancias indeseables, a fin de tener una combustión limpia y eficiente. Se menciona la situación en la que se encuentra el relleno sanitario del municipio de Othón P. Blanco y se proponen algunos instrumentos para llevar un control sobre el conocimiento, uso y manejo de los residuos sólidos urbanos. Y la importancia de la educación ambiental.



METODOLOGÍA

El municipio de Othón P. Blanco, se encuentra ubicado al sur del Estado de Quintana Roo, la cabecera y sede del ayuntamiento es la Ciudad de Chetumal, donde se encuentra el principal sitio de disposición de residuos sólidos del municipio; El Relleno Sanitario de la ciudad de Chetumal se encuentra ubicado en las coordenadas geográficas 18°34'16.5"N (18.571248) 88°16'37.2"W (-88.276987), a 10 km de la zona centro de la ciudad. Este cuenta con una extensión de 12.5 hectáreas y de acuerdo al Plan Estatal de Residuos Sólidos recibe aproximadamente 228 toneladas diarias con una media per cápita de 0.78 kgs al día por habitante; siendo esta inferior al 0.87 que se genera en el estado. (SEDUMA 2009) Para el estudio de la percepción ciudadana de Chetumal acerca del manejo y uso de los residuos sólidos urbanos, se elaboró una encuesta realizada a estudiantes universitarios que consto con un total de 25 preguntas, que permitieron complementar la información cuantitativa con análisis de la opinión de los estudiantes. Dentro de la encuesta las cuestiones principales fueron los conocimientos, actitudes, y creencias sobre la problemática principal de los RSU y una de las preguntas abiertas implementadas en la encuesta fue la opinión acerca del papel del gobierno en cuanto al manejo de los RSU, y su recomendación para la mejora del servicio. Se registró aproximadamente el 80% a los estudiantes les interesa resolver la problemática de la gestión de los RSU, por lo que el 20% indicaba que no estaba interesado en esta situación. Fue favorable que los estudiantes tengan la preocupación por el cuidado del medio ambiente urbano por lo que están de acuerdo a participar en actividades liderados por el gobierno relacionadas con la separación y valorización de los RSU. Lamentablemente la situación con el manejo de residuos en Chetumal es mala desde la recolección hasta su disposición final, este tema no solamente es cuestión del gobierno, también de la población, especulando que no tienen la cultura ni el conocimiento de lo que puede hacer un mal manejo de los residuos, pero es importante que el gobierno informe la situación actual del Relleno Sanitario a la población y también que se hagan programas de concientización o cambiar la forma de recolección de los residuos, observando que se mantienen en la intemperie por mucho tiempo y que no pasan todos los días, no se separan desde su generación ni en su recolección, no hay un programa de reciclaje o plantas de compostaje. El Relleno Sanitario de Othón P. Blanco solamente cuenta con una bitácora para llevar a cabo el control, pero no se sabe cantidad exacta en peso y volumen, ni de las características de los residuos y esto disminuye la posibilidad de tratar los residuos para su disminución o valorización de estos. Después de aplicar el instrumento, continuamos con la importancia de la educación ambiental que trata de facilitar, desde una aproximación global e interdisciplinar, la comprensión de las complejas interacciones entre las sociedades y el ambiente. Y esto a través de un mejor conocimiento de los procesos ecológicos, económicos, sociales y culturales, es decir, del análisis crítico de los problemas socio‐ambientales y su relación con los modelos de gestión y las acciones humanas. Con ello se pretendió realizar un programa de educación ambiental proponiendo distintos temas, las herramientas tomadas en cuenta fueron encuestas, post, páginas web, presentaciones etc. Todo este mensaje estaría dirigido a toda la comunidad estudiantil ya no solo estudiantes universitarios, de esta manera hacemos conciencia a los niños hasta los más grandes, y se vuelva un hábito la separación de la basura de manera correcta.


CONCLUSIONES

Durante la estancia virtual del verano se logró adquirir conocimientos propios de los rellenos sanitarios. No se logró hacer un estudio a profundidad para analizar los costos de producción de energía eléctrica, incluyendo los costos de inversión, operación y mantenimiento del sistema de generación, y determinar el valor presente del costo de producción por unidad de energía generada. Hubiera sido muy interesante llevar a cabo todo ese proceso.El beneficio de tener un relleno sanitario adecuado en la ciudad es que evita la contaminación del suelo, el aire y agua que son provocados por la mala disposición de la basura en los tiraderos a cielo abierto, mejora las condiciones de la salud de la comunidad, disminuye los riesgos de incendio en los tiraderos y  los RSU se pueden confinar en un lugar seguro donde se evite la liberación de gases altamente contaminantes como el metano ( CH4) el cual es un gas de efecto invernadero (GEI) que se encuentra en la emanación de gases de los tiraderos de basura o rellenos sanitarios y se conoce como biogás.
López Montoya Jhoana, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

CONSTRUCCIÓN DE UN MODELO EN SIMIO DE UN SITIO DE TAXIS (SIMULACIóN Y REDES LOGíSTICAS)


CONSTRUCCIÓN DE UN MODELO EN SIMIO DE UN SITIO DE TAXIS (SIMULACIóN Y REDES LOGíSTICAS)

Carrasco Avalos Alexis, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Jasso Osornio Daniel, Tecnológico de Estudios Superiores de Jocotitlán. López Escobar Miguel Ángel, Universidad Mexiquense del Bicentenario. López Montoya Jhoana, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

Grisales, A. & Posada, C.A. (2020) dan a conocer en su trabajo titulado: Diseño de estrategias de planeación de la demanda en servicios individuales de pasajeros tipo taxi, que la planeación del transporte público de vehículos Taxi, depende en un alto porcentaje de la disponibilidad y ubicación de estos en el área. Por ello, se considera que al comenzar a desarrollar cambios en un negocio y/ o servicio es de suma importancia que de antemano se realice una previa investigación sobre si es viable o no la propuesta de lo que buscamos realizar. Un servicio de taxis es utilizado diariamente por un gran numero de personas y es prescindible el ofrecer un servicio de calidad, dado que en la actualidad se han presentado nuevos servicios como el medio de transporte instantáneo por medio de una aplicación móvil, autobuses más económicos, que han causado la baja de clientes a este. Es prescindible considerar que tras la constante demanda del servicio el número de taxis disponibles en todo momento debe de cumplir con la demanda de clientes en los distintos horarios.



METODOLOGÍA

Para el desarrollo del presente proyecto de investigación se hará uso de la metodología de Law y Kelton (2001), la cual cuenta con 10 etapas para desarrollar un estudio de simulación, estas son:  1. Formulación del problema El sistema bajo estudio corresponde al sitio de taxis 24 de junio ubicado en la localidad de San Juan Coajomulco, municipio de Jocotitlán, Estado de México, cuenta con un total de 36 taxis distribuidos en las distintas bases de la localidad, pero en el sitio de taxis principal con el que se trabajó solo cuenta con un total de 10 taxis; ofrece dos tipos de servicios: colectivo y local o especial. El objetivo a cumplir con el desarrollo del proyecto fue: construir un modelo de simulación en Simio del Sitio de taxis para conocer el funcionamiento del sistema. 2. Recolección de datos y definición del modelo Se identificaron los parámetros de entrada del sistema, los cuáles son: Número de taxis en el sitio Tipo de servicio Tiempo entre llegadas de los pasajeros Destinos más frecuentes Tiempo de viaje (redondo) Con los datos recolectados, se construyeron las bases de datos de cada una de las variables y se procedió al análisis estadístico de las misma. El análisis estadístico corresponde a la aplicación de pruebas de bondad de ajuste que determinarán si los datos de las variables se ajustan o no a distribuciones teóricas conocidas. Para la realización de las pruebas de bondad de ajuste se hizo uso del software estadístico Stat::Fit ®. Este software, una vez alimentados los datos, realiza tres pruebas de bondad de ajuste: Chi-cuadrada, Kolmogorov-Smirnov y Anderson Darling, eligiendo dos de ellas dependiendo la naturaleza de los datos. 3. Verificación del modelo. Esta fase se desarrolló mediante el análisis del diagrama de flujo con personas familiarizadas con la operación del sistema, quienes lo avalaron. 4. Construcción del programa Se construyó el modelo en SIMIO® para ello fue necesario conocer los elementos básicos. ELEMENTO DEL SISTEMA Y ELEMENTO SIMIO Llegada del pasajero - Source Paradas - Server (s) Pasajeros - Entity Rutas de Viaje - TimePath (s) Selección de tipo de viaje - Path Destinos - Sink (s) Horarios de trabajo - Data_Workshedules Total de taxis en la parada - Definitions_Lists 5. Realización de pruebas piloto Esta etapa se dónde el modelo se consideró casi terminado, consiste en que tras la ejecución del programa un cierto número de veces, se obtiene información y para posteriormente poder realizar la validación de la simulación del modelo. 6. Validación del programa La validación de un modelo de simulación es el procedimiento matemático por medio del cuál se asegura que los datos que arroja el modelo son estadísticamente iguales a los del sistema real. Para realizar este procedimiento se utiliza una prueba de hipótesis, en donde: Ho: La media de los datos del sistema real son iguales a la media de los datos del modelo de simulación Ha: Las medias de los datos de sistema no son iguales a la media de los datos del modelo de simulación. Se utiliza la prueba t-pareada y se valida cada una de las variables.  7. Diseño de experimentos Esta fase fue donde se determinó el número de simulaciones independientes, es decir, el número de veces que se ejecutara el programa, especificando claramente su tiempo y sus condiciones iniciales. Para esto, se hizo uso de un procedimiento matemático a través de determinar un error absoluto. Después de realizado el procedimiento se obtuvo que el número mínimo de replicaciones a efectuar son 80. 8. Corrida del programa En esta etapa, se corrió el modelo 80 veces. 9. Análisis de resultados Esta etapa se desarrolló mediante el análisis de la información generada tras la corrida del programa el número de veces indicado. Con ello se estiman las medidas de desempeño para determinar el mejor sistema con respecto a alguna de ellas. 10. Documentación e implementación de resultados En esta fase es donde se guardó todo lo realizado para el desarrollo del proyecto, esto con la finalidad de tener una base sólida en la cual se puedan probar escenarios de mejora al sistema.


CONCLUSIONES

Durante la estancia virtual de investigación en el Instituto Tecnológico Superior de Tierra Blanca, se logró adquirir conocimientos y habilidades tanto teóricas como practicas en el desarrollo de simulación de procesos logísticos, se desarrollo un pequeño proyecto. Además, se aprendió a manejar el simulador Simio® en un nivel básico, de tal forma que ahora es posible modelar sistemas. Así mismo, se aprendieron los métodos y fórmulas para el tratamiento de la información y de los resultados obtenidos tras el proceso de simulación, esto con la finalidad de apoyarnos en la toma de decisiones de los modelos desarrollados en dicho software.
López Moreno Edgar Felipe, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes

DISEñO DE UNA CáMARA DE MONITOREO DE GASES PARA FRUTAS


DISEñO DE UNA CáMARA DE MONITOREO DE GASES PARA FRUTAS

López Moreno Edgar Felipe, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con las necesidades de la localidad de Los Reyes Michoacán de Salgado hay un gran impacto en la exportación de frutas para el bienestar económico, por lo tanto, en el presente resumen se menciona lo pasos y la idea principal del proyecto, lo cual es el Diseño de una cámara de monitoreo de gases para frutas como bien se encuentra en el título, por lo cual se indago y se proporcionó de información necesaria para la creación del mismo como lo puede ser el uso de sensores, dimensiones de la cámara, programación a usar y los gases a medir para su correcto uso, todo esto con el fin de obtener información para el almacenamiento más optimo posible para las frutas.



METODOLOGÍA

De acuerdo con las cámaras actuales y las propiedades que necesitan las frutas para tener el conservado más optimo posible, estas mismas tienen que tener un control constante de humedad, CO2 y Etileno, siendo estos mismo muy costosos a la hora de instalarlos a una cámara frigoría, teniendo en cuanta estos tienen una variación que dependiendo de los cambios o parámetros que se vallan presentado dentro de la cámara se llevan a cabo diferentes acciones como: humedecer o disminuir el CO2, por lo tanto la cámara de monitoreo de gases facilitará dicha acción ya que proporcionará la información necesaria para el control de los parámetros ya mencionados, su funcionamiento está basado en: Circuito Para un monitoreo más optimo, el desprendimiento de gases, concentración de CO2, humedad relativa, etileno y temperatura serán medidos constantemente cada minuto con una duración máxima de 72 horas y una mínima da 24 para una información correcta, las cual serán medidos todos los datos ya dichos y serán guardados en una base de datos el cual estarán conectados todos los sensores, proporcionando una tabla y grafica con el tiempo transcurrido. Construcción del circuito Sensores Los sensores son de: humedad, temperatura, etileno y CO2, los cuales estarán mandado su medición a la base de datos cada minuto (o el tiempo deseado).   Para la creación de la base de datos que usaremos para las mediaciones utilizaremos Arduino y una interface Web llamado Ubidots que nos permitirá ver tiempo real y guardar los datos obtenidos. Pasos de la base de datos Se instalará para librería de Ubidots en el Arduino  En el Arduino se colocará este código, siendo que dicho código es un ejemplo ya que solo mide temperatura y humedad. Una vez teniendo en función el programa en Arduino nos iremos a la pagina de oficial de Ubidots la cual creamos los datos necesarios para su monitoreo basándonos en el siguiente enlace https://cutt.ly/Usf9o4u   Minuto 4:07 para la creación de nuestra base de datos. Características internas y externas Para la cámara se tomará las características de una cámara frigorífica, con la diferencia que esta no proporcionará un control de la temperatura o algún otro parámetro que afecte al retardo de la maduración de la fruta. Panel de 2.5 Metecno con acabado en lámina pintro blanca en ambas caras. Medidor de Humedad Moisture Meter MD-2G Medidor de CO2 y Temperatura: Monitor multiparamétrico de clima Sistema de iluminación con 1 lámpara led a prueba de vapor. Medidor de Etileno ETHAN. Datos obtenidos Una vez teniendo la tabla y las gráficas medidas por la cámara estos se guardarán en la base de datos en la nube de Ubidots lo cual este permitirá un almacenamiento correcto y este mismo no afectará al funcionamiento de los medidores o del controlador de los mismo, teniendo la posibilidad de guardar los datos en una USB, Por lo tanto, dicha información será otorgada a expertos en la materia, el cual en una cámara de almacenamiento se procederá a proporcionar las condiciones medidas por la cámara de monitoreo, para su optimo almacenamiento.


CONCLUSIONES

Una vez recopilando toda lo necesario se llego a la propuesta de la cámara que fue diseñada en Inventor profesional plus 2021. La parte anaranjada representa la ubicación de la base de datos donde irán conectados los sensores (lado posterior o arriba), mientras la parte azul es donde estarán los señores que es donde se encuentra una mayor cantidad de gases gracias a las 2 escotillas que se encuentran en la parte inferior derecha y la superior derecha donde se presentan los sensores respectivamente y por ultimo la parte blanca donde se encuentra un vidrio de 1.5cm de grosor para visualizar la fruta(parte frontal), tomando en cuenta que la cámara mide 1m por 1.5m respectivamente teniendo un grosor de 2.5cm con el material ya mencionado para tener una transferencia de calor mínima entre los cambios de temperatura constate y mantenerlo a una temperatura nominal. Por último se espera que la cámara proporcione la información necesaria para los usuarios a la hora de un almacenamiento más optimo u menos costo para las frutas deseadas.  
Lopez Ocaño Valeria, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

RELOJ SOLAR BUHO


RELOJ SOLAR BUHO

Garcia Olivas Samantha, Universidad de Sonora. Lopez Ocaño Valeria, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La  falta de interés en la comunidad por el recurso solar como energía renovable y la apreciación de eventos como ciclos lunares, movimientos aparentes del sol (solsticios y equinoccios) es un problema que se presenta en la conducta de la sociedad en la actualidad. Este tipo de eventos  suceden diariamente y por lo general pasan desapercibidos por la mayoría de las personas. Este tipo de temáticas, como la astronomía y en especial los fenómenos causados por el solo como la trayectoria solar, pueden ser temas que enriquezcan de mucho conocimiento a las personas que los estudien o los conozcan. Además su aprovechamiento puede resolver problemáticas que se viven en la actualidad como consumo excesivo de energía, contaminación ambiental, etc.  En concreto, el sol y el aprovechamiento de su movimiento debería de ser un tema en el que adultos y niños se interesen. Algo tan sencillo como tener la hora exacta del dia sin tener conocer la hora sin tener que observar un reloj analogico o digital, solo con saber donde esta ubicado el sol o bien, con un reloj solar. El proyecto que se presenta se encarga de promover las oportunidades de aprendizaje permanente para todos, mediante un dispositivo que se ha utilizado desde remotos años pero que no muchas personas conocen, el reloj solar. Además asegurar el acceso a energías asequibles, fiables, sostenibles y modernas para todos.



METODOLOGÍA

Estudiamos distintos temas relacionados con la trayectoria solar y su aprovechamiento como recurso solar, a partir de esto se decidió que el proyecto que realizaríamos sería un reloj solar. La primera pauta de diseño que analizamos, fue la selección de ubicación del reloj solar. La selección de la ubicación es estratégica para que el reloj quedará a la vista del mayor número de personas posibles, que este resultara llamativo y agradable a la vista, y que a su vez pudiera funcionar de la manera más óptima, estando ubicado en un lugar donde hubiera incidencia solar la mayoría del dia y no que fuera un lugar sombreado.    Desde un principio nuestra intención fue aportar algo a nuestra institución, por lo cual queríamos destinar este proyecto a la Universidad de Sonora. Después de investigar decidimos ubicar el reloj en la entrada principal de la Universidad de Sonora, frente a rectoría, junto al asta de la bandera. Después de esto comenzamos con la selección del tipo de reloj que se propondría, en este caso se seleccionó el tipo bifilar, para una mejor implementación de un método tradicional con un diseño moderno y fácil de apreciar para el usuario.   El reloj bifilar nos permitirá tener dos elementos de sombreado, una cadena que forma una catenaria la cual nos daría como respuesta la estación del año, y un gnomon, el cual nos daría como respuesta la hora del dia por medio de la sombra que estos elementos provocan en el analema. El analema es la plataforma donde se reflejarán las sombras de los elementos de sombreado, el cual tendrá en él una gráfica grabada, para poder leer la hora y la estación del año.   Al comenzar el diseño artístico se buscó reflejar la identidad de la universidad en cuestión, por lo cual se decidió que el foco principal de este diseño sería la mascota de la universidad la cual es el búho. Para implementar esta figura en el reloj en propuesta decidimos adecuar la forma abstracta de un búho en la forma del gnomon el cual nos indicaría con su sombra reflejada en el suelo del reloj la hora exacta en la que se encuentra en el momento que se observe, y junto a él se encontrara dos sahuaros los cuales sostendrán la cadena que formará la la catenaria del proyecto, la cual refleja con su sombra en el suelo de la misma manera que el gnomon pero la catenaria indica la época en la que se encuentra el observador como podrían ser solsticios y equinoccios respectivamente. El concepto de los sahuaros lo implementamos en el diseño para representar la zona en la que estamos proyectando, una zona desértica, como lo es la región sonorense.   Hicimos uso de las herramientas como Sketchup y Lumion para realizar el modelo del diseño en propuesta, esto nos permitió representar de una forma más realista la ubicación prácticamente exacta con dimensiones aproximadas y figuras mejor definidas, aterrizando los bocetos que dibujamos proponiendo formas, estilos, materiales, etc. Lumion, nos permitió simular la realidad del modelo en 3D con simulación de iluminación solar en sus distintas horas, también este software nos permite seleccionar la ubicación deseada para poder reflejar con mayor realidad la iluminación y las sombras en el proyecto.   Para el buen funcionamiento de nuestro reloj y crear una grafica solar adecuada, la cual nos permitirá leer e interpretar el sombreado de nuestros elementos de sombra se formuló a partir de la plataforma Python. Para utilizar este  programa primero recopilamos ciertos datos importantes como latitud del lugar, la longitud estándar y local, la hora que se quiere visualizar en las proyecciones en tiempo estándar (en minutos), así como el dia y si hay horario de verano, esto principalmente para visualizar la sombra del gnomon y de la catenaria a una hora específica. Después determinamos el tamaño y la posición de la catenaria por medio de cálculos, y con esto se hicieron dos ciclos para obtener las coordenadas de los puntos de discretización, la información se fue obteniendo de arreglos.


CONCLUSIONES

Durante la estancia, adquirimos muchos conocimientos relacionados con el tema en investigación, esto nos ayudó a enriquecer nuestras habilidades de investigación, sobre todo a expandir nuestros horizontes como futuras arquitectas en otros temas, en este caso las energías renovables especializadas en el recurso solar, el cual puede llegar a estar estrechamente ligado con nuestra principal rama de estudio. La programación y el diseño de un reloj solar puede llegar a ser complicado y un extenso trabajo, ya que requiere de muchos cálculos, sin embargo se realizó de la mejor manera dentro de lo posible con los conocimientos adquirido, con la ayuda de nuestros asesores y el apoyo de nuestros compañeros. La construcción de este reloj solar podría ser un proyecto muy llamativo e interesante para la Universidad de Sonora, esto traería interés al tema a las personas que lo vieran y utilizaran.  
Lopez Pozo Inoe Lucrecia, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez

NANOPARTíCULAS PARA EL TRATAMIENTO DEL CáNCER DE MAMA.


NANOPARTíCULAS PARA EL TRATAMIENTO DEL CáNCER DE MAMA.

Lopez Pozo Inoe Lucrecia, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Actualmente los fármacos y tratamientos usados contra el cáncer de mama presentan una falta de especificidad derivada de la extensa biodistribución y de los efectos adversos generados por la acción inespecífica de éstos en órganos sanos, tales como la quimioterapia, antraciclinas, camptotecinas, alcaloides de la vinca, taxanos, hormonales, adyuvantes, entre otros. Por lo que delimitar los avances más recientes en los sistemas de nanopartículas para el tratamiento del cáncer de mama resulta ser de gran importancia al expandir la brecha de enfoque más allá del diagnóstico temprano y la extensión de años de vida con los tratamientos actuales.



METODOLOGÍA

 Se hace una revisión sobre los conocimientos fundamentales del cancer de mama, para comprender el mecanismo y los tratamientos actuales, asi como la recopilacion de los avances bibliograficos de artículos mas significativos enfocados en el diseño y desarrollo de nanoparticulas en sus diversas presentaciones , recientemente publicados, empleando base de datos confiables, sobre el cáncer de mama. Estableciendo descripciones concretas descritas en tablas que permiten comparar y mediante análisis plantear ideas innovadoras y justificadas para mejorar el desarrollo de nanoparticulas que consiguen acumular específicamente la cantidad de fármaco administrado en el lugar de acción, logrando así un aumento significativo de la eficacia clínica, junto con una minimización de los problemas de solubilidad, farmacocinéticas, reacciones adversas y resistencias asociadas a los fármacos citostáticos contra el cáncer de mama.


CONCLUSIONES

La investigación de nanopartículas específicas en el tratamiento del cáncer de mama ilustra muchas de las potencialidades de la nanobiotecnología y nanomedicina a largo plazo ya que es de esperar que ayude a desarrollar una terapia anticáncer. En este sentido, se están realizando trabajos de experimentación con láser que han logrado eliminar las células cancerosas respetando las sanas, siendo otra de las investigaciones más destacadas la creación de dendrimeros y acarreadores multifuncionales con una amplia capacidad transportadora de fármacos diseñada para introducir el fármaco anticáncer únicamente en las células del tumor, donde su efecto aumenta y la toxicidad disminuye. Igualmente se han utilizado nanopartículas magnéticas con el recubrimiento adecuado para localizar células tumorales. Todas estas investigaciones con la finalidad de inducir la apoptosis de las células cancerígenas de manera más específica, efectiva y controlada.
López Ramírez Alejandra Carolina, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

SISTEMA DE RECONOCIMIENTO DE IMáGENES PARA LA ENSEñANZA GUIADA DE TAEKWONDO


SISTEMA DE RECONOCIMIENTO DE IMáGENES PARA LA ENSEñANZA GUIADA DE TAEKWONDO

López Ramírez Alejandra Carolina, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Hoy en día debido a los avances en las tecnologías la enseñanza de algunos deportes puede evolucionar ,al ser maestra de taekwondo note algunas desventajas que muchas veces nos alejan de la práctica de este deporte ,como puede ser el tiempo, y más específicamente derivado de esta pandemia el distanciamiento social que debemos tener de ahora en adelante ,tomando en cuenta que muchas veces debemos corregir a los alumnos y cuando ellos trabajan en casa esto es muy difícil por lo que un sistema de enseñanza a través de reconocimiento de imágenes y de patrones podría ser la solución.



METODOLOGÍA

METODOLOGÍA Este proyecto se desarrollo de una forma analítica y empezando con una investigación general sobre inteligencia artificial, reconocimiento de imágenes y patrones por medio de sensores de detección de movimiento. Las técnicas y teorías para el desarrollo son complejas, por tal motivo se establecio la estructura básica sobre la cual se realizara la generación de patrones en reconocimiento de imágenes por medio de la utilización de sistemas de aprendizaje de máquina, que permita la búsqueda de secuencias de coincidencias para la optimización y análisis de los resultados de mejoramiento de las actividades deportivas en la enseñanza de .La investigación bibliográfica se centro sobre metodologías recientes utilizadas en este tipo de desarrollos, integrando algunas herramientas funcionales que permitan la operación óptima apoyando a identificar los requerimientos necesarios para establecer el mejoramiento de las actividades deportivas del taekwondo. Para la realización del proyecto de investigación se utilizo una metodología que maneja pruebas en cada fase del proyecto, como es el caso de la metodología de desarrollo de modelo en V .A medida que la complejidad del sistema aumente, se hacen necesarias técnicas de pruebas y comportamiento que realicen modificaciones en las fases del proyecto.


CONCLUSIONES

El proyecto hará una innovación en la manera que actualmente se da la enseñanza del taekwondo ,como todo en la vida conforme avanza el tiempo nos debemos actualizar a las nuevas tecnologías y tendencias. Este proyecto contribuirá a generar nuevas herramientas e investigaciones en el campo de la inteligencia emocional permitiendo aumentar nuevas proyecciones para la enseñanza del taekwondo: Facilitar la enseñanza del taekwondo cuando hay una dificultada para llevar una clase presencial. Preparar las bases para futuros trabajos de grado sobre el tema. Fortalecer la línea de investigación de inteligencia artificial, sistemas para el reconocimiento de imágenes y patrones. Extender los conocimientos para la aplicación del sistema en la enseñanza de otro deporte.    
Lopez Ramirez Eduardo, Instituto Tecnológico de Tapachula
Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula

DESARROLLO DE SOPORTE ERGONóMICO PARA EQUIPO DE MEDICIóN DE SIGNOS VITALES


DESARROLLO DE SOPORTE ERGONóMICO PARA EQUIPO DE MEDICIóN DE SIGNOS VITALES

Chacon Aguilar Abel, Instituto Tecnológico de Tapachula. Lopez Ramirez Eduardo, Instituto Tecnológico de Tapachula. Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores inconvenientes en la innovación es la falta de residencia,la sociedad se acostumbra al uso de ciertos dispositivos(en nuestro caso mecánico) que no ven la necesidad o la utilidad de innovar. Esto ocurre en todos los sectores, el área médica no es una excepción; ciertamente las mayores innovaciones vienen acompañadas de mayores costos, lo cual hace aún más difícil que se logre el cambio esperado. En el presente trabajo mostramos la innovación de un dispositivo de "apoyo médico" que comenzó como un porta sueros y que prácticamente a sufrido leves cambios en los más de 50 años en que se ha utilizado, hablamos de un soporte para equipos de medición de signos vitales.



METODOLOGÍA

El diseño se basa en leyes de la física básicas que abarcan términos generales, Estática, Mecánica de Materiales, Dinámica,fluidos; Este diseño empleara como parte fundamental, mantener un centro de gravedad bajo sin importar la masa que se coloque en el extremo Superior del soporte, Logrando de esta forma el balance de cuándo, Evitar giros del soporte y caida de los dispositivos de medición. Se empleará como respaldo del análisis mecánico, Sistemas CAE que nos permitirán simular el soporte y corroborar el comportamiento estructural y dinámico de acuerdo a los esfuerzos a los que estará sometido, utilizando herramientas de mallado basadas en el método de elementos finito para la aproximación de las solicitudes de más ecuaciones empleadas en el diseño.


CONCLUSIONES

Durante la estancia del verano se logró desarrollar el diseño del soporte ergonómico para equipos de medición de signos vitales. Mediante el apoyo de software de diseño (ANSYS), de esta manera se corroboro el diseño estructural del soporte, esperando ahora una continuación en el proyecto para su aplicación.
Loranca Ruiz Diana, Benemérita Universidad Autónoma de Puebla
Asesor: Mg. Belkys Polo Cambronell, Universidad de Santander

REVISIóN DE LAS CONDICIONES DE SíNTESIS DE POLIURETANOS LIBRES DE DISOCIANATO A PARTIR DE ACEITE DE RICINO Y GLICEROL


REVISIóN DE LAS CONDICIONES DE SíNTESIS DE POLIURETANOS LIBRES DE DISOCIANATO A PARTIR DE ACEITE DE RICINO Y GLICEROL

Loranca Ruiz Diana, Benemérita Universidad Autónoma de Puebla. Pineda Sarabia Mayte, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Belkys Polo Cambronell, Universidad de Santander



PLANTEAMIENTO DEL PROBLEMA

Desde la introducción de los polímeros en el ámbito de la química en 1937, se han encontrado muchas aplicaciones en la industria, por ejemplo, en la industria automotriz en nuevos adhesivos para automóviles, espumas, entre otras, y hacen parte del día a día de la vida de la sociedad del siglo XXI. La razón detrás de esto es sus propiedades versátiles, disponibilidad de materia prima y fácil procesabilidad de la síntesis. Dentro de la gran variedad de polímeros disponible, vale la pena destacar los poliuretanos (PU), que comprende el 7% de la producción mundial de polímeros y entre las aplicaciones anteriormente mencionadas se pueden resaltar una aplicación que ha ganado relevancia en los últimos tiempos como las aplicaciones médicas. A pesar de todas las ventajas de los poliuretanos, también cuentan con limitaciones que representan un serio desafío para su uso y aplicación en el futuro. Una desventaja importante de los poliuretanos es que sus monómeros se basan en recursos fósiles no renovables, y en el escenario actual, el rápido agotamiento de los recursos derivados del petróleo y los daños ambientales causados por su uso,  han generado un estado de alerta para usar sustitutos renovables y biodegradables y así aportar a la disminución del impacto al medio ambiente. Los aceites vegetales representan una alternativa interesante para la producción de PU debido a su relativo bajo costo, pureza, y principalmente por ser amigables con el medio ambiente. Adicional a esto,  presentan una buena estructura en sus moléculas, alta funcionalidad que se puede traducir en oportunidades de reacciones químicas. Estudios realizados por los autores de este trabajo demuestran que el uso de castor oil y glicerol, son una fuente importante para la síntesis de poliuretano. Los PU sintetizados a partir de castor oil y glicerol presentaron módulos de almacenamiento ajustados a la relación de los polioles,  buena resistencia al ataque químico, una resistencia a la temperatura ajustable, y además, presentan buena biocompatibilidad para su uso en el campo de las aplicaciones médicas. Es de tener en cuenta que la estructura de los poliuretanos consiste en la unión de polialcoholes (polioles) y moléculas funcionales llamadas diisocianatos (NCO). Estas últimas son moléculas altamente tóxicas, normalmente sintetizados mediante la fosgenación de aminas. Debido al uso de isocianato en la síntesis de poliuretanos, existe un gran enfoque para mejorar las alternativas ecológicas. Recientemente, el poliuretano libre de isocianato  NIPU por sus siglas en inglés, llevado a cabo por la reacción entre un carbonato cíclico y una diamina siendo una de las tendencias ecológicas atractivas desarrolladas en el campo de la síntesis y aplicación de polímeros. Entre varias rutas propuestas para poliuretanos sin isocianato (NIPU), la reacción de compuestos de carbonato cíclicos con aminas ha atraído mucha atención debido al mecanismo sencillo y la formación de grupos hidroxilo secundarios como resultado de la apertura del anillo de carbonato cíclico. 



METODOLOGÍA

Se realizó un estudio introductorio abordando temas como clasificación de los polímeros, sus aplicaciones y efectos ambientales, haciendo un enfoque principal en el estudio de los poliuretanos y el impacto que estos causan al medio ambiente para proponer rutas de síntesis adecuadas para la posible resolución de este problema.  Se generó una búsqueda específica a partir de una ecuación bibliométrica basada en Scopus, para la adquisición de información útil en el área específica de esta investigación. Este mismo nos permitió generar un análisis para conocer la producción científica de los investigadores y analizar a qué áreas de la ciencia se aplican estas investigaciones.  VOSVIEWER, es una herramienta de software para construir y visualizar redes bibliométricas.  El software tiene capacidad de distinguir dos tipos de mapas bibliográficos, uno relacionado entre los elementos investigados y el otro facilita la identificación de los grupos de elementos relacionados.  Mediante VOSviewer se realizó un segundo filtro de la búsqueda obtenida para facilitar y acotar la búsqueda y el análisis de nuestra investigación generado a partir de los documentos obtenidos en Scopus, como resultado de la utilización de software se obtuvo un mapa basado en datos de red, en el cual destacan temas como carbonatos cíclicos, aceites vegetales, poliuretanos libres de disocianatos, síntesis, aceites vegetales etc.  A partir de los resultados obtenidos se procedió a realizar la revisión del material bibliográfico para determinar de estas fuentes las rutas de síntesis favorables de los poliuretanos libres de isocianato y ampliar el rango de sostenibilidad de estos materiales proponiendo otros métodos de síntesis.  Tras la recopilación de los nueve artículos relacionados con los clusters principales, se concentró una matriz la cual compone de las materias primas utilizadas por cada autor, rutas, condiciones de reacción y principalmente metodología de síntesis para la obtención de poliuretanos de alta degradabilidad (libres de isocianato). La ruta de síntesis más reportada con buenos resultados finales es la epoxidación. 


CONCLUSIONES

A lo largo de la estancia de verano y el trabajo realizado se buscó promover una industrialización inclusiva y sostenible, disminuir significativamente el impacto ambiental con esta implementación de las NIPU’s.  La metodología utilizada funciono y nos permitió identificar sistemáticamente una ruta de síntesis para las NIPU’s. Esa ruta de síntesis es la epoxidación de aceites vegetales como aceite de ricino y glicerol, ya que los aceites vegetales representan sustratos ideales para la síntesis de monómeros de carbonatos cíclicos dado que sus insaturaciones se pueden epoxidar y carbonatar fácilmente siendo un método que ha sido extensamente aplicada a escala industrial para la producción de adhesivos, revestimientos, pinturas y polímeros. 
Loza Aceves Jose de Jesus, Universidad de Guadalajara
Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia

BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES


BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES

Canales Grimaldo Juan Pablo, Instituto Politécnico Nacional. Loza Aceves Jose de Jesus, Universidad de Guadalajara. Mendoza Garcia Diana Montserrat, Instituto Tecnológico de Tuxtla Gutiérrez. Moreno Macias Pablo Cesar, Universidad de Guadalajara. Obeso Peregrina Andrea, Universidad de Guadalajara. Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la sociedad enfrenta retos importantes en todos los aspectos. Uno de ellos es la integración de grupos minoritarios en actividades cotidianas, para que las personas puedan generar una experiencia que les permita adquirir cualidades como individuos y generar un bienestar individual y/o colectivo. La propuesta desarrollada Bioclimática y espacio público: propuesta de intervención del espacio público asociado a estructuras sustentables e incluyentes.       engloba dos aspectos muy importantes para el desarrollo integral de una persona: educación y recreación



METODOLOGÍA

En los diferentes espacios de este proyecto como son el parque sensorial y la escuela de educación especial, se adaptan e integran diversos elementos arquitectónicos para que el usuario sea capaz de descubrir y desarrollar sus cualidades a través de la experiencia sensorial e intuitiva. Para la realización de este proyecto se usó el método cuantitativo de diseño arquitectónico del Arquitecto Álvaro Sánchez, el cual permite el planteamiento de una solución de proyecto. Finalmente, estos elementos y métodos se concluyen en un objeto arquitectónico apto para el cumplimiento de su objetivo, ofreciendo soluciones técnicas constructivas y sustentables. La desintegración social es un problema con alta incidencia en los grupos de todos los niveles educativos y socioeconómicos de determinada población, en donde se generan diferencias propias de los integrantes, habiendo una marcada deficiencia en los sistemas de organización y regularización para atender los problemas.  Cuando existe, el grupo como tal, no se desarrolla en su máxima plenitud


CONCLUSIONES

Crear el Centro de Recreación e Integración Social supone para el desarrollo humano un paso muy importante en la sana convivencia y bienestar del lugar en donde se encuentre. Esto demuestra la flexibilidad que tiene la arquitectura para crear, así como innovar conceptos e ideas de acuerdo a los nuevos requerimientos sociales, al mismo tiempo se demuestra la responsabilidad que esta rama tiene en ofrecer espacios que den solución a dichos requerimientos. Este proyecto cumple con ellos de manera sustentable, técnica y perceptual, prometiendo convertirse en un referente urbano a nivel local, nacional e internacional, no solo por su diseño, sino también por el origen de su concepción que va más allá de solo mejorar un lugar y construir un objeto arquitectónico.  Ofrecer una oportunidad a todas las personas, especialmente a las que tienen capacidades diferentes para su bienestar y desarrollo, para percibir su entorno de manera distinta y de experimentarla con una mejor calidad de vida emocional y físicamente, es lo que se ha plasmado en este proyecto, generando un cambio positivo en la calidad de vida de nuestra sociedad.
Loza Suarez Kenia Estefani, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ANÁLISIS COSTO-BENEFICIO DE LA IMPLEMENTACIÓN DE PET RECICLADO EN FORMA DE FIBRA EN UN CONCRETO CONVENCIONAL DE RELACIÓN AGUA/CEMENTO ALTA, PARTIENDO DE LA REVISIÓN DE LA PRODUCCIÓN DE PET VIRGEN Y SU DISPOSICIÓN FINAL DE ESTE.


ANÁLISIS COSTO-BENEFICIO DE LA IMPLEMENTACIÓN DE PET RECICLADO EN FORMA DE FIBRA EN UN CONCRETO CONVENCIONAL DE RELACIÓN AGUA/CEMENTO ALTA, PARTIENDO DE LA REVISIÓN DE LA PRODUCCIÓN DE PET VIRGEN Y SU DISPOSICIÓN FINAL DE ESTE.

Loza Suarez Kenia Estefani, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El Tereftalato de Polietileno (PET) es un importante material polimérico que como se sabe en los últimos años ha existido una producción excesiva a nivel mundial que no ha traído consigo más que consecuencias negativas en cuestión medioambiental y económica, a pesar de ser un material 100% reciclable, más del 60% de las botellas de PET terminan en el relleno sanitario o en alcantarillas, ríos, espejos de agua entre otros (Alesmar, Rendón , & Korodoy, 2008), en México se recupera alrededor de 40% de PET que se utiliza (Residuos profesionales, 2014), es por ello que ahora como futuras generaciones nos preocupamos por innovar y desarrollar soluciones que nos permitan erradicar esta problemática y si no por lo menos darle un uso óptimo a los desechos y envases defectuosos del PET asegurando una reducción del impacto ambiental. Las fibras de PET que aumenta en gran medida su resistencia en el concreto aportándole mayor tenacidad y elasticidad, su forma, permite la perfecta adherencia con el evitando fisuraciones tempranas, su obtención es fácil ya que existen maquiladoras de PET o puede realizar un corte mecánico de los envases con navajas hasta obtener hilos (Aguilera Bazan & Diestra Lujan, 2017).



METODOLOGÍA

El principal objetivo del presente proyecto es realizar una investigación teórica sobre la producción a nivel mundial y nacional del PET, lo que conlleva a indagar en el volumen producido, costo de producción, la generación de residuos plásticos, los tipos de reciclaje de PET que existen, el costo de reciclaje, para posteriormente realizar un análisis costo-beneficio de la implementación del PET en un concreto hidráulico convencional. El desarrollo de la investigación constó de tres partes fundamentales para su realización: 1. Participación en 33 ponencias desarrolladas por investigadores del Laboratorio de Materiales “Ing. Luis Silva Ruelas” de la Facultad de Ingeniería Civil (UMSNH) las cuales ayudaron de manera aleatoria a asentar las bases teóricas respecto al tema en estudio. 2. Investigación documental, en buscadores académicos, guiada por coordinadores del tema en estudio para la comprensión e iniciación del tema a desarrollar. 3. Análisis costo – beneficio de la implementación del PET a partir de la comparación del costo total de 1 m3 de concreto hidráulico convencional, 1 m3 de concreto con 1% de fibra de PET respecto a la masa del cemento y 1 m3 de concreto con malla electrosoldada. El cálculo de las cantidades de material necesarias para la elaboración de 1m3 de concreto convencional, se realizó mediante el Método de diseño ACI 211, considerando una relación agua/cemento de 0.68, un revenimiento de 7.5 cm y las características físicas de los materiales, proporcionadas por el coordinador de la investigación y cuyos valores son los siguientes: -Cemento; MVSS=1490 kg/m3, D=3.10 gr/cm3, -Arena; MVSS=1244 kg/m3, MVSV=1363 kg/m3, D =2.10 gr/cm3, MF=2.55 adim%, H. Absorción 7.5, -Grava; MVSS=1441 kg/m3 MVSV=1601 kg/ D= 2.71 gr/cm3 TM= ¾ in %H. Absorción = 2 Es así como obtenemos las siguientes cantidades de cada material, haciendo al mismo tiempo un análisis de costo unitario de la región (Construrama, s.f.): Cemento: 301.471 kg, PU=$3,300/ton, total= $994.85, Arena: 576.343 kg, PU=$700m3, total= $212.34, Grava: 1011.922 kg, PU=$700/m3, total= $337.33, Agua: 272.383kg, PU=$20/m3, total= $5.45 En base a lo anterior se define que el costo total de material para un metro cubico de concreto convencional es de $1, 549.97 (*Mil quinientos Cuarenta y nueve pesos con Noventa y siete centavos*). Para realizar el análisis del costo unitario de la fibra de PET, se cotizo que el kilogramo de botellas de PET reciclado tiene un costo de entre $5.00 y $10.00 (¿Cuánto cuesta el kilo de PET en México?, s.f.), aumentando un 50% de la obtención de las fibras respecto al costo de reciclaje de las botellas (promedio de $10) siendo que entonces el kilo de fibra de PET equivaldría a 15 pesos, resultando así los siguientes precios de material: Cemento: 301.471 kg, PU=$3,300/ton, total= $994.85, Arena: 576.343 kg, PU=$700m3, total= $212.34 Grava: 1011.922 kg, PU=$700/m3, total= $337.33, Agua: 272.383kg, PU=$20/m3, total= $5.45, Fibra de PET: 3.015kg, PU=$15000/ton, total=$45.22. Tanto las cantidades como los precios del material para el metro cubico de concreto se conserva y solo se agrega el precio de la fibra de PET obtenido anteriormente dando así un total de $1 595.19 (*Mil quinientos Noventa y cinco pesos con diecinueve centavos*). Por último, se realizó el cálculo del costo total de un concreto convencional con malla electrosoldada de 6x6/10-10, suponiendo su uso en un pavimento de 10 cm de espesor: Cemento: 301.471 kg, PU=$3,300/ton, total= $994.85, Arena: 576.343 kg, PU=$700m3, total= $212.34, Grava: 1011.922 kg, PU=$700/m3, total= $337.33, Agua: 272.383kg, PU=$20/m3, total= $5.45, Malla electrosoldada: 9.8 kg, PU=$26804.12/ton, total=$262.68. Esta combinación de materiales nos da un total de $1 812.65 (*Mil ochocientos doce pesos con Sesenta y cinco centavos*)


CONCLUSIONES

Al realizar un análisis de costo-beneficio entre el concreto hidráulico convencional, con adición de PET y utilizando la malla electrosoldada, podemos determinar que entre el concreto convencional y la mezcla con adición de PET no es mucha la diferencia en costo ya que aproximadamente estaría aumentado $45.22 por metro cubico de concreto mientras entre el uso de malla electrosoldada y fibra de PET hay una diferencia de $217. 46 por metro cúbico, dado este resultado es más conveniente utilizar fibra de PET reciclado. En conclusión, considero que el uso de fibras de PET reciclado en concretos es una gran oportunidad para la ingeniería Civil ya podemos asegurar obras de calidad a fin de contribuir al proceso de disposición final de los residuos plásticos contaminantes, lo cual ayuda de forma indirecta a disminuir el impacto ambiental. Dichas mezclas pueden utilizarse en la construcción de elementos de obras civiles, cuyas cargas y su durabilidad estén limitadas a cierto rango para contar con las características mecánicas requeridas.
Lozano Retana María Azucena, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato

DISEñO DE EXPERIMENTOS DENTRO DEL PROCESO DE PRODUCCIóN DE PIMIENTOS DE LA AGRICULTURA PROTEGIDA EN MéXICO


DISEñO DE EXPERIMENTOS DENTRO DEL PROCESO DE PRODUCCIóN DE PIMIENTOS DE LA AGRICULTURA PROTEGIDA EN MéXICO

Castro Rivas Luis Orlando, Instituto Tecnológico Superior de Guanajuato. Lozano Retana María Azucena, Instituto Tecnológico Superior de Guanajuato. Pérez Hernández Nazareth Martín, Instituto Tecnológico Superior de Guanajuato. Rodríguez Medina Cristina, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una empresa grande del sector agrícola dedicada a la agricultura protegida realiza la siembra, cosecha y venta de sus productos, entre estos frutas y hortalizas. La empresa presenta problemas en el área de empaque; genera gran cantidad de desperdicio por deficiencias en el proceso de producción de pimientos. Se procedió a realizar un diagrama de Ishikawa para analizar los factores involucrados en el proceso y se identificó la causa principal de los desperdicios, concluyendo que los desperdicios se generan en la máquina de embolsado de pimiento. 



METODOLOGÍA

En el área de empaque de pimiento se detectaron factores causantes de gran cantidad de desperdicios por deficiencias del proceso en la máquina de embolsado. Por tal motivo se implementó la metodología Diseño de experimentos (DOE), la cual permite analizar las variables o factores independientes que intervienen en el proceso e influyen en la variable de respuesta de este, permitiendo obtener un mejor nivel de optimización (Hernández, De la Paz y García, 2015). Para realizar el estudio sobre DOE (Montgomery, 2004; Hernández 2014), se aplicaron los siguientes pasos: 1. Identificación y exposición del problema Se determinó que en la máquina de empaque se encuentra el mayor número de causas posibles de desperdicio, porque es en la maquina donde se tienen mayor número de factores que podrían ser más difícil de combinar correctamente. La máquina dos de embolsado se encarga de realizar el empaquetado del pimiento en cantidades de tres unidades por bolsa, en repetidas ocasiones provoca fisuras y aplasta el producto al sellar las bolsas, generando una considerable cantidad de producto dañado (Garza, 2014 ; López, Quiroga, Gómez y Barrando, 2012) 2. Elección de factores, niveles y rangos Las variables seleccionadas para el análisis estadístico deben ser variables que influyen directamente en el proceso y deben ser controlables (Abate, Deferrari y Martinez, 2017) por lo tanto se determinó que las variables de interés son, la velocidad de la maquina en un rango de acciona de 70 a 85% y la altura de las brochas de empuje de 2.9 hasta 3.4 pulgadas, estas son las variables que tienen la posibilidad de ser modificadas y controladas en el proceso y sus respectivos rangos de acción que serán utilizadas para el diseño. 3. Selección de la variable de respuesta Se determino como variable de respuesta o dependiente a la cantidad de producción de bolsas (Rendon, Gutiérrez y Duque, 2010), esta variable es afectada al modificar las variables de velocidad de la maquina y la distancia de las brochas de empuje del pimiento. 4. Elección del diseño experimental Se requiere de la aplicación de diseños de experimentos mediante la técnica de cuadros latinos, en la maquina dos de embolsado al momento de empacar pimientos de 3 pulgadas, ya que estos se producen en mayor volumen, se realizará con una matriz de 4 por 4 factores lo que conlleva cuatro tratamientos de la variable velocidad de la maquina y cuatro tratamientos de la variable altura de las brochas de empuje, con un total de 16 muestras. Estas corresponden a velocidad de la maquina 70, 75, 80 y 85 y la altura de la brocha de empuje 2.9 pulgadas, 3.0 pulgadas, 3,2 pulgadas y 3,4 pulgadas. Se debe de comenzar con la medida más baja y la velocidad más baja que es la altura de 70 y 2.9 pulgadas de altura de la brocha de empuje (Aguilar, Benzadon, De Leon, Sánchez, Cedeño, 2019), se debe de medir cantidad de productos embolsados con estas variables durante dos minutos lo que corresponderá a nuestra variable de respuesta, así sucesivamente se van aumentando las variables del diseño y tomando las variables de respuesta correspondientes a las combinaciones de las variables y se va realizando el registro de los resultados de las distintas combinaciones. 5. Realización del experimento. Se confirmo que las personas quienes intervienen en el proceso estuvieran perfectamente capacitados para la objetividad de los resultados y se realizó la recolección de datos (Diaz, 2009) con base en las combinaciones establecidas, posteriormente se desarrolló la metodología mediante cuadros latinos comenzando con la asociación de datos a letras de manera ordenada, se realizó una diferencia de estos datos con respecto a la media del total y se suman las filas y columnas para obtener Y que en este caso equivale a 19, se procedió a calcular las sumatorias correspondientes a cada una de las letras para obtener Yj donde se pudo comprobar que el valor de Y era el correcto al ser igual que Yj. Para realizar el análisis de varianza (Durakovic, 2017) se desarrolló una ecuación, para calcular la suma total de los cuadrados, que corresponde a la suma de la suma de cuadrados de regresión y la suma de cuadrados del error, como resultado de esta sumatoria, se obtuvo lo siguiente: SST=9448.4375, SSR= 49.1875, SSc=6443.6875, SSt=1109.1875, SSE=1846.375


CONCLUSIONES

Como resultado del diseño de experimentos se obtiene un ANOVA (analysis of variance), donde se evaluó si la variación de cada una de las variables analizadas afecta de manera considerable en nuestra variable de respuesta (Montgomery, 2017); para que una variable no afecte la variable de respuesta su valor de F debe de ser menor que el valor de Fisher correspondiente a los grados de libertad, que para este experimento corresponde a 4.76 y se observó que la variable de velocidad es donde se genera variación en el diseño debido el valor de F es igual a 6.979 y mayor que el valor Fisher este valor de 6.979 corresponde a la velocidad de la máquina, es decir que la velocidad de la maquina afecta de manera considerable en nuestro proceso de producción. Se realizó un gráfico radial donde se muestra el comportamiento de la producción con respecto a distintas combinaciones de variables mostrando cuál de ellas genera mayor eficiencia, las cuales corresponden a las velocidades de 80 y 85, se establece un objetivo de 210 bolsas por minuto y la mayor efectividad se genera a una velocidad de 85, independiente a la altura de la brocha manteniendo la producción constante y cercana al objetivo.  
Lucas Vazquez Luis Miguel, Universidad Autónoma de Guerrero
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO COMPARATIVO DEL DESEMPEñO MECáNICO DEL CONCRETO REFORZADO CON FIBRAS ARTIFICIALES PARA CONOCER LA FACTIBILIDAD DE INCORPORAR PET EN EL CONCRETO HIDRáULICO.


ESTUDIO COMPARATIVO DEL DESEMPEñO MECáNICO DEL CONCRETO REFORZADO CON FIBRAS ARTIFICIALES PARA CONOCER LA FACTIBILIDAD DE INCORPORAR PET EN EL CONCRETO HIDRáULICO.

Lucas Vazquez Luis Miguel, Universidad Autónoma de Guerrero. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto es una roca artificial creada por el hombre mediante la mezcla de agregados, aglutinante y opcionalmente la adición de aditivos, es el material más utilizado en la industria de la construcción por sus propiedades de durabilidad y resistencia a compresion que este adquiere. En los últimos años se ha buscado obtener una mayor resistencia a tracción, debido a su baja resistencia,es por esta la razon que se empezo a implementar las fibras en el concreto para aumentar la resistencia a flexión. De acuerdo a The International Bureau for the standardization of Man-Made fibres las fibras se clasifican en Naturales y Artificiales. En las fibras naturales se encuentran las fibras orgánicas y las fibras artificiales esta dividida en fibras orgánicas e inorgánicas, siendo estas últimas las fibras de Carbono, Cerámica, Vidrio y Metal. Para evaluar una fibra como refuerzo en el concreto es necesario realizar pruebas de laboratorio que nos permitan determinar el desempeño mecánico del concreto, es decir, la capacidad de soportar cargas y esfuerzos. El presente estudio tiene como propósito realizar un estudio comparativo de investigaciones encontradas en buscadores académicos, que evalúan el desempeño mecánico del concreto reforzado con fibras artificiales, buscando identificar si es factible la incorporación de fibras de PET como refuerzo en el concreto hidráulico para futuras investigaciones.



METODOLOGÍA

Para realizar la presente investigación se desarrolló una secuencia precedida por investigación documental y la creación de gráficas estadísticas basadas en información extraída de trabajos desarrollados, por diferentes autores, relacionados con el tema de estudio (fibras artificiales en el concreto hidráulico). A continuación, se muestra una secuencia de pasos desarrollada para realizar el presente estudio: 1. Participación en 33 ponencias desarrolladas por investigadores del Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil (UMSNH) las cuales ayudaron de manera aleatoria a asentar las bases teóricas respecto al tema de estudio. 2. Investigación documental, en buscadores académicos; tales como Google Academic, Redalyc, Refseek, Dialnet, Academia edu. y Scielo; guiada por coordinadores del tema en estudio, sobre los concretos reforzados con fibras artificiales. Una vez terminada la investigación y la recopilación de información se procedió a crear una tabla de registro, la cual contenía los siguientes datos: título de la Investigación, autor, fecha de publicación, tipo de fibra, % de fibra, Relación a/c, Resistencia diseñada, Resistencia a compresión, Resistencia a Tensión, Resistencia a flexión, Tipo de especímenes, Dimensiones del espécimen y Observaciones. se procedió a leer cada una de las investigaciones, a manera en que se revisan las investigaciones y se registran los datos en la tabla. 3.Teniendo la muestra definida y la tabla de registro completa, se desarrollaron gráficas estadísticas que corresponden a los resultados de las investigaciones realizadas con fibras artificiales y las cuales fueron desarrolladas a partir de las categorías presentes, mencionadas anteriormente, en la tabla de registro, de tal modo que se pueda determinar si es factible realizar nuevas investigaciones sobre adicionar fibras de PET a mezclas de concreto hidráulico. De acuerdo con la muestra de datos y las gráficas elaboradas, se llegó a los siguientes resultados: El 57.14% de las investigaciones en fibras artificiales fueron desarrolladas en el año 2015 El 80.7% de las investigaciones fueron realizadas con fibras de acero El 28.5% de las investigaciones se realizaron con fibras de vidrio El 100% de las investigaciones realizaron el ensayo de compresión El 85.7% de las investigaciones realizaron el ensayo a flexión. El 28.5% de las investigaciones realizo los ensayos de compresión, tensión y flexión El 71.4% de las investigaciones utilizaron especímenes cilíndricos de 15cm x 30cm. El 28.5% de las investigaciones utilizaron especímenes prismáticos de 15 x15 x 45 (cm) La resistencia a compresión baja cuando mayor es la adición de fibra incluida La resistencia a flexión y tensión aumenta cuando mayores la adición de fibra. La resistencia a compresión aumenta aun cuando la adición de fibras es mayor porque se utilizan aditivos plastificantes en la mezcla. Se observó que la fibra de vidrio funciona de manera distinta que las fibras de acero  Sin embargo, cuando la adición de fibras es mayor la resistencia a compresión y flexión bajan en porcentaje


CONCLUSIONES

De acuerdo a los resultados obtenidos por estudio comparativo del desempeño mecánico del concreto reforzado con fibras artificiales, se establece que la incorporación de PET dentro del concreto hidráulico será factible, siendo que las investigaciones consultadas ayudan a comprender que tendrá el mismo comportamiento que las fibras artificiales adicionadas en el concreto, es decir, dará una mejor resistencia a la flexión conforme sea el porcentaje de adición de fibras, pero esto llevará igual a que el concreto tenga una resistencia baja a la compresión; sin embargo solo será posible comprobar dicha hipótesis, una vez realizados los ensayos mecánicos de laboratorio correspondientes. Ante lo observado en cada uno de los trabajos consultados y plasmados en la tabla de registro, se recomienda implementación de algún aditivo plastificante, como lo hicieron con algunas fibras de acero, a la hora de desarrollar las mezclas reforzadas con material de PET. Por otra parte, cabe mencionar que durante la investigación se observó que las fibras artificiales no han sido en su totalidad estudiadas en el desempeño mecánico del concreto, siendo en la mayoría de los casos analizadas únicamente las fibras artificiales inorgánicas, mientras que las fibras artificiales orgánicas como el acetato, Alginato, Cupro, Elastodiene, Lyocell, Modal, Triacetato y Viscosa son fibras que se desconoce su comportamiento dentro del concreto, puesto que existen poco o nulas investigaciones al respecto.
Lugo Acedo Luz Marey, Universidad Autónoma de Baja California
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

EXTRACCIÓN Y CLASIFICACIÓN DE DATOS PARA INTERFACES CEREBRO COMPUTADORA (BCI) MEDIANTE SEÑALES P300 Y EEG.


EXTRACCIÓN Y CLASIFICACIÓN DE DATOS PARA INTERFACES CEREBRO COMPUTADORA (BCI) MEDIANTE SEÑALES P300 Y EEG.

Díaz Avila Adriana, Instituto Politécnico Nacional. Lugo Acedo Luz Marey, Universidad Autónoma de Baja California. Xicale Deaquino Rodrigo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Existen distintos potenciales relacionados con eventos, que son respuestas electrofisiológicas estereotipadas a un estímulo internas o externas. En el artículo Comparison of Classification Methods for P300 Brain-Computer Interface on Disabled Subjects (2011) se habla de una onda en específico denominada P300, la cual consiste en un componente de señal positiva mejorada con una latencia de unos 300 ms después del inicio del estímulo que permite una comunicación. Estos eventos P300 vinculan la posibilidad de controlar una interfaz cerebro-computadora, que proporciona canales musculares de comunicación, particularmente para individuos con severos problemas neuromusculares (Krusienski et al., 2010; Manyakov et al., 2011). El objetivo principal de estas interfaces es de crear dispositivos que mejoren la calidad de vida de pacientes con deficiencias neurológicas (Krucoff et al., 2016). Estudios han demostrado que un BCI basado en eventos P300,que se entrena con una cantidad limitada de datos, puede funcionar como un dispositivo efectivo de comunicación, gracias a la posibilidad de controlar un BCI con un electro encefalograma. Para entrenar un algoritmo, hay que alimentarlo con datos registrados con un EEG al ser expuesto el sujeto a estímulos externos para registrar la onda P300 extrayendo y clasificándolos para que eventualmente la máquina lo realice autonomamente, con el objetivo de ayudar en la rehabilitación o la asistencia de una persona con lesiones neurológicas (Krusienski et al., 2010; Manyakov et al., 2011; Krucoff et al., 2016). De esta manera, nos enfocamos en encontrar los métodos de extracción y clasificación de los datos registrados en un EEG que sean más efectivos y precisos con el fin de crear BCI con mejor funcionamiento.



METODOLOGÍA

La EEG es detectada mientras a un paciente se le muestran dos tipos de eventos visuales con uno ocurriendo con menor frecuencia que el otro. Estos dos tipos de estímulos son: flecha y carita feliz. La onda P300 aparece cuando el sujeto hace el conteo del estímulo solicitado. Después estos datos serán los que alimenten al BCI; la primera fase es ingresar el EEG al BCI siendo esto una matriz de datos. Después se definirá su condición a la cual pertenece (Target o non-Target). Estudio 1. Se proporcionó un archivo de datos de una sesión de un paciente con el tipo de estímulo happy face. El modelo de entrenamiento de Machine learning se divide en una secuencia de pasos: Preprocesamiento. Se modifican los datos para ser utilizables para el resto del programa. Se le realiza un filtrado pasa-banda de 4-44 hz, se recorta el tiempo que dura cada training de 0-0.8s, se realizan los vectores que separan los impulsos target de los no target, y se hace una selección aleatoria del 80% de los datos para el entrenamiento del algoritmo, y el resto se usará para la prueba. Esta prueba no balancea los datos target y no target, para pruebas posteriores sí se balancearon. Extracción de características. Para laextracción de los datos se probaron 3 maneras distintas: promediación, decimación (factores 3 y 10) y correlación canónica. Modelos de clasificación. En este corresponde entrenar el algoritmo con los datos generados por el EEG, haciendo la clasificación de los mismos con los siguientes modelos: LDA 1, LDA 2, SWLDA, SVML, SVMG, SVMR y KNN.  Se repite 100 veces el algoritmo desde la selección del conjunto de entrenamiento de prueba, con un método de extracción de características y otro de clasificación seleccionado con el conjunto de prueba y se arrojan métricas de precisión de porcentajes mínimos, máximos, media de porcentajes y la desviación estándar de: exactitud, verdadero positivo, verdadero negativo  y falso positivo para medir el rendimiento de la combinación del modelo de extracción y el modelo de clasificación. Estudio 2. Se escogieron la mejor combinación de métodos de extracción de características y modelo de clasificación del estudio 1. Combinaciones a implementar: SVML con DEC3 y LDA2 con DEC10 usando los datos de la primera sesión del participante 8 la cual contiene los entrenamientos 4,5,6,7,8 y 9. Se graficó el comportamiento de cada entrenamiento con su respectiva combinación de método de extracción y modelo para determinar cuál entrenamiento clasifica mejor el target y el no target.


CONCLUSIONES

Para el Estudio 1, la mejor combinación fue SVML-DEC3 3 ya que para un sistema sin balanceo, se ajusta a una aproximación más pronta en la clasificación, sin embargo, para fines de procesamiento rápido no se recomienda aunque no descartamos la utilización de la combinación LDA2-DEC10 ya que de igual manera para las métricas referentes a TPR y TNR fueron altas con respecto a la clasificación y en comparación a la rapidez del procesamiento es eficaz para sistemas críticos. De acuerdo a los resultados del Estudio 1 el sistema 2 fue entrenado con las combinaciones: SVML-DEC3 y LDA2-DEC10, obteniendo lo siguiente: Al entrenar el sistema con LDA2- DEC10 en balanceo, el entrenamiento 2 favoreció con mayor eficacia la clasificación de target y no-target, teniendo las siguientes métricas: ACC: 78.5 % TPR:72% TNR:72% FPR: 28%. Lo cual significa que el sistema con el entrenamiento 2, clasificó de una manera equilibrada las dos clases de nuestro interés. De igual manera para el sistema sin balanceo usando la misma combinación favorece el entrenamiento 2 de la sesión 1 del participante 8, teniendo en cuenta un total de 6 entrenamientos en la sesión. Se observa una caída paulatina del 4% en la tasa de TPR por cada sesión que se realiza a partir del entrenamiento 2 y un incremento del 1.5%  en la métrica TNR. Entrenando el sistema con el método de extracción de características DEC3 en combinación con SVML, se obtuvo como resultado el entrenamiento 2 capaz de dar mejor clasificación entre target y no target, teniendo como diferencia principal con respecto a los demás entrenamientos una tasa alta de TPR y TNR con un porcentaje de 71% con diferencias mínimas en las dos métricas.
Luna Cástulo Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mg. Lewin Andrés López López, Universidad del Valle

DESARROLLO DE EQUIPO INDUSTRIAL A ESCALA CON IMPRESIóN 3D.


DESARROLLO DE EQUIPO INDUSTRIAL A ESCALA CON IMPRESIóN 3D.

Luna Cástulo Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Patiño Pérez María Teresa, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mg. Lewin Andrés López López, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

El déficit de ingreso a carreras de tecnologías o ingenierías trae consecuencias negativas comunes a países latinos como Colombia y México, teniendo presente que estamos en la era de la robótica, la inteligencia artificial, la biotecnología y los vehículos autónomos. Una situación particular en la Universidad del Valle sede Yumbo indica que hay solamente un 65% de inscripciones a las carreras tecnológicas ofrecidas, y debido a la pandemia por el COVID-19, la ONU estima que en México se reducirá un 15,55% de la población escolar en el 2021. A futuro, se tendrá posiblemente una deficiencia de graduados en profesiones como los ingenieros, matemáticos, químicos, físico-matemático, entre otros; por lo cual se tendrá una dependencia de los avances y personal humano tecnológicamente preparado en otras partes del mundo, además de retrasarse en los desarrollos de la Industria 4.0. El impacto social que tiene la reducción de población estudiantil afecta las estadísticas de pobreza y desarrollo sostenible por la falta de educación, por lo cual es necesario crear herramientas que permitan rescatar la motivación por las actividades académicas y estimular los estudios de educación media superior. Una posible solución basada en la industria 4.0 consiste en apropiar tecnología de impresión 3D en los contenidos académicos para la realización de prácticas tanto de forma presencial como virtual. El presente proyecto de investigación está enmarcado dentro de uno de los objetivos del proyecto de investigación aprobado por convocatoria interna de la Universidad del Valle llamado Aplicación de la impresión 3D en la construcción de plataformas modulares para educación STEM en ejecución por parte del asesor y posee un enfoque dirigido al campo de la robótica educativa. Se plantea una plataforma modular de una banda transportadora, basándose en la idea de la reproducibilidad de sistemas a escala mediante la impresión 3D, la cual se pretende que sea de libre acceso y entendible para las personas que no tengan conocimientos técnicos o específicos de una ingeniería.



METODOLOGÍA

Etapa 1 Revisión. Se elabora una revisión de la estructura en general de la plataforma modular, así como el dimensionamiento de sus elementos físicos y los requerimientos para la operación de dicha plataforma. Se identifica la conformación de cada pieza por separado, su estructura, puntos críticos en donde pueden producirse fracturas, posteriormente se plantean posibles mejoras como rediseños de las piezas que favorezcan su integridad individual. Cabe resaltar que esto se realiza mediante visualización en software CAD (SolidWorks). Etapa 2 Validación. Se realiza la validación de las piezas mecánicas e identificación de mejoras operativas mediante simulaciones en software CAD (SolidWorks). Para tener una previsualización de su funcionamiento, se ensambla todo el módulo tal como debería construirse físicamente y así identificar puntos críticos de toda la Banda Transportadora. Muy importante resaltar que en este punto se puede interactuar virtualmente con el módulo, previo a la impresión 3D. Etapa 3 Impresión y ajustes. Una vez se tienen los diseños validados, se realiza la Impresión con los ajustes necesarios en los parámetros de la impresora y las pruebas necesarias para obtener una mejor calidad. En este punto se requieren numerosas pruebas con diferentes parámetros de impresión (temperatura de extrusor, temperatura de cama, velocidad de impresión, soportes, entre otros), usando diferentes materiales para imprimir (ABS y PLA), de tal manera que mediante estas pruebas se logre configurar óptimamente la máquina para obtener piezas de mejor calidad. Se obtiene una forma de reproducibilidad posible de implementar por personas que tengan conocimientos básicos de impresión 3D, haciendo que la experiencia sea positiva.  Etapa 4. Optimización. Una vez que se tenga la impresión de las piezas con la mejor calidad, se procede con la optimización de las piezas mecánicas, realizando las modificaciones necesarias para poderlas acoplar entre sí, y de la misma manera acoplar el actuador para esta plataforma modular que en este caso es un motor a pasos 28BYJ-48. El motor es controlado mediante el IDE de Arduino, el cual está basado en hardware y software libre, flexible y fácil de utilizar.


CONCLUSIONES

Durante el desarrollo del proyecto se logran adquirir conocimientos acerca de la impresión 3D con la reproducibilidad de la banda transportadora como parte de una plataforma modular, llegando a la conclusión que se necesita un ajuste correcto de los parámetros de impresión en los elementos físicos de la plataforma modular para evitar que se genere una ruptura o juego en las piezas al momento de acoplarlas, que conlleve a la impresión de las piezas a una mejor calidad. Por otra parte, se espera que dicha plataforma modular sea la creación de una herramienta innovadora para motivar y generar competitividad a nivel educativo. Se pretende que sea de libre acceso por medio de comunidades maker o sitios en la web, garantizando una educación de calidad inclusiva y equitativa, y promoviendo las oportunidades de aprendizaje permanente para todos.
Macías González Alexa Yeraldin, Universidad Tecnológica de La Costa
Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas

ANáLISIS COMPARATIVO DE BASES DE DATOS CLOUD (AMAZON, AZURE, ETC.)


ANáLISIS COMPARATIVO DE BASES DE DATOS CLOUD (AMAZON, AZURE, ETC.)

Macías González Alexa Yeraldin, Universidad Tecnológica de La Costa. Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Actualmente, no se necesita un supercomputador ni miles de servidores para guardar o procesar los datos. Sin importar la estructura o si la base de datos es relacional o no, las soluciones en la nube ofrecen la posibilidad de contar con una unidad de almacenamiento. Las bases de datos en la nube tienen varias ventajas. Tal vez la más importante sea el hecho de tener servidores y computadores virtuales disponibles todo el tiempo según la necesidad. Sin embargo, la elección de un proveedor (Amazon, Azure, Oracle, etc.) para la base de datos, pude ser complicada desde el punto de vista del usuario, ya que no están claras las ventajas y limitaciones de cada una de ellas y, por lo tanto, hay cierta incertidumbre a la hora de realizar esta selección. La mayor problemática que se presenta es querer elegir una base de datos Cloud y que no exista información de fuentes más allá que no sean las de las propias plataformas.



METODOLOGÍA

Tras leer la documentación de los proveedores de bases de datos Cloud. Se optó realizar un análisis comparativo de las bases de datos Cloud; Amazon y Firebase. Se creó un DataSet de imágenes amplio y pesado de imágenes de plantas de soya, cana, etc. Para realizar el análisis y obtener los siguientes resultados: Firebase. Se realizó la medición de tiempos de respuesta usando la base de datos implementada para guardar la información capturada por la aplicación, para esto se cargaron datos de prueba a diferentes horas y diferentes días. Se obtiene un tiempo de respuesta de 4,8 milisegundos con una muestra de 1000.   Amazon. Se realizó la medición de tiempos de respuesta usando la base de datos implementada, en este caso para Amazon. Se obtiene un tiempo promedio de respuesta de 4,5 milisegundos con una muestra de 1000 datos cargados en la nube de Amazon.  


CONCLUSIONES

Teniendo en cuenta los datos de prueba obtenidos en la implementación se evidencia que ambas plataformas tienen una respuesta muy rápida y en conjunto promedian un tiempo de respuesta de 4.65 milisegundos. Con base a las experimentaciones realizadas, se obtuvo que Amazon es un proveedor de servicios de base de datos con un rendimiento un poco mayor en estos momentos con casi medio milisegundo de diferencia en tiempo de respuesta frente a Firebase, aunque esto no implique una medida que desvalorice la oferta de Firebase, ambas plataformas tienen un soporte adecuado y bastante óptimo para la demanda que se necesita en cuanto al manejo de datos y a la velocidad de procesamiento de información.
Macias Huerta Pablo Isaac, Instituto Politécnico Nacional
Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias

CHATBOT EN REALIDAD VIRTUAL PARA EDUCACIóN EN SISTEMAS DE POTENCIA


CHATBOT EN REALIDAD VIRTUAL PARA EDUCACIóN EN SISTEMAS DE POTENCIA

Macias Huerta Pablo Isaac, Instituto Politécnico Nacional. Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias



PLANTEAMIENTO DEL PROBLEMA

Descripción del Problema El Grupo de Realidad Virtual del INEEL lleva -desde su concepción- desarrollando múltiples proyectos. Estos sistemas se han basado en animaciones predefinidas y el uso del mouse, pero si se pudiese generar un sistema que utilice comandos de voz para funcionar sería de gran utilidad. Solución Propuesta Desarrollar un Chatbot que permita interactuar con un catálogo 3D, que permita interactuar con diversos modelos 3D de distintos equipos eléctricos, así como la explicación de qué son y los principios en los cuales se basa su funcionamiento interno. 



METODOLOGÍA

Durante la duración del programa, se utilizó Unity como base para la creación del Chatbot, ya que requería basarse en dicha plataforma para la manipulación del Catálogo 3D. Para el cambio de Voz a Texto de los comandos del usuario, se utilizó Google Speech. Para el análizis, filtrado e interpretación del texto se utilizó Stanford CoreNLP (Port a .NET), y para las respuestas auditivas del chatbot se utilizaron los servicios de Microsoft Azure.


CONCLUSIONES

Se creó una plataforma educativa con acceso a: Un Catálogo Interactivo mediante un Chatbot con capacidades de Análisis del Lenguaje operable con voz con 4 modelos, Una recreación estilizada de una subestación eléctrica real, Una recreación low-poly de una Micro-Red, y una versión detallada y navegable de la misma.
Macias Ramirez Jairo Yael, Universidad de Guadalajara
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.


ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.

Cadavid Restrepo Juan Camilo, Institución Universitaria de Envigado. Garzón Restrepo Alvaro Andrés, Institución Universitaria de Envigado. Gómez Narváez Yeison, Institución Universitaria de Envigado. Macias Ramirez Jairo Yael, Universidad de Guadalajara. Monsalve Guzman Jacobo, Institución Universitaria de Envigado. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

Con el avance de las nuevas tecnologías como las proporcionadas por la Industria 4.0 y la gran cantidad de datos, que posibilitan el manejo de la información mediante el uso de la Big Data, ha permitido a investigadores abordar el gran campo de la inteligencia artificial haciendo uso de todo este material libre para la investigación. Uno de los mayores contribuyentes de esta información es el área de la medicina que a partir de diferentes tipos de registros han consolidado grandes bases de datos de diversos temas de interés como, por ejemplo, diagnósticos sobre enfermedades cardíacas, como se menciona en (Ciechowski, 2013) Las muertes a causa de enfermedades cardíacas en países desarrollados se está volviendo cada vez más común, muy posiblemente se deba al estilo de vida sedentario que viven muchas personas, que además no se puede obtener un diagnóstico temprano para tratar la enfermedad debidamente. Por este motivo muchos investigadores en conjunto con profesionales médicos se han encargado de aprovechar las técnicas de IA utilizando y creando algoritmos para procesar los diferentes tipos de datos provenientes de las evaluaciones de pacientes que están disponibles para su uso.



METODOLOGÍA

Con el fin de abordar el diagnóstico de enfermedades mediante el trabajo realizado por el campo de la Inteligencia artificial, este trabajo se fundamentó desde un metodología que permitiera conocer el estado actual de las investigaciones relacionadas con a los términos expuestos anteriormente (IA, diagnostico, modelos, métodos, algoritmos) que han sido utilizados recientemente para el tratamiento de dicha enfermedad, por eso este trabajo considero en desarrollar un Estado del arte, que recopila los artículos más recientes que permitan dar a conocer a toda la comunidad científica la manera en la que están trabajando estos dos grandes campos , la medicina y la inteligencia artificial, basándose en el planteamiento de Vélez y Calvo sobre Estado del Arte Maestría en Educación, en el que sugieren cuatro pasos a seguir para la realización del estado del arte: a. Contextualización b. clasificación c. Categorización d. Análisis El desarrollo de estos pasos se llevaron a cabo a groso modo de la siguiente manera : La ejecución del primer paso consistió en una contextualización la cual hace alusión a una exploración previa sobre la documentación bibliográfica, en este caso empleado mediante las diferentes bases de datos electrónicas, (Scopus, Science Direct, Google Scholar, DOAJ, entre otras) ofrecidas por las universidad a, así como también en algunas páginas web ,indagando sobre: Un estado del arte, señales biomédicas provenientes de corazón, la evolución de las tecnologías informáticas con fines de automatización en procesamientos de datos, la inteligencia artificial como herramienta para el diagnóstico clínico, y enfermedades cardiacas, planteando además el problema de estudio, como también definiendo el alcance del trabajo con el fin de dar claridad sobre el curso de la investigación. El paso siguiente consiste en una clasificación sobre toda la información recolectada, según el tiempo de publicación que permita dar un orden cronológico, los objetivos de dichas investigaciones y además el nivel de aporte a la investigación en curso. Luego en la siguiente etapa de categorización, como lo afirma (García, 2014) implica una recuperabilidad importante de la información, lo cual facilitará el estudio del fenómeno a investigar, y como plantea (Molina Montoya, 2005) desde la documentación bajo el enfoque de las temáticas, metodologías, hallazgos, teorías, estudios prospectivos o retrospectivos, y a través de la conexión entre temáticas investigativasencontrando esas singularidades y aspectos comunes que han trabajo empleado en previos investigaciones. Finalmente, el último paso del análisis trata de exponer tendencias y perspectivas mediante una valoración de las implementaciones que se esperan a futuro según las perspectivas de la documentación consultada. Como lo indica Molina citado en (García, 2014), El estudio previo y sistemático de las investigaciones precedentes, además de contribuir al mejoramiento de la teoría y la práctica de un tema particular, permite llegar a conclusiones y respuestas nuevas que se proyecten a futuro. de tal manera que los resultados de esta investigación se puedan aplicar en futuras investigaciones o proyectos, generando un valor agregado a partir de los resultados obtenidos.


CONCLUSIONES

Las técnicas utilizadas en los más recientes artículos consultados han implementado algoritmos de machine learning y Deep learning, dejando atrás los métodos estadístico que eran utilizados anteriormente, que han permitido el procesamiento y el aprendizaje de una gran cantidad de información, aprendiendo patrones y categorizando por ejemplo el tipo de enfermedad, el grado o la etapa en la que esta se encuentra , así como también han podido diagnosticar de forma preventiva el padecimiento de una enfermedad cardiaca, disminuyendo los errores de diagnóstico humano que se podrían encontrar en la práctica real. Sin embargo en estos mismos estudios los autores expresan que aunque es indudable el gran trabajo que se ha logrado, debe pasar algún tiempo que permita revisar la precisión de estos métodos mediante el resultado del paciente en cuanto a su salud o una verificación externa con dato clínicos reales, Igualmente al considerar un factor como el constante aprendizaje que requieren dichos programas para mantenerse al tanto de los nuevos diagnósticos y los nuevos resultados o conocimiento sobre la enfermedad en cuestión. Se espera que en un futuro no muy lejano estos programas ayuden al personal médico a mejorar la precisión y dar conocer al paciente su situación médica de manera oportuna mediante el apoyo inteligente de percepción de una máquina, logrando un tipo de consultor experto sofisticado.  
Macias Reyes Dennis Azael, Instituto Tecnológico Superior de Apatzingán
Asesor: Dra. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia

COMPARATIVO DE ESTRATEGIAS PARA USO DE MEJORAS PRáCTICAS DE GESTIóN DE PROYECTOS TI


COMPARATIVO DE ESTRATEGIAS PARA USO DE MEJORAS PRáCTICAS DE GESTIóN DE PROYECTOS TI

Macias Reyes Dennis Azael, Instituto Tecnológico Superior de Apatzingán. Tafolla Aguirre Isamar Dolores, Instituto Tecnológico Superior de Apatzingán. Asesor: Dra. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, las empresas buscan nuevas alternativas para desarrollar diversos productos y así obtener la ejecución de proyectos exitosos a partir del entendimiento y la adaptación a nuevos requerimientos solicitados por el cliente antes, durante y después de la ejecución del proyecto, por lo anterior, en la consecución del producto final, si la gerencia del proyecto  no se adapta a los cambios del entorno en la solución para la satisfacción y mejoramiento de las expectativas del cliente, está llamada a quedarse en la obsolescencia, incluso antes de concluir el proyecto para la entrega de los productos o servicios contratados. El contexto de competencia en el que se desenvuelven las empresas, cada vez más apuesta por métodos de trabajo diferentes que permitan al equipo trabajar en un entorno cómodo y eficaz, obteniendo como consecuencia el poder brindar un servicio de calidad al cliente, por estas razones el gerente de proyectos está llamado a evaluar la implementación de alternativas a partir de metodologías de gestión tradicionales y agiles para  lograr obtener resultados productivos a corto, mediano y largo plazo que ayuden en la mejora de resultados, satisfacción del cliente y como consecuencia el crecimiento de la productividad de la organización.



METODOLOGÍA

Dentro del desarrollo de un proyecto y a la altiva necesidad de que este llegue al éxito y obtención del producto con valor agregado para nuestros clientes, se deben evaluar las diferencias en las metodologías adoptadas por los equipos para cumplir sus objetivos, puesto que, unas se adaptan mejor que otras, al contexto del proyecto brindando mejores ventajas. Es por eso de la importancia de una metodología tradicional o ágil que, ajustada en un equipo, cumpla con sus metas, y satisfaga más allá de las necesidades definidas en el inicio del proyecto. El éxito del producto depende en gran parte de la metodología escogida por el equipo, ya sea tradicional o ágil, los equipos siempre buscaran maximizar su potencial y aumentar la calidad del producto con los recursos y tiempos establecidos. Por lo anterior, para este trabajo, se utilizó una metodología de tipo descriptiva, analítica, transversal, partiendo de la búsqueda de información en bases de datos especializadas a partir de ecuaciones que integran palabras claves articuladas a las mejores prácticas de gestión de proyectos. Seguidamente se realizó un análisis de la información para generar una matriz de comparación, identificando variables comunes de las estrategias y mejores prácticas utilizadas tanto en las metodologías tradicionales como en las ágiles, con el propósito de establecer ventajas, desventajas, riesgos, oportunidades, aplicaciones y usos. La metodología tradicional, permitió obtener el análisis de 4 metodologías mas exitosas como son PMBok, Price2, IPMA, APM Bok, las cuales comparten macro procesos relacionados con la iniciación, planeación, ejecución, seguimiento, control y cierre, así como procesos o áreas de conocimiento asociadas a definición de alcance, programación de actividades, evaluación de costos, respuesta a riesgos, gestión de comunicaciones y adquisiciones o compras, entre otras. Sus características principales se asocian con una definición clara desde el comienzo, creación de un plan detallado, predictivos, contratos estrictos, priorización de problemas y optimización de recursos. De otro lado, se consideraron 9 metodologías ágiles como Scrum, XP, Lean Start-Up, DevOps, Kanbas, Design Sprint, Agile Inception, Ágil Unified Process e Iconix encontrando variables comunes relacionadas con flexibilidad, inmediatez, organización y resultados que procuran por el mejoramiento en la entrega del producto o servicio de acuerdo con los requerimientos y expectativas de satisfacción del cliente.


CONCLUSIONES

Dentro de las similitudes, diferencias, ventajas y desventajas encontradas en las metodologías evaluadas, se pueden considerar los siguientes elementos: El uso de metodologías tradicionales es esencial al inicio en un equipo de desarrollo de proyectos TI y obligan al cliente a tomar las decisiones al inicio del proyecto. Las metodologías de desarrollo ágil buscan entregar productos y servicios desarrollados a la medida y en el tiempo o plazo establecido sin importar que los requerimientos cambien en cualquier etapa del proyecto ya que utiliza el principio de la agilidad que es la respuesta efectiva al cambio. En el uso de metodologías ágiles se incorpora el cómo gestionar la incertidumbre mientras que las tradicionales aportan la facilidad de predecir los costes y necesidades del proyecto. En las metodologías tradicionales cliente sabe exactamente cómo será su producto final, además se conoce el tamaño, costo y fechas del proyecto. Las pruebas se retrasan hasta el final y si aparece un error de requisito o si se necesita hacer un cambio, el proyecto debe comenzar de nuevo. En las metodologías ágiles existen cambios sobre la marcha y se realizan pruebas tras añadir nuevas funcionalidades en el proyecto. Las metodologías tradicionales son orientadas a procesos y se concibe como un proyecto mientras que las metodologías ágiles  son orientadas a personas y subdivididos en varios proyectos pequeños. En el desarrollo ágil el cliente interactúa con el equipo de desarrollo mediante reuniones, en cambio en el desarrollo tradicional el cliente es parte del desarrollo del proyecto. De acuerdo a lo escrito anteriormente, no se puede afirmar categóricamente que una metodología sea mejor que otra, ya que los resultados del éxito o fracaso del proyecto dependerán de si se ha elegido una metodología adecuada para su desarrollo, si se han empleado correctamente las herramientas de gestión, si se ha realizado una buena gestión por parte del líder de proyectos y si el equipo de trabajo ha estado motivado y concentrado en el trabajo. En la búsqueda de mejorar la gestión de proyectos de TI, se propone que para un trabajo futuro se siga explorando en las características, actualizaciones y tipos de proyectos que requieren el uso de metodologías para ser exitosos en el logro de los resultados.
Magaña Medina Jesus Omar, Universidad Autónoma de Sinaloa
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

MODELO DE INTELIGENCIA ARTIFICIAL PARA LA DETECCIóN DE ENFERMEDADES CARDIOVASCULARES.


MODELO DE INTELIGENCIA ARTIFICIAL PARA LA DETECCIóN DE ENFERMEDADES CARDIOVASCULARES.

Hernandez Carmona Josue Jyaru, Instituto Politécnico Nacional. Lecona Valdespino Carlos Natanael, Instituto Politécnico Nacional. Magaña Medina Jesus Omar, Universidad Autónoma de Sinaloa. Sáenz Salazar César David, Instituto Tecnológico de Chihuahua II. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Actualmente existen muchos métodos y herramientas para la detección de enfermedades cardiovasculares. Los doctores y personal médico de los hospitales utilizan diversos instrumentos para poder hacer la detección de enfermedades, además de contar con preparación dentro del área en que se desenvuelven para concluir con un diagnostico basado en síntomas previos del paciente. El objetivo del modelo desarrollado es agilizar la manera en la que se pueden detectar enfermedades cardiovasculares, de tal forma que, al introducir ciertos valores por computadora se obtiene como resultado un diagnostico fiable el cual determina si el paciente diagnosticado cuenta con presencia de alguna enfermedad o no. De esta manera el personal medico puede auxiliarse y obtener resultados mas rápidos de los pacientes diagnosticados.



METODOLOGÍA

Los métodos adecuados a aplicar en el trabajo de investigación de este proyecto son el deductivo, cuantitativo, cualitativo y comparativo. Se utilizaron con el objetivo de analizar diferentes algoritmos de inteligencia artificial, sin embargo, previo al análisis se preprocesaron los datos con ayuda del lenguaje de programación Python. Los algoritmos utilizados fueron Regresión Múltiple Lineal, Redes Neuronales, Random Forest, Vecinos Cercanos y Maquinas de Vectores de Soporte (algunos de ellos basados en probabilidad y estadística). De esta manera se compararon los resultados obtenidos con dichos algoritmos y se pudo determinar el mejor de ellos para el caso utilizado. Los datos utilizados previamente al preprocesamiento fueron proporcionados por un repositorio de machine learning, donde el crédito de los datos utilizados de Cleveland se le atribuyen a V.A. Medical Center, Long Beach and Cleveland Clinic Foundation: Robert Detrano, M.D., Ph.D.


CONCLUSIONES

Los resultados en porcentaje de exactitud obtenidos de la aplicación de cada algoritmo en los datos preprocesados fueron los siguientes: Regresión Múltiple Lineal: 57% Redes Neuronales: 89% Random Forest: 74% Vecinos Cercanos: 95% Máquinas de Vectores de Soporte: 41%
Maldonado Fajardo Misael, Instituto Tecnológico de Matamoros
Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo

ANÁLISIS ESTÁTICO NO LINEAL (PUSHOVER) EN ESTRUCTURAS DE CONCRETO ARMADO BAJO DEMANDA SÍSMICA


ANÁLISIS ESTÁTICO NO LINEAL (PUSHOVER) EN ESTRUCTURAS DE CONCRETO ARMADO BAJO DEMANDA SÍSMICA

Maldonado Fajardo Misael, Instituto Tecnológico de Matamoros. Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los reglamentos de construcción especifican criterios para realizar el diseño estructural de una edificación ante los distintos tipos de cargas a los que puede verse sometida. Los métodos que ofrecen los reglamentos de construcciones suelen basarse en la hipótesis de que los materiales que componen los elementos estructurales tienen un comportamiento lineal. No obstante lo anterior, ante fuerzas accidentales como lo son los sismos, se permite hacer reducciones en las fuerzas de diseño lo que origina frecuentemente que los edificios incursionen en intervalo de comportamiento no lineal ante acciones sísmicas de gran intensidad. Es debido a esto que se recurre a los análisis no lineales, en los cuales se considera que los materiales llegan a un punto de cedencia, lo cual cambia su comportamiento dependiendo del tipo de material. El Pushover es un análisis que considera la no linealidad de los materiales por medio de articulaciones plásticas formadas en los elementos. Este método nos ofrece una estimación más cercana a la realidad del comportamiento de las construcciones ante la acción de cargas laterales importantes. Para comprobar esto, durante el verano de investigación se hace una comparación entre los resultados de desplazamiento obtenidos por un método lineal (reglamentario) y el método Pushover.



METODOLOGÍA

Para trabajar este análisis se utilizaron tres modelos de edificios diseñados con el Reglamento de Construcciones para el Distrito Federal de 1976, con la ayuda del programa de diseño y análisis Sap2000. Todos los modelos se diseñaron con las mismas dimensiones generales, siendo estas de tres niveles, con una altura de entrepiso de tres metros cada una. En planta, los edificios tienen con cinco crujías de seis metros en una dirección y tres crujías de seis metros en la otra. Para caracterizar las acciones sísmicas, se supuso uso habitacional (Grupo B) y se plantearon tres ubicaciones en los tres tipos de terreno del Distrito Federal: Zona I - Terreno firme Zona II - Terreno de transición Zona III - Terreno compresible Con base en estas consideraciones se construyeron los espectros de diseño para cada uno de estos casos y de esta manera llevar acabo el diseño de los tres modelos utilizando un factor por ductilidad Q=4 en todos los casos. Los modelos variaron en la sección de sus elementos estructurales dependiendo de la zona y se verificó que también cumplieran con el estado límite de servicio en cuanto a deformaciones; es decir, que el desplazamiento relativo de los entrepisos fuera inferior a 0.012. Los materiales seleccionados fueron concreto f’c=250 kg/cm2 y acero de refuerzo fy=4200 kg/cm2, con lo cual se obtuvieron las siguientes secciones:    -Edificio 1 Columna 30 cm x 35 cm;  Acero 6 Vrs #5;  Estribos #3 @ 15cm Viga 35 cm x 20 cm; Acero 4 Vrs # 6;  Estribos #3 @ 15cm    -Edificio 2 Columna 30 cm x 35 cm;  Acero 8 Vrs #6;  Estribos #3 @ 15cm Viga 35 cm x 20 cm; Acero 4 Vrs # 6;  Estribos #3 @ 15cm    -Edificio 2 Columna 35 cm x 35 cm;  Acero 8 Vrs #5;  Estribos #3 @ 15cm Viga 35 cm x 20 cm; Acero 4 Vrs # 6;  Estribos #3 @ 15cm   Una vez definidas las secciones para los modelos se procedió a definir las articulaciones plásticas en las vigas y columnas, La descripción de las articulaciones se da a través de diagramas momento-rotación y estas varían dependiendo de la sección transversal, armado del elemento y de la carga axial que actúe sobre el mismo. Los datos para definir las rotulas plásticas se pueden obtener desde el mismo programa Sap2000, el cual permite obtener diagramas momento-rotación. Después de asignar las rotulas plásticas a los elementos, se aplican las cargas controladas por desplazamientos, llevando la estructura a su límite de resistencia para obtener la curva Pushover que muestra la relación cortante basal-desplazamiento de azotea. Esta curva se debe convertir de fuerza-desplazamiento a una de espectro de capacidad (correspondiente a un sistema de un grado de libertad), con la cual podemos encontrar la intersección con el espectro de diseño usado al inicio y encontrar el punto de desempeño, que determina las demandas de desplazamiento y fuerza en la estructura. La tabla siguiente muestra los resultados obtenidos.    -EDIFICIO 1 a) Método lineal Eje X;  V Basal = 165.8272 ton;  Δ = 4.51 cm Eje Y;  V Basal = 172.198 ton;  Δ = 3.94 cm b) Pushover Eje X;  V Basal = 147.622 ton;  Δ = 4.20 cm Eje Y;  V Basal = 153.694 ton;  Δ = 3.60 cm    -EDIFICIO 2 a) Método lineal Eje X;  V Basal = 225.7388 ton;  Δ = 6.15 cm Eje Y;  V Basal = 223.736 ton;  Δ = 5.13 cm b) Pushover Eje X;  V Basal = 202.717 ton;  Δ = 5.71 cm Eje Y;  V Basal = 201.146 ton;  Δ = 4.75 cm    -EDIFICIO 3 a) Método lineal Eje X;  V Basal = 269.8632 ton;  Δ = 5.53 cm Eje Y;  V Basal = 269.2928 ton;  Δ = 5.63 cm b) Pushover Eje X;  V Basal = 202.717 ton;  Δ = 4.95 cm Eje Y;  V Basal = 218.595 ton;  Δ = 5.03 cm


CONCLUSIONES

Durante la estancia de verano de investigación se logró adquirir el conocimiento para realizar un análisis estático no lineal y aplicarlo en distintos modelos para observar la diferencia del comportamiento al que se obtiene con un método lineal ante cargas laterales importantes. La diferencia de resultados obtenida no es muy grande pero es apreciable, y teniendo en cuenta que el Pushover es el desplazamiento más cercano al que se obtendría en la realidad, es un estudio que puede utilizarse en casos en que la edificación sea de gran importancia, ya sea para tener una mayor seguridad contra colapso o un mejor control de daños resultado en menos perdidas económicas.
Maldonado García Israel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: M.C. Félix Jiménez Pérez, Universidad Michoacana de San Nicolás de Hidalgo

AUTOMATIZACIóN Y SISTEMAS AVANZADOS DE CONTROL


AUTOMATIZACIóN Y SISTEMAS AVANZADOS DE CONTROL

Maldonado García Israel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: M.C. Félix Jiménez Pérez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Hoy en día estamos enfrentando, y entrando, en una nueva revolución industrial también denominada como industria 4.0. Hay que recordar que la primera revolución industrial sucedió a finales del siglo XVIII e inicios del siglo XIX todo gracias al poder del vapor, gracias a estas máquinas se dio inicio a la producción en masa; la segunda fue a inicios del siglo XX con la introducción del acero y la electricidad; la tercera dio inicio a finales de la década de 1950 con la introducción de la tecnología electrónica y finalmente las computadoras.  La industria 4.0 hace énfasis en la tecnología digital de las décadas recientes y lo lleva a un nivel totalmente nuevo con la ayuda de la interconectividad a través de la Internet de las Cosas consiguiendo un nivel demasiado alto de automatización en los procesos.  En México, a pesar de que la gran mayoría de las empresas cuentan con una automatización de sus procesos, son pocas las empresas que han optado por entrar a la industria 4.0 debido a que la mano de obra es muy barata y prefieren seguir explotando el recurso humano.  Los obreros temen ser desplazados por la máquina, cuando el objetivo sería que se trabaje en conjunto, mientras que los empresarios se preocupan por la inversión que esto representaría. Si se busca que nuestro país sea competitivo habrá que impulsar el desarrollo de nuevas infraestructuras.



METODOLOGÍA

Mediante el uso de un microcontrolador, se utilizó una placa ESP32 que además de ser de bajo costo y de bajo consumo de energía cuenta con tecnología Wi-Fi y Bluetooth de modo dual integrada; y la plataforma Arduino IDE, que es un entorno de programación con el que cualquiera puede crear aplicaciones para las placas Arduino, se desarrolló un control de temperatura PI.  Este émula el control de temperatura ya sea de un acondicionamiento de una habitación, un horno, un refrigerador o de agua. Nos enfocamos en el control de temperatura de una habitación que fue simulada con una caja de madera, la cual se calentará mediante un foco y se enfriará mediante un ventilador.  Para el control que se aplicaría, en este caso del tipo PI, iniciamos aplicando un control del tipo On-Off y luego un control proporcional o P, el cual tiene el defecto de jamás poder llegar al valor deseado de control, a este se le agrega la respuesta integral haciendo un control del tipo PI con el propósito de obtener una respuesta estable del sistema sin error estacionario. La ESP32 fue programada en un inicio para leer la temperatura y humedad mediante un sensor DHT11, el cual es un sensor relativamente "lento" al hacer sus lecturas. Como para nuestro propósito la humedad no era necesaria la placa fue programada para que sólo mostrará la lectura de la temperatura en la pantalla con un periodo entre lecturas de 5 segundos, el ventilador y el foco se programaron de forma tal de que si la temperatura registrada estuviera por debajo de la temperatura deseada el foco encendería mientras que el ventilador permanece apagado y una vez excedida esta temperatura el ventilador encendería y el foco se apagaría, repitiendo este proceso hasta que se desconectará el sistema. Para obtener los valores de las constantes de ganancia proporcional e integral mediante el método de Ziegler & Nichols se hicieron unas pruebas, primero se hizo uso del control del tipo On-Off para ver cuánto tiempo tardaría en llegar a la temperatura deseada y que el sistema se estabilizará. Una vez hecho esto se obtuvo la curva de Temperatura-Tiempo con la cual haciendo uso de una herramienta en MatLab se obtuvo la curva del proceso y se consiguió tanto los valores de las constantes Kp y Ki como también su función de transferencia. Ya con estos datos, en el código que se tenía al principio de la ESP32 fue modificado agregando la información conseguida para implementar el control PI, uno creería que lo más deseable sería un control del tipo PID pero debido a que el sistema a controlar es lento no era necesaria la parte derivativa del control PID. Al final la elección recae en el diseñador y se debe optar por aquello que pueda optimizar lo que sea que se esté diseñando. A este código se le añadió una señal de modulación por ancho de pulsos o PWM la cual tiene como función controlar la potencia del foco o el ventilador, esta señal sería en este caso nuestro actuador proporcional. Lo siguiente que se hizo fue usar los núcleos con los que cuenta la ESP32 para establecer las tareas deseadas, un núcleo se encargará de la comunicación vía Wi-Fi mientras el otro núcleo del proceso de control.


CONCLUSIONES

Durante la estancia del verano de investigación se consiguió nuevos conocimientos teóricos y prácticos sobre la programación y control de sistemas, no se pueden mostrar los datos obtenidos ya que aún estamos trabajando en el sistema de comunicación vía Internet y el entorno que tendrá el usuario para poder establecer el valor de temperatura deseado.
Maldonado Santibañez Maria Teresa, Instituto Tecnológico Superior de Huetamo
Asesor: Mg. Yohanna Milena Rueda Mahecha, Corporación Universitaria Minuto de Dios

ANáLISIS DE LAS CONDICIONES DE SEGURIDAD Y SALUD EN EL TRABAJO DE LOS TRABAJADORES EN CUATRO PAíSES DE LATINO AMéRICA (COLOMBIA, MéXICO, ARGENTINA Y CHILE)


ANáLISIS DE LAS CONDICIONES DE SEGURIDAD Y SALUD EN EL TRABAJO DE LOS TRABAJADORES EN CUATRO PAíSES DE LATINO AMéRICA (COLOMBIA, MéXICO, ARGENTINA Y CHILE)

Fombona Andaya Paloma Yunnuen, Instituto Tecnológico Superior de Huetamo. Maldonado Santibañez Maria Teresa, Instituto Tecnológico Superior de Huetamo. Muñoz Olea Evaristo, Instituto Tecnológico Superior de Huetamo. Asesor: Mg. Yohanna Milena Rueda Mahecha, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

La organización internacional de trabajo, rige que todos los trabajadores deben estar garantizados y resguardados contra cualquier accidente o enfermedad que pueda surgir dentro de la empresa al realizar su trabajo correspondiente ya que es una obligación de cada empresa o institución proteger al trabajador ya que cualquier incidente o accidente que surja causa costes económicos e interrupción de la producción o el trabajo que se realiza. (2017). La seguridad en el trabajo es un método que su objetivo es prevenir los riesgos que surgen dentro de la empresa son medidas necesarias para su prevención de los actos ilícitos que se derivan de su trabajo realizado, con ello se puede cumplir con el objetivo minimizando o eliminando los riesgos que producen accidentes. Según la OIT una empresa o institución es una entidad compuesta por grupos de personas donde llevan a cabo actividades dónde su misión es resguardar normas que puedan prevenir los riesgos de trabajo que puedan estar expuestos los trabajadores y destinan la atención de factores de riesgos. Tener una buena salud en los trabajos y fomentando el bienestar de sus trabajadores lograremos mejorar su calidad de vida, incrementando su productividad, eficiencia y motivación. Con el presente trabajo se quiere dar a conocer las condiciones de salud y seguridad de los siguientes países, Colombia, México, Argentina y Chile y poder darnos cuenta lo que afecta a los trabajadores. Este estudio sirve para corregir las medidas de prevención y protección técnica necesarias para la realización de una obra en las condiciones idóneas de seguridad, salud y protección de riesgos laborales.  



METODOLOGÍA

Esta investigación es de tipo documental ya que la información fue recolectada de diferentes fuentes (libros, artículos, archivos pdf, etc.) Se recabaron datos muy importantes de encuestas de seguridad y salud que se hayan aplicado en los países elegidos, se empleó el método deductivo para rescatar los temas más relevantes de las encuestas consideradas. La concentración de información se colocó en un archivo Excel, donde se desarrollaron aspectos como denominación, principal normatividad, la forma de administración del programa o sistema, exigencias frente a los exámenes médicos ocupacionales de ingreso, periódicos y de retiro, elementos relevantes de la programa o sistema en cada país, si aplican un proceso de mejora continua, determinar cómo evalúan el riesgo. Además de generar datos relacionados con la seguridad y salud de los trabajadores partiendo de las encuestas nacionales de percepción de seguridad y salud en el trabajo.


CONCLUSIONES

Los países a nivel mundial o por lo menos a nivel regional deberían unificar criterios para poder hacer comparativos, de la misma forma que se hace con otros aspectos laborales. Además, es importante que todos los países tengan datos de todos los trabajadores porque de acuerdo a la OMS (2017) el seguimiento de estadística se hace por lo general a empresas grandes, dejando por fuera el sector informal, agrícola y migrantes. El SG-SST debe ser liderado e implantado por el jefe, con la participación de todos los empleados, garantizando la aplicación de las medidas de seguridad y salud en el trabajo, el mejoramiento del comportamiento de los empleados, las condiciones y el medio ambiente laboral, y el control eficaz de los peligros y riesgos en el lugar de trabajo. La SG-SST abarca una disciplina que trata de prevenir las lesiones y las enfermedades causadas por las condiciones de trabajo, además de la protección de la salud de los empleados. Para el caso de Chile se pudo determinar que el 72,1% de los accidentes analizados se realizó atención médica y en un 27,9% no se efectuó. En los casos que recibieron esta atención, la mayor parte requirió realizar reposo con licencia médica. Es importante hace notar que un 9% de los hombres y un 9% de las mujeres debió realizar reposo sin licencia. Los que refieren con mayor frecuencia estos problemas de salud son los trabajadores de servicio doméstico, trabajadores del sector público y aquellos con ingresos entre 181.000 pesos y 350.000 pesos, ver gráfico Nº30. Por otro lado, en los hombres, estos casos se presentan en primer lugar en las ocupaciones de operadores de instalaciones (26,2%) y en las mujeres en las agricultoras y pesqueras (12,6%). Y respecto a la salud en este mismo país se pudo evidenciar que Un 29,5% del total de enfermedades que los trabajadores refirieron sufrir ha sido reconocida como enfermedad profesional y un 6,2% se encuentra en trámite para su reconocimiento. En los hombres las enfermedades reconocidas llegan a un 15,5% y en las mujeres alcanzan a un 13,9%. La mayor parte de las patologías reconocidas se encuentra en el grupo de edad de 45 a 64 años (14,5%); cabe hacer notar que existe un 2,3% de casos reconocidos en el grupo de trabajadores jóvenes. En México se pudo observar que no se ha realizado ninguna encuesta nacional y se recomienda que se haga una ya que es importante conocer la percepción de los trabajadores. Y ver que se puede mejorar en los trabajos para que el trabajador no sufra de mala salud y protección ante todas las actividades que realiza, ya que el trabajador que goza de buena salud tiende a ser más eficiente y productivo. Y así poder hacer una comparación entre países. Por otro lado, en Argentina se encontró que la temperatura del ambiente es la condición de trabajo más mala. La causa más frecuente que ocurran los accidentes es el cansancio. Uno de los aspectos más importantes en base en la salud del trabajador que es fundamental de mayor importancia se recabaron los siguientes datos: Hablando de los datos más relevantes de seguridad en la encuesta que la parte química juega un papel muy importante y tiene un índice alto de riesgo. Y por último en Colombia como datos relevantes en las encuestas nacionales que se han aplicado tanto en el 2003 como en el 2013 se pudo determinar que los accidentes de trabajo se presentaron más en el sector inmobiliario, manufactura y construcción. Y respecto a las enfermedades laborales la tendencia son las lesiones musculo esqueléticas.  
Manrique Santiago Zureyma Quetzaili, Instituto Politécnico Nacional
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

EVALUACIóN DEL DESEMPEñO DE MéTODOS DE EXTRACCIóN, DE CLASIFICACIóN Y EFECTO DEL TIPO DE ESTíMULO VISUAL EN LA DETECCIóN DE SEñALES P300


EVALUACIóN DEL DESEMPEñO DE MéTODOS DE EXTRACCIóN, DE CLASIFICACIóN Y EFECTO DEL TIPO DE ESTíMULO VISUAL EN LA DETECCIóN DE SEñALES P300

Manrique Santiago Zureyma Quetzaili, Instituto Politécnico Nacional. Navarro Rodríguez Juan Francisco, Universidad Autónoma de Baja California. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Una Interfaz Cerebro-Computador, conocido en inglés como Brain- Computer Interface (BCI) es un sistema de interacción hombre-máquina que utiliza señales cerebrales para proveer un canal de comunicación no muscular. El enfoque de este estudio está dirigido al desarrollo y evaluación de algoritmos de aprendizaje automático, además de diferentes estímulos a partir de la información de la actividad cerebral extraída del participante, para que se garantice que a partir de los datos registrados se realice una decodificación óptima de las intenciones del participante.  



METODOLOGÍA

Utilizar diferentes métodos de extracción y clasificación de esta información para la identificación de señales P300 y evaluarlas para encontrar aquel que demuestre un mejor desempeño para determinar la presencia o ausencia de un estímulo desencadenante de una respuesta P300. A partir de los resultados determinados en el estudio 1, utilizar el método de extracción y clasificación determinado y a partir de ello evaluar qué tipo de estímulo (Happy Face o Flash) favorece la clasificación con respecto a la presencia o ausencia del estímulo (Target y Non-Target respectivamente) y observar si este comportamiento del participante se cumple durante las sesiones establecidas.  


CONCLUSIONES

Logramos encontrar que el método SWLDA en combinación del método CCA tienen un buen desempeño en la detección del potencial evocado P300 durante un ensayo, siendo más preciso (72.2% de exactitud) comparado con los otros modelos. Esto nos brinda una mejor interpretación de la información recolectada. Otro hallazgo de la investigación fue el hecho de que el estímulo Happy Face presentó mayor exactitud (74.12%) en la capacidad del algoritmo de aprender a discernir entre las condiciones Target y Non-Target en contraste con Flash (59.20%).
Mares Correa Itzayana, Instituto Politécnico Nacional
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

SITUACIóN ACTUAL DE LOS CONCRETOS RECICLADOS EN SAN LUIS POTOSí


SITUACIóN ACTUAL DE LOS CONCRETOS RECICLADOS EN SAN LUIS POTOSí

Mares Correa Itzayana, Instituto Politécnico Nacional. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Durante el proceso constructivo de una obra, se genera una gran cantidad de residuos tanto al momento de realizar alguna demolición como al finalizar la construcción, aunado al consumo las materias primas en elaboración del concreto que causan un impacto negativo hacia el medio ambiente, por lo que se ha visto en la necesidad de implementar alternativas en la elaboración de éste. Es por eso que se ha buscado la manera de poder utilizar agregados reciclados para obtener como resultado un concreto sustentable y a la vez más económico, que tenga como mínimo las mismas características de acuerdo a la durabilidad y calidad del mismo. Lo alarmante de la situación se encuentra en los resultados que se han presentado en otros países ya que aunque se comprueba que utilizar los residuos de concreto disminuye el impacto ambiental y también se obtienen menores costos, con características similares, su uso en México no se ha implementado a la misma medida como se ha hecho en Europa, Estados Unidos y Colombia,principalmente. Es por esto que el objetivo principal de la presente investigación, es conocer la razón por la que no se ha implementado el concreto reciclado como alternativa ecológica en la actualidad en la ciudad de San Luis Potosí.



METODOLOGÍA

La investigación que se desarrolló es de tipo descriptivo, donde se pretende conocer la situación actual del estado del arte del concreto en San Luis Potosí, lo que incluye: publicaciones de artículos, reportes o tesis sobre el concreto reciclado en esta ciudad, así como leyes, normas, planes de manejo y reglamentos, y el conocimiento y/o opinión que tiene los residentes de esta ciudad acerca del concreto reciclado.  El primer paso que se tomó para comenzar la investigación fue la selección de la ciudad de acuerdo al número de habitantes. Seguido de esto, se elaboró una ficha de trabajo para la recopilación de información, principalmente de literatura especializada tanto a nivel local como a nivel internacional, los campos más destacados de dicha ficha son: título de la publicación, tipo de documento, lugar de estudio, año, principales hallazgos, etc.  La segunda ficha que se elaboró fue de los bancos de materiales localizados aproximadamente en un rango de 50 km a la redonda de la ciudad, esto para conocer su estado actual. Los campos más importantes de dicha ficha son: su ubicación, el tratamiento que se le da, las restricciones ecológicas, el tipo de material, nombre del banco e información adicional con respecto a las principales operaciones del banco: proceso, % de materiales por tipo, costos, etc. Se identificaron 22 bancos de acuerdo al rango máximo que se tomó en cuenta para su localización.   Las solicitudes de información acerca del manejo de los residuos sólidos se hizo  a dependencias ambientales, tales como: la dirección de obras públicas, la dirección de ecología y aseo público, dirección de desarrollo social. La información solicitada fue sobre: número y localización de sitios  autorizados para la disposición final de RCD, centros de acopio y  reciclaje. De igual manera se realizó una encuesta de RCD a diferentes empresas, para conocer qué tipo de obras ejecutan, cuántos residuos se genera de acuerdo a dicha obra, el manejo de los RCD, saber si son reciclados y en dónde, el costo que conlleva el reciclado, conocer si han utilizado agregados reciclados para la fabricación de un nuevo concreto, el costo del transporte y cuota por el vertido de RCD. La encuesta está en línea y fue enviada a 10 empresas de la ciudad que fueron previamente identificadas mediante un inventario. Por último, se realizó una encuesta para conocer la opinión y los conocimientos de la población en general independientemente de si forman o no parte de industria de la construcción. La encuesta puede ser agrupada y/o filtrada en función de la edad, ocupación y estado de residencia. Las preguntas claves fueron orientadas a la posible utilización de los agregados para el concreto, si recomiendan su uso y la confianza que tendrían del desempeño de las obras que estén construidas con dicho concreto. La encuesta se compartió en diferentes grupos y sus resultados que se presentan en este trabajo son a los 6 días de dicha publicación.  Los resultados obtenidos de toda la recopilación de datos mencionada anteriormente serán analizados  y se formulará una propuesta que contenga estrategias para aprovechar estos residuos en San Luis Potosí.


CONCLUSIONES

Aunque en otros países se ha implementado en cantidades enormes este concreto, actualmente en México hay escasa información e investigaciones. En San Luis Potosí aunque si hay algunas tesis e información relacionados al tema, no se ha prestado la suficiente atención a la utilización de los residuos sólidos de la construcción. Con respecto a las encuestas a las empresas, aunque se está a la espera de respuestas, se conoce que aunque el gobierno municipal y estatal han tratado de implementar legislaciones no se cuenta con normas específicas para que los RCD disminuyan su impacto ambiental negativo, por lo que dichos residuos terminan en vertederos no autorizados, sólo un pequeño porcentaje  es utilizado para nivelar terrenos.  De acuerdo con la encuesta que fue a aplicada a la población residente en México, el 92% considera el reciclaje como buena medida de gestión ambiental que debería implementarse en todo tipo de industrias, el 62% tienen ocupación relacionada con la ingeniería civil y sólo el 55% sabe lo que es el concreto reciclado. De éstos últimos, el 97% considera que debería implementarse en más obras en México,  37% considera que debería ser utilizado en obras de urbanización, 25% en obras de infraestructura y 19% en edificación residencial. La información específica de la zona de estudio no será reportada, ya que al momento solo una persona de las encuestadas radica en San Luis Potosí. 
Maria Marin Sonia, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

BARRIERS AND KEY RESEARCH ASPECTS FOR THE TECHNOLOGICAL DEVELOPMENT OF BROWN ALGAE VALORIZATION THROUGH ANAEROBIC DIGESTION. A REVIEW


BARRIERS AND KEY RESEARCH ASPECTS FOR THE TECHNOLOGICAL DEVELOPMENT OF BROWN ALGAE VALORIZATION THROUGH ANAEROBIC DIGESTION. A REVIEW

Maria Marin Sonia, Benemérita Universidad Autónoma de Puebla. Ramirez Aguilar Javier Alejandro, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

1. Introduction  The brown seaweed Sargassum spp (Sargassum fluitans and Sargassum natans) had arrived to the Caribbean beaches since 2011 every summer (van Tussenbroek et al., 2017). This seaweed has different impacts such as environmental, aesthetic, economic, and social. Environmental impacts can be summarized as lost of autochthone flora and fauna due to oxygen depletion (van Tussenbroek et al., 2017) and contamination of other ecosystems (cenotes) caused by tourist displaced from beaches (Casas-Beltrán et al., 2020).  In 2014, tourism industry meant more than 80% of the gross domestic product of the Caribbean region, generating $29.2 billion pesos (Tapia-Tussell et al., 2018), and, beside other causes, the smell when decomposing the seaweed lead tourist not to visit this region during sargassum season and has led many hotels, hostals and restaurants to close their doors because of the lack of tourists. And the same has happened to beach activities such as diving and water skiing (Casas-Beltrán et al., 2020). It calculate that at least $120 million would be required to remove Sargassum inundations throughout the Caribbean.   The main aim of the present work is to recognize the key research topics about anaerobic digestion of brown seaweed that may potentially lead to an effective technological development for industrial applications, based on the existing findings to date. 



METODOLOGÍA

2. Brown seaweeds chemical composition  Brown seaweed differ from green and red by the predominance of xanthophyll and fucoxanthin pigments that give them a yellowish-brownish color, masking other pigments such as chlorophyll and β-carotenes, furthermore the main difference consists in their complex reserves of polysaccharides (laminarin and D-mannitol), structural polymers (cellulose, alginic acid and fucoidan) and defensive molecules (phaeophycean phlorotannins) (Bast, 2014; Lee, Robert Edward (Colorado State University, 2008; León Álvarez & Núnez Reséndiz, 2017).  It has been proven (Soto et al., 2015; Tabassum et al., 2017a) that algae composition is different not only among species; even a different season of harvesting conduced to an extensively variation on salt and organic composition. Due this, the elemental composition and macromolecules present in algae vary between a wide range.   3. Considerations about pre-treatment of brown algae for biogas production  The pre-treatment methods must be carefully selected and planned based on the characteristic properties of the biomass (Kumar & Sharma, 2017). The different pre-treatment techniques seek to overcome the recalcitrance of seaweed biomass to improve its digestion, the pre-treatment physical, chemical, biological, etc.   4. Effect of anaerobic digestion conditions of brown seaweed  The methane production from brown seaweed may depend on the reactor operational regime. In a review article McKennedy & Sherlock (2015) collected information about methane production from Laminaria sp. on different systems, noting that there is less methane yield variability on semi-continuous systems (260-280 mL/gVS) than in batch experiments (71-430 mL/gVS).   5. Barriers to overcome in order to perform brown algae anaerobic digestion  To Produce methane from brown algae it is a challenge due cellular composition. In this chapter shows the enzyme group that participate in hydrolysis of the different seaweeds structures, the compounds inhibit and decrease the enzymatic activity, as well as metabolites produced during AD of brown seaweeds and their effect on antimicrobial activity, in order to understand the barriers in AD when use the brown seaweed as feedstock to propose strategies than improve the yield of the methane production in future.   5.1 Recalcitrance of the chemical structure of brown seaweeds to enzymatic hydrolysis  Even though, alginates are partially responsible of brown algae structure stability, the pretreatments with alginate lyase have not successfully improved the hydrolysis rate nor methane yield as shown by Vanegas et al. (2015). This suggests that the other recalcitrant components of brown seaweeds need to be degraded first for alginate lyases to perform their function, thus, a depolymerization pretreatment and/or a specialized hydrolytic consortium generating a diverse proteome in the reactor might be required to overpass the recalcitrance of the substrate. However, methane yield results obtained by Obata et al. (2020) when comparing the effect of microorganisms source on brown seaweed anaerobic digestion showed that a marine anoxic sediment was not preferable as inoculum over an anaerobic sludge from a WWTP, nevertheless their experiments where developed with two consortiums with different SMA which might explained the low methane yield and VFA production utilizing marine microbes.  5.2 Antimicrobial activity of brown seaweed components and microbial weeds  An important barrier for successful AD of brown seaweed can be dependent to their bioactive compounds. Numerous investigations show that compounds and derivatives contained in brown seaweed possess biological properties as well as pharmaceutical compounds, a very studied is the antimicrobial activity (Li et al., 2019; Pérez et al., 2016).  Determination with the disc diffusion technique is a common test to observe the antibacterial activity of seaweed extracts. Inhibition halos have been observed with aqueous and ethanolic extracts of S. mangarevense and Turbinaria ornate against S. aureus (Zubia et al., 2008) and with general components (lipid, polysaccharide and protein) of L. ochroleuc, in assays for Bacillus sp., Staphylococcus aureus, S. faecalis and Candida albicans (Boujaber & Assobhei, 2017).   Another possible barrier is the bactericidal effect of microorganisms that establish symbiotic associations with seaweeds. These epiphytic bacteria colonies, or biofilm, are influenced by factors such as type and part of algae, as well as geographical location and the season of the year, nonetheless, Proteobacteria (Alpha and Gamma), Bacteroidetes, Flavobacterium, Planctomycetes, Actinobacteria, Verrucomicrobia and Cyanobacteria are the main groups reported in brown seaweed (Pal Singh & Reddy, 2014). 


CONCLUSIONES

In view of the economic and ecological consequences of the recent sargassum blooms in the Atlantic Ocean, technological development is necessary for the valorization of brown seaweed, thus, anaerobic digestion for the production of biofuels and fertilizers represents a viable option.  Based on the findings to date on AD of brown algae, the application of pre-treatments in combination with good digestion conditions, are essential to obtain better methane production. 
Marin Luna Ruth del Carmen, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana

APROVECHAMIENTO DE RESIDUOS CERáMICOS COMO MATERIALES DE CONSTRUCCIóN: REVISIóN DEL ESTADO DEL ARTE


APROVECHAMIENTO DE RESIDUOS CERáMICOS COMO MATERIALES DE CONSTRUCCIóN: REVISIóN DEL ESTADO DEL ARTE

Estrada Ceja Elvia Gissel, Instituto Tecnológico de Tepic. Marin Luna Ruth del Carmen, Benemérita Universidad Autónoma de Puebla. Tarazon Romo Adriana Guadalupe, Universidad de Sonora. Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Analizar la viabilidad del uso de los residuos de construcción y demolición provenientes de materiales cerámicos por medio de una investigación bibliográfica enfocada en su aprovechamiento en cemento, concreto, rellenos y pavimentos.



METODOLOGÍA

Definir los objetivos de investigación Recibir capacitaciones sobre búsqueda en bases de datos, citación y conceptos técnicos Analizar cómo se estructuran y escriben los artículos de revisión de estado del arte Consulta en bases de datos y fuentes documentales primarias, especialmente artículos de revistas científicas indexadas Organización y selección de información Análisis de información recolectada Entrevistas con expertos Ejecución de seminarios sobre el tema abordado Inicio de la redacción del documento Generar interpretaciones y posturas críticas en torno al tema Culminación del documento escrito en un formato de revista o congreso técnico


CONCLUSIONES

El sector de la construcción es uno de los principales contribuyentes a la degradación ambiental, especialmente, por la generación de residuos. En la actualidad, la cantidad abrumadora de desechos de construcción y demolición se ha convertido cada vez más en una grave problemática, que afecta negativamente el ambiente por la contaminación de suelo, aire y agua. Por lo anterior, es fundamental crear una conciencia en el medio técnico y exigir su uso, ya que como ha sido mostrado en diversas investigaciones, estos residuos pueden ser aprovechados como materiales de construcción, promoviendo así la economía circular. PRINCIPALES RESULTADOS: El cemento es uno de los principales contribuyentes a las emisiones de gases de efecto invernadero. Los residuos cerámicos pueden reemplazar parcialmente al cemento y tienen un desempeño variable dependiendo de la cantidad utilizada, produciendo así mezclas sostenibles y económicas. Una de las ventajas del uso de estos residuos en el concreto es la propiedad de mitigar significativamente la contracción autógena. Agregados reciclados cerámicos pueden ser aprovechados en la producción de concreto no estructural para losas de pavimento. Finalmente, es importante que estos agregados cumplan con las normas vigentes de cada país.
Márquez Rodríguez Cristian Omar, Universidad de Guadalajara
Asesor: Mg. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano

ANÁLISIS DEL IMPACTO DE LAS PRÁCTICAS DE GESTIÓN DE LA CALIDAD SOBRE EL DESEMPEÑO GLOBAL DE LAS CADENAS DE SUMINISTRO SOSTENIBLE


ANÁLISIS DEL IMPACTO DE LAS PRÁCTICAS DE GESTIÓN DE LA CALIDAD SOBRE EL DESEMPEÑO GLOBAL DE LAS CADENAS DE SUMINISTRO SOSTENIBLE

Márquez Rodríguez Cristian Omar, Universidad de Guadalajara. Asesor: Mg. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano



PLANTEAMIENTO DEL PROBLEMA

Haciendo revisión en la literatura encontramos que existen varios modelos que describen diferentes prácticas de calidad, pero, ninguno que contemple el impacto que tienen estas prácticas dentro del desempeño de los tres pilares de la sostenibilidad, es por ello que presentamos un modelo estructural que describe como estas prácticas de calidad juegan un papel muy importante dentro del desempeño de la sostenibilidad en la cadena de suministro.



METODOLOGÍA

Para este documento se realizó una busqueda sistemica que consta de cuatro pasos. 1.1Pregunta de investigación. P1: ¿Cómo medir el impacto de las prácticas de gestión de la calidad sobre el desempeño en la cadena de suministro? P2: ¿Podemos combinar los enfoques ya establecidos por autores en el pasado para concluir con una perspectiva más amplia y completa? 1.2Hipotesis Con base a las preguntas de investigación, afirmamos que: H1: Es posible realizar un modelo que represente el impacto de las prácticas de gestión de la calidad sobre el desempeño global de la cadena de suministro con un enfoque sostenible. 1.3 Busqueda en base de datos Para la búsqueda de información se tomaron en cuenta diferentes criterios, considerando únicamente documentos publicados entre los últimos veinte años, periodo correspondido a los años 2000 a 2020, en las siguientes bases de datos: Emerald, Science direct, Scopus y Taylor & Francis, A su vez utilizando las siguientes ecuaciones de busqueda, palabras clave:  quality practices AND sustainable supply chain management quality practices AND sustainable supply chain AND performance quality management AND supply chain management AND performance quality management AND supply chain management AND trends quality management AND supply chain management AND models   1.4 Análisis de Información. Para la selección de información se tomaron en cuenta documentos que: Presentan un modelo conceptual de prácticas de calidad en cadena de suministro. Presenten un análisis literario de diferentes enfoques en cuanto a las prácticas de calidad por distintos autores. No se tomaron en cuenta documentos que: Modelos o enfoques teóricos que no consideran enfoque en prácticas de calidad en cadenas de suministro.


CONCLUSIONES

Se realizó un esquema con el fin de clasificar e identificar los términos más utilizados, para hacer una categorización de los más mencionados y coincidentes con el fin de presentar un aporte propio.  Desarrollamos una propuesta de clasificación de las prácticas de calidad en la cadena de suministro tomando los enfoques encontrados en la revisión de la literatura y ubicándolos por seis parámetros: Valores, cliente, calidad, proveedor, producto, recursos humanos. En esta clasificación se muestra como el liderazgo, la capacitación, enfoque al cliente, información y calidad de datos, planeamiento estratégico, gestión de procesos y diseño de producto son los enfoques mayormente mencionados por los autores, dándole mayor enfoque a los parámetros: valores, cliente, calidad y producto. Dejando con menor mención los parámetros de PROVEEDORES que solo se utilizan por (Soares et al., 2017), (Fernandes et al., 2017) & (Rashid & Haris Aslam, 2012) y ORGANIZACIÓN (Jraisat & Sawalha, 2013; Rashid & Haris Aslam, 2012) & (Kuei et al., 2008). Cada parámetro cuenta con las siguientes prácticas de calidad. Valores: Liderazgo, capacitación, comunicación, continuidad, relaciones personales, participación y compromiso. Cliente: Enfoque al cliente, relaciones con clientes, satisfacción del cliente. Calidad: Protocolos de calidad, Calidad del producto, Información y calidad de datos y liderazgo de calidad. Proveedor: Enfoque al proveedor, integración y relación con proveedores y gestión de relaciones con proveedores. Producto: Mejora continua e innovación, planteamiento estratégico, evaluación continua, gestión de procesos, diseño de producto o servicio y factores medioambientales. Organización: Gestión de recursos humanos, satisfacción laboral, formulación de políticas y apoyo financiero. A la vez se incorpora una gráfica extraída de Scopus con el fin de observar la tendencia de crecimiento del tema, donde podemos analizar que este tópico tiene una tendencia de crecimiento, con un total de 5,203 artículos publicados desde 2001 al 2020. Por ultimo mostramos una propuesta conceptual que incorpora estas prácticas de calidad asociándolas directamente con el desempeño ambiental, económico y social de la cadena de suministro. En la medida en que las cadenas de suministro implementen y cuantifiquen el impacto de las prácticas de calidad sobre su desempeño global, se contribuye de forma significativa al logro de una producción y consumo sostenibles. Las prácticas de calidad que más contribuyen a un desempeño sostenible en las cadenas de suministro son: la capacitación, relaciones con proveedores, planeación estratégica, enfoque al cliente, cartas de control e índices de capacidad. Es necesario generar actualizaciones sobre tendencias que den respuesta a ¿cómo medir la influencia que tiene la buena selección de prácticas de calidad  en el desempeño de la cadena de suministro global para dar un enfoque sostenible?
Martinez Antonio Diana Laura, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Daniel Esteban Salas León, Fundación Universitaria Colombo Internacional

OBJETIVOS, PRINCIPIOS Y REQUSITOS DE LA NORMA ISO 9001:2015


OBJETIVOS, PRINCIPIOS Y REQUSITOS DE LA NORMA ISO 9001:2015

Martinez Antonio Diana Laura, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Daniel Esteban Salas León, Fundación Universitaria Colombo Internacional



PLANTEAMIENTO DEL PROBLEMA

Obtener una certificación en ISO 9001 suele ser uno de los retos que las organizaciones suelen afrontar para asegurar la calidad que el cliente requiere y al mismo tiempo se han de posicionar con mayor ventaja competitiva ante las demás empresas, por ello es importante conocer y entender como ayuda esta norma en su implementación.



METODOLOGÍA

Este articulo está denotado por una investigación documental descriptiva, basado en fuentes secundarias para dar a conocer los objetivos, principios y requisitos que la norma ISO 9001:2015 exige al momento que se decide implementar dentro de una organización dando pauta a una pequeña descripción de cada elemento mencionado anteriormente 


CONCLUSIONES

Hacer que al lector le sea más fácil la comprensión y entendimiento, además de mostrar algunos de los beneficios que trae consigo la aplicación de la norma y que a su vez los integrantes de la empresa estén en constante búsqueda de la mejora continua
Martínez Bojorges Iván, Instituto Politécnico Nacional
Asesor: Dr. Ricardo Bonett Díaz, Universidad de Medellín

ANÁLISIS DEL COMPORTAMIENTO SÍSMICO DE EDIFICIOS DE MUROS DE CONCRETO REFORZADO BASADO EN MACRO PARÁMETROS.


ANÁLISIS DEL COMPORTAMIENTO SÍSMICO DE EDIFICIOS DE MUROS DE CONCRETO REFORZADO BASADO EN MACRO PARÁMETROS.

Chávez Méndez Dorismar, Instituto Tecnológico de Colima. Estudillo Camacho Brenda, Universidad Autónoma de Chiapas. Gómez Espinoza Uriel Ignacio, Universidad Autónoma de Chiapas. Martínez Bojorges Iván, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Bonett Díaz, Universidad de Medellín



PLANTEAMIENTO DEL PROBLEMA

La tendencia del desarrollo vertical en los grandes entornos urbanos motivado por la ausencia de espacio ha impulsado el uso de sistemas industrializados en el sector de la construcción en Colombia. Uno de los sistemas de mayor uso, es el sistema de muros vaciados de concreto reforzado, conocido también como muros industrializados o de corte. En la actualidad las propuestas arquitectónicas sugieren espacios libres de muros para generar sensaciones de amplitud, por lo que la implementación de muros cortantes proporciona resistencia y rigidez ante carga laterales. La optimización de espacios, así como la reducción de costos y algunos vacíos normativos a nivel de parámetros de control sobre el dimensionamiento de los elementos estructurales, ha promovido el uso de muros delgados y esbeltos, es decir, elementos estructurales altos y de poco espesor, en los cuales no es posible incluir estribos o ganchos de confinamiento. Los muros son subsistemas estructurales sólidos rígidos, que brindan estabilidad a la estructura de una edificación. Los muros de corte son paredes de concreto armado que absorben fuerzas laterales coplanares (sismo, viento) rigidizando la estructura con el propósito de reducir las deformaciones excesivas y por consiguiente los daños, que puedan afectar el comportamiento integral de la misma. En la presente investigación se realizó el análisis estructural de un edificio de 20 y 12 niveles localizados en la ciudad de Bucaramanga departamento de Santander (Colombia), zona de alta sismicidad. Los edificios se analizaron a partir de una metodología desarrollada por la Red Colombiana de Investigación en Ingeniería Sísmica, CEER, la cual involucra los principales macro parámetros que controlan el comportamiento sísmico. La problemática surge con base a la necesidad de realizar una evaluación conceptual rápida y eficiente a partir de las características geométricas de los edificios construidos con el sistema de muros de concreto reforzado localizados dentro del nido sísmico de Bucaramanga, con el fin de identificar casos críticos que puedan generar una catástrofe durante un determinado evento sísmico. Es por ello que el correcto análisis de los elementos que conforman la configuración estructural de los edificios permite conocer si la disposición estructural es favorable o desfavorable en términos del desempeño sísmico esperado.  



METODOLOGÍA

Para la evaluación se empleó una metodología simplificada desarrollada por la Red Colombiana de Investigación en Ingeniería Sísmica, CEER. Para determinar el funcionamiento de los muros de corte presentes en ambos edificios, se analizaron los siguientes parámetros: Densidad de muros: permite determinar el área existente de cada uno de los muros de corte en edificio, a mayor densidad de muros menor carga axial, si la densidad es mayor que 3% la configuración del edificio se considera favorable desde el punto de vista de rigidez lateral. Relación de esbeltez: el cálculo de la esbeltez de cada uno de los muros permite conocer qué muros son capaces de soportar cargas laterales y cuáles son más propensos a que se pandeen. Relación de aspecto influye en la capacidad de rotación inelástica del muro:  los indicadores muestran el tipo de cada uno de los muros (cortos, intermedios o largos) y su capacidad deformación lateral. Porcentaje de cortante sísmico: determina el valor porcentual de carga sísmica que soporta cada uno de los muros de los edificios. Detallado del acero de refuerzo de los muros principales: permite calificar el tipo de refuerzo que tiene el elemento y si cuenta o no con confinamiento. Para cada uno de los casos de estudio, se realizó un análisis de la distribución de los macro parámetros y a partir de unos rangos o intervalos definidos por la Red CEER, se determina el nivel de diseño o el comportamiento esperado de ambos casos de estudio. Los cálculos mencionados anteriormente se obtuvieron por medio de hojas de cálculo de Excel ya que facilita el manejo de los parámetros para determinar el análisis estructural.


CONCLUSIONES

El desarrollo de infraestructura por medio de muros cortantes permite una nueva visión al momento de tomar decisiones estructurales en México, ya que las edificaciones predominantes en el país son por medio de pórticos, así que el conocer diversas alternativas estructurales ofrece un estudio detallado sobre los cimientos y la estructura del edificio en base a la región en la que se localiza y el entorno inmediato que demanda. Los resultados obtenidos presentan una herramienta útil para determinar la configuración estructural del edificio, en donde se demostró el comportamiento estructural de cada uno de los muros presentes en ambos edificios. La investigación brinda una pauta para que en un futuro sean analizadas edificaciones por medio de macro parámetros, ya que es una manera rápida y eficiente en la toma de decisiones sobre configuración estructural. En caso de que los resultados obtenidos sean desfavorables se requerirá un segundo análisis más detallado, en donde se incorporen modelos numéricos, procesos de análisis no lineal, así como modelados en tercera dimensión para evaluar el comportamiento de cada edificio con simulaciones de eventos sísmicos.
Martínez Bollas Brayan Aldair, Instituto Politécnico Nacional
Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales

EFECTOS INDIRECTOS DE LA EMERGENCIA SANITARIA DEL COVID-19 EN LA REDUCCIóN DE LA HUELLA DE CARBONO. CASO DE ESTUDIO: AEROPUERTO LA NUBIA, MANIZALES, COLOMBIA


EFECTOS INDIRECTOS DE LA EMERGENCIA SANITARIA DEL COVID-19 EN LA REDUCCIóN DE LA HUELLA DE CARBONO. CASO DE ESTUDIO: AEROPUERTO LA NUBIA, MANIZALES, COLOMBIA

Martínez Bollas Brayan Aldair, Instituto Politécnico Nacional. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Se estima que la industria de la aviación protagoniza el 12% de las emisiones de dióxido de carbono emitidas en el transporte a nivel mundial. De acuerdo con la OACI, la aviación contribuye en 2% a las emisiones de efecto invernadero a nivel mundial.  Una reducción en las operaciones del aeropuerto La nubia en Manizales tendría un impacto positivo considerable en la reducción de los desechos en emisiones de CO2 anualmente. Debido a la reducción de número de vuelos provocado por las medidas sanitarias adoptadas por pandemia del virus SARS COVID-19 la huella de carbono reduciría notablemente. Es por ello que es necesario realizar la presente investigación dando respuesta a la siguiente pregunta de investigación: ¿Qué porcentaje de la huella de carbono reduciría un paro de actividades en el sector aviación como el provocado por las medidas sanitarias adoptadas por pandemia del virus SARS COVID-19?  Realizar esta investigación nos permitirá conocer acerca de la huella ecológica en temas de emisión de carbono (CO2) producidos por la aviación en días con actividades cotidianas, sin restricciones y operabilidad en el sector aeronáutico de manera completa. Para posteriormente hacer el estudio de la huella ecológica en tiempos de la contingencia sanitaria y comparar la reducción que el paro del operar de las aeronaves generó en tiempos de prevención sanitaria.



METODOLOGÍA

El método empleado para llevar a cabo el estudio es una investigación de tipo cuantitativa debido a que el manejo de las en juego es medible, en un estudio de descriptivo por el análisis teórico que se debe conocer.  Además, se planteó la delimitación del estudio de caso, siendo escogido el aeropuerto “La nubia” en Manizales con una ruta aérea entre la ciudad de Bogotá y Manizales, con una distancia entre aeropuertos de 300 km aproximadamente. La metodología para el cálculo fue el protocolo de gases de efecto invernadero publicada en el Panel Intergubernamental del Cambio Climático (IPCC, 2006) pero actualizada en el 2019. Las variables consideradas para este estudio fueron de nivel de detalle primario, es decir datos de fácil acceso, publicados en la autoridad aeronáutica en Colombia, Aerocivil. Posteriormente con fórmulas obtenidas del protocolo del IPCC en 2006 se realizaron los cálculos pertinentes para la obtención de la cantidad de contaminantes emitidos por la operación del aeropuerto previamente escogido. Finalmente al realizar calculos para la obtención de porcentaje se presentó la reducción de contaminantes debido a las medidas preventivas tomadas por la pandamia del virus SARS Covid-19 


CONCLUSIONES

Realizados los cálculos se pueden concluir diversos hechos respecto a la investigación planteada inicialmente. Al realizar los cálculos pertinentes en cuanto al consumo de combustible en el primer trimestre del 2019 comparados con el primer trimestre del 2020 se calcula que hubo un 43% en la reducción de consumo de combustible y debido a que es un cálculo directamente proporcional a las emisiones en la huella de carbono, se puede concluir además que las medidas de prevención en la contingencia sanitaria redujeron en un 43% las emisiones de carbono y la huella contaminante de otros gases provocados por el operar de la ruta aérea entre el aeropuerto la Nubia ubicado en la ciudad de Manizales y el aeropuerto el Dorado ubicado en la capital Bogotá. Además, tras realizar los cálculos estimados para la misma cantidad de personas transportadas por automóvil en un año, se observó que se podría ahorrar aproximadamente la misma cantidad de combustible que la cantidad ahorrada por las medidas de prevención tomadas por la contingencia sanitaria. Por tanto, es muy importante hacer un llamado de atención a que todo lector de este articulo utilice los medios de transporte terrestres para rutas que pueden ser trasladadas de esta manera. Es decir, 30 minuto de trayecto equivalen a cientos de toneladas de gases de efecto invernadero, los cuales se pueden hacer mediante vía terrestre en 3 horas. Una cantidad de tiempo considerable.  
Martínez Cano José Javier, Instituto Tecnológico Superior de Huauchinango
Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas

SALVAESCALERA


SALVAESCALERA

Martínez Cano José Javier, Instituto Tecnológico Superior de Huauchinango. Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Debido a la dificultad que presentan las personas que tienen discapacidad motriz al desplazarse por construcciones arquitectónicas que no cuentan con la infraestructura para poder realizar este tipo de desplazamiento , se diseñó un sistema mecánico con el objetivo de poder facilitar el desplazamiento en este tipo de ambientes arquitectónicos, otorgando una mayor independencia al usuario de dicho mecanismo, al ser un sistema mecánico muy accesible y modular, es necesario contar con un sistema de ensamble que sea entendible y de fácil acceso para el usuario. El manual debe ser entendible y que cumpla con las características del proyecto, fácil acceso, herramientas de bajo costo, con diagramas de ensamble tanto mecánico como electrónico.



METODOLOGÍA

Revisar las piezas del ensamble mecánico realizado en el software SolidWorks, y verificar que las piezas no tengan algún tipo de colisión. Comparar las piezas mecánicas junto con la lista de materiales proporcionadas por el asesor. Separar las piezas mecánicas de acuerdo a las aportaciones que genera en el ensamble mecánico. Renderizar cada una de las piezas emulando un ensamble mecánico, esto se hace con el propósito de generar un mejor manual de ensamble, tomar en cuenta que los renderizados se separan por carpetas para evitar problemas de organización. Realizar esquema para páginas de ensamble mecánico, tomar en cuenta que el manual no debe exceder los 12 pasos por sección de ensamble, especificar el nombre del ensamble y las herramientas a utilizar para poder realizar un ensamble de manera correcta. Acoplar los planos junto con el manual de ensamble mecánico. Diseñar placas PCB para la electrónica del proyecto SalvaEscalera, hay que tomar en cuenta quela placa debe ser modular para facilitar la conexión de los dispositivos electrónicos. Diseñar código de programación para realizar el correcto estudio y comunicación de los datos arrojados por los sensores de voltaje y el giroscopio.


CONCLUSIONES

Los manuales de ensamble son muy importantes, debido a que nos proporciona la facilidad de entender el producto final, debido a que el proyecto SalvaEscalera pretende tener un mayor impacto es de suma importancia tener este tipo de manuales para alcanzar un impacto aun mayor con el que ya cuenta.
Martinez Carrasco Juan Pablo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo

PARáMETROS DE DENSIDAD DEL TIEMPO ENTRE TEMBLORES CARACTERíSTICOS EN MéXICO


PARáMETROS DE DENSIDAD DEL TIEMPO ENTRE TEMBLORES CARACTERíSTICOS EN MéXICO

Martinez Carrasco Juan Pablo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En México existen diversas fuentes generadoras de sismos, una de las más importantes es la zona de subducción ubicada en la costa del pacífico comprendida desde el estado de Chiapas hasta el estado de Jalisco. Un estudio de peligro sísmico determina la probabilidad de que un parámetro elegido para medir el movimiento del suelo sea excedido dado un lapso de tiempo de interés en un determinado sitio. Debido a que la ocurrencia de los temblores en la zona de subducción representa un riesgo significativo, se realizó la actualización de parámetros para evaluar el peligro sísmico en esta fuente. La zona de subducción es la fuente sísmica más activa del país y ahí se registran los epicentros de los denominados temblores característicos, con magnitud mayor o igual a 7 y profundidad menor a 45 km. En esta investigación se actualizan los parámetros relacionados con la ocurrencia de temblores característicos en la zona de subducción. Los temblores de menor magnitud son otra fuente importante del movimiento del terreno, cuya ocurrencia se rige por la ley de Gutenberg-Richter. Los parámetros que determinan la forma funcional propuesta por Gutenberg-Richter también se determina en este trabajo. Finalmente se determinan densidades de probabilidad de la distancia entre los epicentros de los temblores y un sitio específico.



METODOLOGÍA

El tipo de análisis de peligro sísmico seleccionado es de carácter probabilístico. En primer lugar, se divide la zona de interés en las catorce zonas que producen temblores de subducción en forma independiente. Se recopiló información de la localización, fecha, profundidad y magnitud de los temblores característicos utilizando un catálogo de temblores. Posteriormente se calcula el tiempo transcurrido en años entre cada evento en cada una de las zonas. Se supuso que los tiempos entre eventos sísmicos presentan una distribución lognormal. Posteriormente, se determina la relación entre la magnitud esperada de los temblores y el logaritmo natural del tiempo transcurrido entre temblores. Por medio de un ajuste polinomial se propuso una ecuación de segundo grado que relaciona el tiempo entre temblores (en años) con la magnitud esperada. Debido a que el tiempo entre temblores obedece a una distribución lognormal, se obtuvieron los dos parámetros de esta densidad de probabilidad con base en la información del catálogo sísmico previamente mencionado. Los parámetros se calcularon igualando los dos primeros momentos de la densidad de probabilidad con los correspondientes a los datos. De esta manera, los parámetros de la función lognormal se relacionan con la media y varianza del conjunto de datos analizados. Posteriormente, los parámetros obtenidos son sustituidos en la función de densidad para una distribución lognormal. El siguiente análisis se enfoca en temblores que se rigen por la ley de Gutenberg-Richter, por lo que se recurre a otro catálogo de temblores que disponga de temblores con magnitud mayor a 4.5 y con profundidad menor a 45 km para mantener un análisis con temblores de subducción. Por medio de una distribución de frecuencias se cuantifican los temblores por intervalos de magnitud considerando todas las zonas como un solo conjunto y una distribución de frecuencias para cada zona de manera independiente. Haciendo uso del modelo de Gutenberg-Richter se realiza una regresión para todo el conjunto de temblores y para cada zona de manera independiente. Tanto para la zona de subducción como para cada una de las catorce zonas se obtiene una tasa de recurrencia expresadas en el número de temblores con una cierta magnitud que ocurren en un año. Por otro lado, para mostrar un proceso de recurrencia de todos los temblores registrados en la zona de subducción con magnitud mayor a 4.5 se integra la información que se tiene de los temblores característicos, esta vez sin realizar algún ajuste a las rectas. Por último, se determinaron densidades de probabilidad de las distancias que existen en cada una de las catorce fuentes sísmicas a un sitio, en este caso se toma como sitio de interés estaciones sismológicas cercanas a cada fuente. Se calculó la distancia entre cada epicentro a la estación asignada para cada zona. La distribución de frecuencia de los datos agrupa a los temblores en intervalos de clase. Con base en estos histogramas y las medidas de tendencia central (media) y de dispersión (desviación estándar), se proponen densidades de probabilidad de cada zona, que en algunos casos son densidades lognormales y en otros son densidades uniformes.


CONCLUSIONES

En la actualización de la ecuación de recurrencia de temblor característico se estima que una magnitud de 7.5 se excederá en un tiempo transcurrido de 40 años y existe una probabilidad no despreciable que el próximo evento exceda una magnitud de 8.0. Las relaciones lineales de recurrencia Gutenberg-Richter aplicadas para sismos con magnitud mínima de 4.5 varían para cada fuente sísmica. Para todas las fuentes sísmicas se obtienen unos parámetros adecuados para una zona de subducción y comparando con la fuente sísmica de Chiapas mantienen una relación en sus pendientes debido a que en esta fuente se concentra la mayor cantidad de eventos sísmicos con magnitud por debajo de 7. Las zonas ubicadas al oeste del país carecen de registros para magnitudes bajas por lo que las relaciones de recurrencias no cumplen para una zona de subducción. A todas las zonas de Oaxaca se les consideró asignarle una función de densidad uniforme continua para entre el epicentro y la estación sísmica más cercana, debido a que no existía con claridad una tendencia hacía una distancia, por lo que en la zona de Oaxaca existe la misma probabilidad de ocurrencia en distancias cercanas como en distancias lejanas. Las zonas de Chiapas, Brecha de Tehuantepec y Brecha de Colima muestran una mayor concentración de eventos en distancias largas, que oscilan entre 100 km. Las distancias de las zonas restantes oscilan entre 20 y 50 km, mostrando una alta probabilidad a distancias más cortas. 
Martínez Corona César Saúl, Instituto Politécnico Nacional
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

LENGUAJE DE PROGRAMACIóN PYTHON


LENGUAJE DE PROGRAMACIóN PYTHON

Martínez Corona César Saúl, Instituto Politécnico Nacional. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el uso de las tecnologías es esencial para el desarrollo de la humanidad, un claro ejemplo del uso de las tecnologías es la actual pandemia por Covid-19, ya que la humanidad se vio obligada a usar las tecnologías que se tienen hasta el momento para poder realizar trabajos y continuar con la educación mundial.  El tema que se está investigando es el conocimiento del lenguaje de un programador llamado Python, el cual gracias a su Sintaxis de uso fácil y sencillo podemos llegar a crear programas los cuales a futuro pueden llegar a ser de gran ayuda a nivel mundial.



METODOLOGÍA

Primero se parte del concepto de la investigación conociendo su origen, el por qué se creó, ¿quién lo creo?, ¿cómo se usa?, ¿dónde se usa?, una vez teniendo el conocimiento de dicha información se parte de otro pilar el cual es el conocimiento del lenguaje, debemos contemplar que la familiarización del lenguaje es primordial para crear un programa, posteriormente con los conocimientos adquiridos de forma teórica se procede a prácticas de programación como por ejemplo algunas operaciones que se pueden generar en la IDE de Python para así poder interpretar dicha información.  Teniendo el conocimiento se procede a la creación de un programa con cierta cronología al momento desarrollar dicho programa, algunas recomendaciones son: Generar un problema el cual se busca resolver, buscar posibles soluciones para después seleccionar la más eficaz que pueda resolver dicho problema, comenzar un diseño o borrador de que es lo que se quiere desarrollar, teniendo una idea clara se procede a la elaboración de dicho programa, se prueba y si la prueba es un éxito se comienza la fase de desarrollo y mantener el programa implementándolo en el área el cual es necesario.


CONCLUSIONES

Se obtienen conocimientos del origen, creador, usos y aplicación de Python para el beneficio colectivo ya que el generar un programa se tiene como finalidad  resolver un problema en una cierta área o situación para un apoyo al momento de realizar un trabajo o como es el caso de la forma de la enseñanza, los conocimientos adquiridos son un impulso para el desarrollo de nosotros como estudiantes para crear un programa que pueda ser benéfico para algún problema que se pueda generar al momento de estar aprendiendo, con éxito el tema en este Verano de la investigación es aprendido y enseñado de manera eficaz a pesar de las adversidades que se generan por la actual pandemia que es un obstáculo que se supo sobrellevar gracias a la eficacia de ambas partes.
Martínez Flores César Octavio, Instituto Politécnico Nacional
Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas

PRODUCCIóN INDUSTRIAL DE BALDOSAS ELABORADAS A PARTIR DE PLáSTICO RECICLADO EN LA EMPRESA MAYCO S.A


PRODUCCIóN INDUSTRIAL DE BALDOSAS ELABORADAS A PARTIR DE PLáSTICO RECICLADO EN LA EMPRESA MAYCO S.A

Martínez Flores César Octavio, Instituto Politécnico Nacional. Asesor: Mg. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas



PLANTEAMIENTO DEL PROBLEMA

Como resultado de la urbanización y el rápido crecimiento poblacional en los últimos años se ha incrementado de manera alarmante la cantidad de residuos sólidos desechados. Debido a su impacto ambiental los residuos plásticos representan un grave problema. Según el estudio «What a Waste 2.0: A Global Snapshot of Solid Waste Management to 2050». del Banco Mundial, se estima que el 12% de los residuos desechados son plásticos. El presente proyecto surge a partir de la necesidad de darle una mejor disposición a los residuos plásticos desechados, viendo a bien la participación del Servicio Nacional de Aprendizaje SENA, Colombia con la empresa MAYCO S.A para la fabricación de baldosas plásticas a partir de materiales reciclados.



METODOLOGÍA

Se realizó una serie de búsquedas bibliográficas con la cual se fue documentando el desarrollo del proyecto mediante una serie de reportes técnicos en los cuales:  Se identificaron las diversas normas técnicas nacionales e internacionales que deben cumplir las baldosas plásticas. Se realizó un análisis de los materiales reciclados a utilizar con base a sus características. Se hizo un estudio técnico del proceso general de reciclaje. Se propusieron diferentes mezclas de polímeros reciclados con residuos orgánicos con la finalidad de analizar su viabilidad para llevarlas a cabo.  


CONCLUSIONES

Con base al estudio técnico realizado se pretende iniciar la producción experimental de las diversas mezclas poliméricas propuestas con el objetivo de verificar si las propiedades que presenta son aptas para su aplicación. Una vez resuelto el punto anterior se procederá a trabajar en la búsqueda del proceso de manufactura viable, para iniciar la producción industrial de las baldosas.
Martínez García Jesús Emmanuel, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtra. Nadia Teresa Adaile Benitez, Universidad Tecnológica de Nayarit

UTNAYSIS: DESARROLLO DE UN SITIO WEB RESPONSIVO PARA LA ORGANIZACIóN DE EVENTOS ACADéMICOS


UTNAYSIS: DESARROLLO DE UN SITIO WEB RESPONSIVO PARA LA ORGANIZACIóN DE EVENTOS ACADéMICOS

Martínez García Jesús Emmanuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Nadia Teresa Adaile Benitez, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Actualmente toda institución, de carácter educativa o del sector laboral, tiene como uno de sus objetivos tener en constante capacitación a sus integrantes teniendo así, como opción primordial, el organizar eventos para lograrlo. El organizar un evento académico para formación, sea un congreso, jornada académica, seminario u otro evento de índole similar conlleva una ardua tarea para encontrar ponentes adecuados para el tema central, y, sobre todo, tener un sistema donde se pueda organizar y llevar un orden. Desgraciadamente, muchas de estas instituciones siguen haciendo esta labor de manera manual y tangible, haciendo procesos como el de registros algo tardado y laborioso, adicionando que, actualmente, realizar un proceso presencial como este no es viable. Cabe resaltar que el contener registros físicos tiene desventajas enormes como lo pueden ser la perdida de estos o el difícil acceso a ellos. Por ello, durante el periodo que comprende el verano de la investigación se pretende desarrollar un sitio web innovador que mejore y automatice las actividades para organizar un evento académico de manera tradicional.



METODOLOGÍA

Para el desarrollo del sitio web se realizó una consulta con la asesora para ajustarlo a las facilidades con que la Universidad Tecnológica de Nayarit cuenta y poder adecuarse con diversas herramientas de desarrollo web. Se utilizó el entorno de desarrollo Visual Studio Code 2019 para el desarrollo del código tanto de frontend como backend. Para el apartado de diseño se implementó Bootstrap 4.0,proporciona un menú superior, el cuerpo del sitio donde, de acuerdo con las necesidades, se iba trabajando, agregándole características únicas y un footer, con el logo de la universidad junto con la leyenda del aviso de derechos de autor. El apartado de backend se realizó con el lenguaje de programación PHP 7.3, donde nos facilita el manejo de los datos ingresado, agregando funciones y sentencias preparadas para lograr la correcta funcionalidad. PHP es usado por grandes empresas de índole mundial como la red social Facebook o incluso la página del programa Delfín. La parte de frontend ha estado encargada por dos lenguajes diferentes: HTML5, como lenguaje de etiquetas, se usó para el desarrollo de la estructura de todo el sitio web, combinándose con JavaScript para realizar las validaciones correspondientes del manejo de datos antes de ser procesados por las funciones hechas en PHP. JavaScript también es el encargado, junto con PHP, de la navegación entre las diferentes ventanas y herramientas, dirigiendo al usuario de acuerdo con las acciones ejecutadas.  El sitio web trabaja con dos tipos de usuarios: usuarios organizadores o administradores y usuarios participantes. Dependiendo de las credenciales generadas o proporcionadas, UTNaySis se comportará de manera diferente. Para el apartado de participante se debe de generar credenciales, estas se obtienen al realizar un registro exitoso haciendo uso de sus datos personales como su nombre completo y una dirección de correo electrónica activa y válida. Se cuenta con un apartado de perfil para que el usuario pueda hacer modificaciones en su información personal en caso de que sea necesario al igual que los usuarios con este rango pueden inscribirse a los eventos creados, dentro de los cuales cuentan con un panel para manejo eficaz e intuitivo. Este cuenta con opciones para realizar inscripciones a las actividades, eliminar las inscripciones en caso de que sea necesario, generar sus gafetes para el registro de asistencia a las actividades para lo cual se implementó un innovador sistema a base de códigos QR únicos generados a cada participante que a su vez sirve también como identificador personal del participante, obtener su constancia de participación la cual se genera de manera automática cuando el sistema realiza un calculo para la obtención del 80% de asistencias registradas a actividades dentro del evento que el participante previamente se inscribió, y subir su folio de pago de inscripción al evento deseado. Los usuarios administradores u organizadores obtienen su ingreso al sitio mediante credenciales existentes para evitar la divulgación de esta o la obtención sin consentimiento de las mismas. Cuentan con la opción de Crear eventos; cuenta con panel de evento más extenso a comparación del panel de evento creado para el participante. Se tienen herramientas para manejo de la imagen del evento que sirve para la promoción de este; Actividades la cual permite crear actividad dentro del evento como lo es una conferencia, una ponencia o un taller; edición de las actividades en caso de que haya creado con datos erróneos o se quiera realizar alguna corrección; toma de asistencia mediante el uso de códigos QR; para lograrlo, el usuario administrador deberá de entrar al apartado desde su ordenador o dispositivo móvil y activar su cámara y de manera ordenada cada participante deberá de pasar su código QR por debajo de la cámara, en caso de que haya sido detectado con éxito el código la asistencia quedará registrada con éxito, caso contrario no se registrará la asistencia del usuario; generación de credenciales para los organizadores y para los ponentes que participarán en el evento; generación de constancias de participación a los ponentes; edición del evento en caso de que este así lo requiera como descripción, nombre o fechas y un apartado critico para eliminar el evento por completo del sistema.


CONCLUSIONES

Durante la estancia del verano delfín se logró desarrollar con éxito el sitio web requerido por el cuerpo académico de Tecnologías de la Información y Desarrollo de Software de la Universidad Tecnológica de Nayarit, permitiéndome adquirir conocimiento en desarrollo web, diseño y ciberseguridad. El sitio web ha sido entregado bajo el nombre de UTNaySis versión 1.0 cumpliendo las características de ser responsivo, toma de asistencia por medio de códigos QR y generación automática tanto de credenciales como de constancias.
Martinez Gonzalez Jesus, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango

ESTADO DEL ARTE VSM


ESTADO DEL ARTE VSM

Martinez Gonzalez Jesus, Instituto Tecnológico Superior de Huauchinango. Trejo Vargas Maria Alheli, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las empresas se enfrentan a una competencia sin fronteras, donde existe la necesidad urgente de cambiar la forma tradicional de operar las compañías, optimizar los procesos y reducir los desperdicios de tiempo, costo y espacio que se generan dentro de los mismos (Barcia & De Loor, 2007). Por este motivo, muchas organizaciones están buscando identificar la cadena de valor en cada uno de sus procesos. Se debe tener en cuenta que la cadena de valor se define como aquellas actividades que le dan un valor agregado al cliente y que involucra todo el camino que debe seguir el producto desde la recepción del pedido hasta la entrega al cliente final (Nash & Poling, 2008). Para la determinación de los problemas asociados al proceso, se utiliza la herramienta conocida como Value Stream Mapping (VSM) o mapeo de la cadena de valor, debido a que autores como Nash y Poling (2008) han logrado concluir que esta técnica permite, a los stakeholders1 de una organización, visualizar y entender el proceso; además permite reconocer el valor, diferenciarlo del desperdicio y crear un plan de acción para eliminarlo dentro del proceso.



METODOLOGÍA

Una cadena de valor son todas las acciones (tanto de valor agregado como de no valor agregado) que se requiere para llevar un producto a través de los canales esenciales para hacer: 1. Que el producto fluya desde la materia prima hasta las manos del cliente. 2. Que se diseñe el flujo desde su concepto hasta su lanzamiento. Valor agregado: son todas aquellas operaciones de transforman el producto. Valor no agregado: son todas aquellas operaciones donde la materia prima no sufre alguna transformación. Michael Porter propuso el concepto de "cadena de valor" para identificar formas de generar más beneficio para el consumidor y con ello obtener ventaja competitiva. El instrumento más utilizado para realizar un análisis que permita extraer claras implicaciones estratégicas para el mejoramiento de las actividades con un enfoque de eficiencia y eficacia es la Cadena de Valor. El mapeo de la cadena de valor puede ser una herramienta de la planificación de empresas de la herramienta, de la comunicación y una herramienta para manejar su proceso del cambio. El mapeo de la cadena de valor es caminar y dibujar los pasos en los procesos del material e información por una familia del producto “puerta a puerta “. PASOS PARA MAPEO DE LA CADENA DE VALOR. 1. Dibuje los iconos del cliente, proveedor y control de producción. 2. Ingrese los requisitos del cliente por mes y por día. 3. Calcule la producción diaria y los requisitos de contenedores. 4. Dibuje el icono que sale de embarque al cliente y el camión con la frecuencia de entrega. 5. Dibuje el icono que entra a recibo, el camión y la frecuencia de entrega. 6. Agregue las cajas de los procesos en secuencia, de izquierda a derecha. 7. Agregue las cajas de datos abajo de cada proceso. 8. Agregue las flechas de comunicación y anote los métodos y frecuencias. 9. Obtenga los datos de los procesos y agréguelos a las cajas de datos. Obsérvelos directamente todo el tiempo. 10. Agregue los símbolos y el número de los operadores. 11. Agregue los sitios de inventario y nivele en días de demanda y el gráfico más abajo. 12. Agregue las flechas de empuje, de jalar y de primeras entradas primeras salidas. 13. Agregue otra información que pueda ser útil. 14. Agregue las horas de trabajo. 15. Agregue el tiempo de ciclo y el tiempo de procesamiento. 16. Calcule el tiempo de ciclo total y el tiempo total de procesamiento.


CONCLUSIONES

El Análisis de la Cadena de Valor es una herramienta gerencial para identificar fuentes de Ventaja Competitiva, el propósito de analizar la cadena de valor es identificar aquellas actividades de la empresa que pudieran aportarle una ventaja competitiva potencial. Poder aprovechar esas oportunidades dependerá de la capacidad de la empresa para desarrollar a lo largo de la cadena de valor y mejor que sus competidores, aquellas actividades competitivas cruciales. Como sabemos es una herramienta fundamental en Lean Manufacturing, pero necesita de una inversión de tiempo para realizarlo y como se había dicho si no se aplica correctamente puede ser una pérdida de tiempo, requiere de alguien que conozca perfectamente VSM y de la colaboración e involucración de operarios y jefes de equipo.
Martinez Gonzalez Obed Noe, Universidad Politécnica de Tecámac
Asesor: Mtra. Graciela Margarita Cetina Quijano, Universidad Politécnica de Tecámac

PLATAFORMA PARA EL PROCESO DE EVALUACIóN DE ESTUDIANTES EN EDUCACIóN DUAL, DESARROLLADA CON PHP, HTML5, CSS3 Y JAVASCRIPT PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC


PLATAFORMA PARA EL PROCESO DE EVALUACIóN DE ESTUDIANTES EN EDUCACIóN DUAL, DESARROLLADA CON PHP, HTML5, CSS3 Y JAVASCRIPT PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC

Cabrera Sanchez Itzel, Universidad Politécnica de Tecámac. Gómez Monroy Luis Alberto, Universidad Politécnica de Tecámac. Ledesma López Andrea Guadalupe, Universidad Politécnica de Tecámac. Martinez Gonzalez Obed Noe, Universidad Politécnica de Tecámac. Asesor: Mtra. Graciela Margarita Cetina Quijano, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la gestión del Sistema Dual en la Universidad Politécnica de Tecámac, la cual es una opción educativa, en la que los estudiantes reciben, de manera alternada, formación teórica en los planteles educativos y formación práctica en las empresas, con la finalidad de facilitar la inserción de los egresados en el ámbito laboral. Sin embargo, la plataforma que se usa actualmente es independiente de la universidad, por lo que sólo permite dar de alta a los estudiantes y no llevar un seguimiento de su desempeño académico y dentro de la empresa. En el año 2015 la Educación Dual comenzó a tener su auge en la educación media superior y superior, su finalidad es cualificar profesionalmente a personas trabajadoras en un régimen de alternancia, que combina la formación de los alumnos en el centro educativo y la formación en la empresa, integrando al estudiante en la empresa para desarrollar sus competencias profesionales, al tiempo que desarrolla competencias genéricas y disciplinares a fin de lograr una educación integral. El principal problema a resolver durante la investigación, fue lograr diseñar y crear un sistema que cumpliera todas las necesidades, que fueron requeridas por nuestro asesor empresarial, y una vez comenzado el desarrollo, ir resolviendo las dudas y problemáticas que se iban presentando al momento de la codificación del sistema.



METODOLOGÍA

El proyecto se realizó en el lenguaje de programación PHP el cual está destinado para el desarrollo web, con el uso del espacio de trabajo, mejor conocido como framework, Laravel. La plataforma está diseñada en base a la arquitectura de software; Modelo Vista Controlador, la cual separa los datos de una aplicación, la interfaz de usuario y la lógica de control. El modelo contiene una representación de los datos que maneja el sistema, en el caso de la vista, es la encargada de proporcionar la información enviada al cliente y el controlador actúa como intermediario entre los dos anteriores. Por ejemplo, para el llenado del formulario de inicio de sesión del estudiante, este usuario ingresa sus datos en la vista y da clic en un botón, por medio de este , la plataforma realiza una petición al controlador y este a su vez por medio del modelo busca los datos del usuario y verifica que sean compatibles con alguno registrado en la base de datos, si la consulta es exitosa, el controlador retornará una respuesta positiva a la vista, en este caso, lo dejaría entrar a su perfil personal, en caso de que no se encuentren los datos, el controlador lanzará una respuesta de error, que se visualizará en la misma vista de inicio de sesión. Para del Front-end, es decir, la interfaz gráfica de la plataforma utilizamos el lenguaje HTML5 el cual nos permite estructurar y presentar el contenido web, nos apoyamos de las Hojas de Estilo en Cascada, CSS3, para mayores detalles de diseño, como colores y tamaños en los elementos de la cada página, así como del framework Bootstrap, el cuál es una biblioteca de código abierto para el diseño de sitios web que contiene plantillas para formularios, botones, menús, entre otros elementos. Del mismo modo utilizamos el lenguaje de programación JavaScript para el diseño de tablas que permitan al usuario visualizar información importante, como lista de tareas, lista de becarios, biblioteca de archivos, registro de asistencia, por mencionar algunos. Sin embargo, JavaScript no sólo lo utilizamos para el diseño, también nos permitió establecer vínculo con el Sistema Único de Información Escolar de la Universidad Politécnica de Tecámac (SUIE), por medio de peticiones para la obtención de información que ayudara a abastecer la Plataforma de Evaluación de Estudiantes en Educación Dual, principalmente los catálogos de estudiantes, docentes, materias, cuatrimestres, carreras, áreas, plan educativo e inscripciones, con la finalidad de no repetir la captura de datos para la plataforma.


CONCLUSIONES

Durante nuestra participación en este verano virtual, logramos obtener un mejor conocimiento tanto de manera personal, pues el hecho de poder convivir con nuestro investigador de una manera mas personal para mejorar nuestro ser, así como el poder aprender nuevas tecnologías de desarrollo de proyectos y convivir con profesores que manejen estas mismas, teniendo asesorías de calidad. Logrando concluir que se espera lograr un impulso en nuestro plantel sobre estos sistemas, logrando una automatización de todos los sistemas posibles hasta ahora.  Se seguira dando seguimiento a este trabajo de investigación con la finalidad de obtener los mejores resultados y estos sean de calidad.
Martinez Gutierrez Gilberto Rene, Instituto Tecnológico de Colima
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DISEñO Y SIMULACIóN DE UN ANIMATRóNICO TIPO NARRADOR CONTROLADO MEDIANTE TARJETA DE DESARROLLO


DISEñO Y SIMULACIóN DE UN ANIMATRóNICO TIPO NARRADOR CONTROLADO MEDIANTE TARJETA DE DESARROLLO

González Moreno Sergio, Instituto Tecnológico Superior de Huauchinango. Martinez Gutierrez Gilberto Rene, Instituto Tecnológico de Colima. Ramírez García David, Instituto Tecnológico de Colima. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La animatrónica es una técnica que recrea el movimiento de seres vivos aprovechando los recursos técnicos que brinda la ingeniería y robótica, estos seres mecánicos son controlados y alimentados externamente. Se entiende como un intento de imitación de los seres vivos, figuras animadas en tres dimensiones, ya sea un humano o un animal y, usualmente, del tamaño real. En algunos casos, los animatrónicos podemos ver que se implementan en un ámbito académico cuyo objetivo principal está orientado hacia el desarrollo tecnológico. Pero en casi en todos tienen el propósito de entretenimiento siendo comúnmente empleados en la construcción de animales y criaturas de ciencia ficción para la industria cinematográfica, museos o en los zoológicos, dónde buscan exponer criaturas mitológicas o animales para imitar sus movimientos y comportamiento para el entretenimiento del público. La idea de este proyecto es diseñar y simular una figura animatrónica de grandes dimensiones que posea movimientos humanos muy similares con la ayuda de softwares de diseño CAD, empleando sistemas electrónicos y mecánicos para los movimientos de ojos, boca, cuello y brazos que serán realizados con mecanismos simples que serán controlados y programados a través una tarjeta de desarrollo Arduino nano. Además, con el fin de que el animatrónico se llamativo al público contará con un sistema de luces de leds RGB y humo artificial y un sistema de seguimiento vocal que sincroniza el movimiento de la boca con el sonido simulando así que el animatrónico hable.



METODOLOGÍA

Este trabajo se realizó en el Centro Universitario de los Valles de la Universidad de Guadalajara, México. Para el diseño del animatrónico se utilizó la metodología de desarrollo de productos descrita por Ulrich. Conceptualizar: a través de una lluvia de ideas se generaron los conceptos adecuados para que el animatrónico cumpliera con las siguientes características: llamativo, fácil de construir y fácil de implementar. Diseñar: Una vez definido todas las características del animatrónico, el diseño estará dividido en tres partes: mecánico, electrónico y control. Los cuales se desarrollaron en los softwares de diseño CAD SolidWorks versión 2018, Proteus 1.810 y IDE de Arduino respectivamente. Simular: Una vez terminadas las características y componentes de cada uno de los diseños, se realizaron simulaciones de cada uno de los sistemas en el mismo software donde fueron diseñados. Evaluación: para la parte de evaluación, se realizó un análisis de los resultados de la simulación para poder detectar algún detalle o error relevante para poder realizar los ajustes necesarios al diseño.


CONCLUSIONES

A partir de la conceptualización general se definió que el animatrónico estará compuesto principalmente por la cabeza y brazos, los cuales se colocarán sobre una base en la que contendrá los sistemas de control y de sonido. También el animatrónico contará con cinco movimientos principales, ojos, cejas, boca, cuello y brazos. Y para hacer que el animatrónico se más llamativo se decidió que el animatrónico tenga la capacidad de realizar un movimiento sincronizado de la boca con el sonido, simulando que el animatrónico esté hablando. Para que el animatrónico realice los movimientos de los ojos, boca y brazos decidimos utilizar actuadores lineales, ya que este dispositivo cuenta con un motor de corriente directa conectado a un tornillo sin fin, que dependiendo de la dirección del motor genera un movimiento lineal en el tornillo sin fin. Para el movimiento del cuello se decidió utilizar un motor bipolar nema 23, ya que este motor permite realizar un movimiento preciso y proporciona un alto torque. Y por último para el movimiento de las cejas se decidió utilizar microservos. Se procedió a realizar los diseños necesarios para los mecanismos de la cabeza, cuello y brazos, así también la estructura para la base, todo esto desarrollado a través del software SolidWorks. Después se procedió a realizar el diseño electrónico y tarjetas PCB para el control de los movimientos a través del software Proteus. Para la parte de control se desarrollo un diagrama de flujo del comportamiento del animatrónico que fue programado a través del entorno de desarrollo integrado (IDE) de Arduino. Una vez realizados los diseños se procedió a realizar las simulaciones, tanto de funcionamiento como de resistencia mecánica. En las simulaciones de resistencia mecánica ponemos aprueba el diseño mecánico del animatrónico bajo vectores de fuerzas representando la carga de los componentes que lo constituyen. Se analizó la deformación total de cada uno de los elementos críticos que lo conforman como: el eje principal, cabeza y base. Además de asegurarnos en cumplir con un factor de seguridad por arriba de 3. Toda esta simulación fue realizada en el software SolidWorks. Para las simulaciones de funcionamiento se puso a prueba el diseño electrónico y de control a través del software Proteus, utilizando el microcontrolador Atmega328p de la tarjeta de desarrollo Arduino nano, representando cada uno de los componentes del animatrónico. Los resultados de la simulación dieron la posibilidad de corregir unos detalles de diseño electrónico y de control, para poder obtener un resultado más satisfactorio. Para concluir, se obtuvo un diseño un animatrónico con aspectos humanos, logrando que los mecanismos recrearan movimientos propuestos, también se logró controlar por medio de sistemas electrónicos dichos mecanismos con el desarrollo de tarjetas de control y programación. Se planea perfeccionar los detalles estéticos del animatrónico, también se pretende implementar un sistema de proyección holográfico de imágenes y videos para elevar el impacto visual en el prototipo asiendo más atractivo para poder implementar este animatrónico en presentaciones demostrativas o incluso temáticas, estas últimas alusivas a tradiciones mexicanas con la simple razón de presentar el trabajo realizado.
Martinez Hernandez Abelardo, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez

IMPLEMENTACIóN Y ANáLISIS DE ALGORITMOS DE INTELIGENCIA ARTIFICIAL PARA EL ANáLISIS DE UN GRUPO DE ROVS ASOCIADOS AL SISTEMA DE PREVENCIóN Y REPARACIóN DE FUGAS DE HIDROCARBUROS DEL GOLFO DE MéXICO.


IMPLEMENTACIóN Y ANáLISIS DE ALGORITMOS DE INTELIGENCIA ARTIFICIAL PARA EL ANáLISIS DE UN GRUPO DE ROVS ASOCIADOS AL SISTEMA DE PREVENCIóN Y REPARACIóN DE FUGAS DE HIDROCARBUROS DEL GOLFO DE MéXICO.

Martinez Hernandez Abelardo, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La contaminación por hidrocarburos se produce por su liberación accidental o intencionada en el ambiente, provocando efectos adversos sobre el hombre y el medio, directa o indirectamente. Según el científico del centro de investigación ecológico occidental de USGS Tomas H. Suchanek, quien completo recientemente un proyecto de impactos climáticos cree que la mayor parte de la contaminación por petróleo en el mundo se debe a las perdidas naturales o infiltración en un 46%, mientras que un 37% de la contaminación por hidrocarburos se debe a que el aceite se libera en los océanos. Mucho de esto es debido a un mantenimiento de rutina en los barcos que están en el mar, un 12% de la contaminación por petróleo en el mundo se debe a accidentes como los derrames que se producen en las plataformas petrolíferas en alta mar, mientras que la extracción de petróleo aporta alrededor de un 3% de la contaminación de hidrocarburos en el mundo, el 2% restante es el resultado de aceite mezclado con el agua de lluvia entre en el sistema de alcantarillado antes de desembocar en el mar. Los robots submarinos autónomos (ROVs) han revolucionado la exploración del fondo marino. Por otro lado, estos robots han permitido realizar operaciones en aguas profundas sin la necesidad de enviar un vehículo tripulado por humanos, vigilar la distribución del petróleo, así como la fuga de hidrocarburos y reparación de ellos.



METODOLOGÍA

Su utilizaron un grupo de ROVs para simular la vigilancia de fugas marítimas en la distribución de petróleo en escenarios subacuáticos, cada ROV está equipado con dos brazos y 2 cámaras de video, donde se verifica la trayectoria de los movimientos de cada ROV para el cierre de la válvula donde se encuentre la fuga. El diseño de este sistema permite que el usuario aprenda a usar y controlar un ROV en el entorno virtual, dirigiendo el mismo a un punto especifico con la presencia de problemas. Para el control del ROV se simulan las corrientes marinas, para simular el manejo en estado real. Para encontrar la forma más adecuada y optima de la reparación de una fuga submarina de hidrocarburos se compararon metaheurísticas de inteligencia artificial tales como el algoritmo de búsqueda de la armonía (HSA), Inteligencia de cohorte (IC) Y el algoritmo de optimización de ballenas (WOA). La inteligencia de cohorte, un comportamiento de aprendizaje auto supervisado en donde el aprendizaje se refiere al esfuerzo de un candidato de la cohorte para auto supervisar su comportamiento y adaptarse aún más al comportamiento de otro candidato, se observó que se puede tener éxito con este algoritmo cuando durante un numero considerable de veces el comportamiento de la cohorte se satura con el mismo comportamiento. El algoritmo de optimización de ballenas imita el comportamiento social de las ballenas jorobadas, este algoritmo esta inspirado en la estrategia de caza de la red burbuja, en donde se analizaron 29 funciones matemáticas de referencia para la exploración, explotación, comportamiento de evasión de óptimos locales y de convergencia del algoritmo. Para estudiar el algoritmo de búsqueda de la armonía (HSA) aplicada al grupo de ROVs se analizó la base de datos del algoritmo para ello se instaló y ejecuto el programa MySQL un software de código abierto en donde logramos interpretar la base de datos del código que tiene este grupo de ROVs con esta metaheurística. Para poder ver el ambiente virtual de este grupo de ROVs con la metaheurística de búsqueda de la armonía (HSA) se instaló el software Unity 2018.4.24, con esa versión ya que con esa podríamos abrir nuestro archivo y poder ejecutarlo, analizamos el ambiente y la manera de cómo se comporta cada ROV y la manera de operar de esta metaheurística. Para el análisis de las metaheurísticas se utilizó el software R, su entorno y su lenguaje de programación está diseñado para el análisis estadístico, la ello se realizó un curso en línea para aprender a usar este software, ya que nunca lo había usado y saberlo usar o entender nos ayudaría a ser todo más fácil. Verificamos y modificamos el código del algoritmo por los algoritmos nuevos en donde cambiamos el nombre de la metaheurística, manipulamos los parámetros, una y otra vez para obtener resultados óptimos, analizamos los componentes a través de la traficación de la función (X) y para la proximidad al optimo (Y), contrastamos los resultados y determinamos que el algoritmo WOA es el más viable para nuestro grupo de ROVs.


CONCLUSIONES

Durante mi estancia pude comprender que es la inteligencia artificial, donde conocí un problema real y con ayuda de simuladores y softwares logre interpretar los datos, conocí algoritmos de inteligencia artificial, donde pude entender cada uno de ellos, así como relacionarlos y ver en donde serian aplicados, en el caso de los ROVs  que se utilizan y simulan para la reparación de fugas de hidrocarburos determinamos que la metaheurística más viable era de la WOA, aunque por el tiempo muy corto podríamos seguir analizando y comparando de una mejor manera las metaheurísticas, cuando esté realizando algún proyecto en mi institución académica pueda aplicar los conocimientos aquí aprendidos.
Martínez Ibarra Leonardo David, Instituto Politécnico Nacional
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

RECONOCIMIENTO Y CLASIFICACIóN DE CéLULAS CON LEUCEMIA LINFOCíTICA AGUDA


RECONOCIMIENTO Y CLASIFICACIóN DE CéLULAS CON LEUCEMIA LINFOCíTICA AGUDA

Martínez Ibarra Leonardo David, Instituto Politécnico Nacional. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El objetivo es el desarrollo de un sistema de visión artificial, que reconoce los núcleos de las células infectadas por leucemia linfocítica aguda, los cuales que se detectan con el objetivo de poder ser clasificados en las tres clases, que según la FAB, son L1, L2 y L2. Con este sistema se puede ofrecer una forma de automatizar este proceso de clasificación.



METODOLOGÍA

El modelo del sistema propuesto, para realizar la identificación y clasificación de las células infectadas, consta de 5 etapas: Preprocesamiento, segmentación, Extracción de características, Normalización y clasificación. 


CONCLUSIONES

La clasificación con una red neuronal MLP, fue exitosa teniendo un promedio de porcentaje de presición en prueba, para el caso más alto, de 96.7%, en el caso de mayor exito se tuvo un porcentaje de presición del 98.87%. Se puede concluir que con ese sistema se logro el objetivo de reconocer y clasifiar las células infectas con LLA.
Martínez López Carlos Eliel, Instituto Politécnico Nacional
Asesor: M.C. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas

MORTERO FUNCIONAL PARA LA CONSTRUCCIóN CON TIERRA: PRUEBAS DE REMOCIóN DE ION CLORURO


MORTERO FUNCIONAL PARA LA CONSTRUCCIóN CON TIERRA: PRUEBAS DE REMOCIóN DE ION CLORURO

Martínez López Carlos Eliel, Instituto Politécnico Nacional. Padilla Muñoz Karen Dali, Universidad Autónoma de Sinaloa. Santin Olivares Daniela Xcanleox, Instituto Politécnico Nacional. Asesor: M.C. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

​La construcción con tierra es una técnica que está tomando relevancia en la época actual debido a las condiciones de contaminación inherentes a la construcción denominada tradicional con concreto y acero. Este tipo de construcciones tienden a aplicar técnicas modernas de estabilización de los materiales para aumentar su vida útil o su resistencia mecánica. Además, se ha buscado cierta funcionalidad en los elementos constructivos, como mejoras en la conductividad térmica, aislamiento sonoro o reducción del crecimiento de microorganismos al interior de las viviendas. Con el fin de hacer prevalecer el uso de materiales orgánicos biodegradables, el reforzamiento y funcionalidad de estos materiales considera el uso de elementos de origen vegetal como fibras de diferentes plantas o la adición de extractos. En este trabajo, se realizó una prueba de interacción roca-fluido con el objetivo de analizar la capacidad de remoción del ion cloruro en núcleos de arena y su comparativo reforzado con cal y cemento, adicionando dos diferentes materiales de origen orgánico. El mucílago de nopal es un material empleado para mejorar la resistencia mecánica de los elementos constructivos con tierra y ha sido ampliamente estudiado en conjunto con otros elementos orgánicos. El extracto de rábano es un material que hasta ahora no ha sido empleado en la construcción pero que ha sido empleado en diferentes aplicaciones sobre todo en el área de la microbiología y uso de antioxidantes. En investigaciones previas se ha demostrado la capacidad del extracto de rábano y las antocianinas contenidas en el, para reducir la materia orgánica en cuerpos de agua, si eficacia como agente antimicrobiano, así como su capacidad de remoción del ion cloruro. El objetivo de esta investigación fue determinar si la adición del extracto de rábano en un mortero de tierra estabilizado con cal y cemento y reforzado con mucilago de nopal, logra tener interacción con los iones cloruro en medio acuoso.



METODOLOGÍA

En este trabajo, se empleó el sistema Home Lab(laboratorio en casa) para realizar pruebas de remoción de ion cloruro en medio acuoso a partir de mezclas salinas con cloruro de sodio en hasta 3500 ppm. El medio solido representativo constó de núcleos conformados como sigue: arena, arena + cal, arena + cemento y arena + cal + cemento. Adicionalmente se obtuvieron extractos de rábano y de mucilago de nopal. El mucílago de nopal se obtuvo por tratamiento térmico y licuefacción de nopal de consumo y el extracto de rábano se obtuvo por tratamiento ácido y licuefacción. El mucílago de nopal fue empleado como aglutinante en las mezclas y se variaron las adiciones de extracto de rábano para determinar su efecto en la interacción sólido-líquido. Los núcleos se prepararon con adiciones de 10, 20 y 30 mL de extracto de rábano y las pruebas de interacción se realizaron con agua destilada (como blanco) y mezclas salinas preparadas con 3500 ppm teóricas de cloruro de sodio (NaCl). Las pruebas de interacción se siguieron cada 10 minutos por periodos de 1 h y se determinó el contenido de sólidos disueltos totales (SDT) con sensor TDS portátil. El objetivo fue observar una disminución de las partes por millón de SDT a través del tiempo, con la hipótesis que la presencia del extracto de rábano y la porosidad del material promovería este efecto. Los resultados arrojaron que la presencia de cal y/o cemento en la mezcla promueve la adición de sólidos disueltos en la mezcla salina, que es lo contrario al efecto buscado. Además, en las pruebas de blanco, sin la presencia de ion cloruro, el efecto de interacción fue menor que en presencia de este ion, es decir, en agua sin NaCl la cantidad de SDT fue mucho menor que en el resto de las pruebas.


CONCLUSIONES

La idea original del proyecto era trazar la presencia del ion cloruro en el medio acuoso empleando el método de Mohr de titulación. Sin embargo, por las condiciones de pandemia, lo más viable fue dar seguimiento a los sólidos disueltos totales (ppm) presentes en dicho medio. Aunque los resultados no comprueban la hipótesis y no se logra el objetivo buscado, se puede concluir que efectivamente el material adicionado con mucilago de nopal y extracto de rábano presenta cierta interacción con los iones disueltos en el agua y que además, existe un comportamiento muy especifico que hasta el momento no puede referirse a la no remoción del ion cloruro, si no a la aparición de sólidos disueltos en el agua, que bien pueden deberse a la presencia de los materiales orgánicos o a la presencia misma de los agregados. Este trabajo debe concluirse aplicando la metodología del método de Mohr para verificar el comportamiento de la presencia de los iones cloruros y observar que es lo ocurre con estos iones presentes en el agua. Además, se debe completar la prueba realizando el análisis microbiológico para determinar si la propiedad antimicrobiana también se aprecia en este tipo de muestras y concretar la factibilidad del uso del extracto de rábano en morteros para interiores de vivienda. La idea principal del trabajo fue poder desarrollar evidencia de la capacidad de estos materiales para la remoción del ion cloruro y poder emplearlos en sistemas constructivos que se encuentran sometidos a ambientes salinos. Hasta ahora se puede abordar una idea general a partir de los resultados obtenidos: la presencia de agregados finos reduce la porosidad del material y por lo tanto reduce su capacidad de interacción por reducción de área superficial activa, sin embargo, la presencia de los agregados finos produce una evolución de los sólidos disueltos, lo que significa que puede existir un intercambio iónico fuerte que promueve la reducción y entrampamiento del ion cloruro en el material. Durante esta estancia de verano, los estudiantes fueron capaces de aplicar sus conocimientos en el área profesional para el desarrollo de elementos constructivos, desarrollaron además habilidades científico-tecnológicas para subsanar la necesidad de un laboratorio para el desarrollo de pruebas, lo cual es ideal para su extrapolación en la solución de problemas cotidianos en el área de la investigación.
Martínez Martell Sharon Yudith, Universidad Autónoma de Occidente
Asesor: Dra. Miriam Alejandra Carlos Mancilla, Universidad del Valle de México, Campus Guadalajara

HERRAMIENTA MULTIMEDIA PARA EL APRENDIZAJE INTERACTIVO CON IMPACTO EN LA EDUCACIóN 4.0 Y LA MECATRóNICA EDUCATIVA


HERRAMIENTA MULTIMEDIA PARA EL APRENDIZAJE INTERACTIVO CON IMPACTO EN LA EDUCACIóN 4.0 Y LA MECATRóNICA EDUCATIVA

Martínez Martell Sharon Yudith, Universidad Autónoma de Occidente. Asesor: Dra. Miriam Alejandra Carlos Mancilla, Universidad del Valle de México, Campus Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existe una problemática en la que los conocimientos y habilidades que requieren los alumnos para la industria 4.0 (I4.0) y con los que salen de la universidad tienen una brecha educacional que cada vez que hace más grande. Dentro de la inmensidad del internet se cuenta con múltiples herramientas e información que pueden llegar a confundir a los estudiantes entre lo que es cierto y lo que no; además de que no todas cuentan con una manera fácil de manejo para el usuario por lo que al momento de que este la use no termina el proceso que inició dándose por vencido al no ser capaz de comprender el uso de ella o simplemente no empieza un proceso dentro de la herramienta virtual ya sea porque es limitada o porque tiene costo.



METODOLOGÍA

De acuerdo a investigaciones previas respecto a las características para la elaboración de videos de Flipped Learning, que, aunque existen diversas metodologías para lograr este fin audiovisual, existe un proceso general independientemente de la metodología que se elija. La duración máxima de los videos, se recomienda, puede ser de hasta 8 minutos, y estos deben incluir imágenes y ejemplos de lo que se explica. La metodología del presente trabajo la metodología consistió de 6 pasos; el primero Investigación de Design Thinking y Flipped Learning, el segundo Elección de herramientas para crear y editar video, el tercero Elección de personajes, el cuarto Selección de imágenes y fotos de apoyo, el quinto Elaborar un guión y el sexto Crear el video, cada uno de ellos se detalla a continuación. 1.Investigación de Design Thinking y Flip Learning Para la investigación de estos temas las actividades realizadas se distribuyen en las siguientes. En distintas fuentes se realiza la lectura de información relacionada a Design Thinking, los pasos y el entendimiento de cada uno de ellos, así como de las actividades que la conforman. Se revisó el desarrollo de la plataforma SCOPPE(Smart City Oriented Project Planning and Evaluation). Se revisa de diversas fuentes la información relacionada con los temas y una vez obtenida se recopila en un documento de texto de Word. Se realiza un resumen de dicha información para seleccionar la más relevante y a utilizar dentro del proyecto. 2.Elección de herramienta para creación y edición de video Para comenzar con la creación del video mediante la metodología pedagógica de Flip Learning que explicara el proceso de la metodología de diseño y evaluación de proyectos llamada Design Thinking la primera de las tareas consistió en la comparativa de las herramientas disponibles en línea de edición de video.   Con los datos recopilados, nos topamos con que tenemos como mejor opción a PowToon gracias a sus ventajas sobre las otras herramientas. 3.Elección de personajes Para la elección de personajes las actividades fueron las que a continuación se muestran. Como acto primero se ve el catálogo gratuito de personajes de la herramienta de creación de video seleccionada y optamos por dos, un hombre y una mujer que representaran la diversidad de género. En el programa Word, se redacta un análisis, esta vez de los personajes escogidos. Cuando se terminó con lo anterior, lo siguiente fue escribir una historia de contexto de la vida de los personajes. 4.Selección de imágenes y/o fotos de apoyo para el video Para realizar esto, se comenzó por tomar capturas de pantalla de cada paso en SCOPPE para que sirvieran como ejemplificación en del video y estas se almacenaron para su posterior uso. Con el fin de complementar nuestra librería de imágenes procedimos a realizar búsqueda de imágenes gratuitas de Design Thinking en la plataforma de FlatIcon. 5.Elaborar guión de video En el programa de Word elaboramos un guión del video que nos sirvió de guía para: Redactar la información para la presentación de la plataforma, una introducción corta. Detallar la información con lo recabado en la investigación previa del DT y de la plataforma SCOPPE. Eliminar repeticiones o ambigüedades y señalar la participación de los personajes. 6.Creación del video En este paso, se seleccionan colores que combinen con la plataforma y se selecciona el fondo de escena; después se tomó el personaje que se necesitaba de acuerdo al guión respetando su participación. Para agregar el diálogo correspondiente del personaje se creó un cuadro de texto y se escribió en él lo correspondiente. Se escogió la animación para el texto, la pose del personaje, se importaron las imágenes necesarias, se agregaron transiciones, se ajustó la duración de las escenas y se eligió el audio.


CONCLUSIONES

Como resultado de este proyecto, se logró la creación de material multimedia por medio del principio de la metodología pedagógica de Flip Learning, y se han tenido buenos resultados para la implementación del video por medio de la plataforma SCOPPE. Se tuvo como contexto el de la I4.0, el de la pandemia COVID19, que es una realidad en nuestra sociedad y nos ha llevado hacia un aprendizaje diferente al acostumbrado convirtiéndose en uno no presencial, y a buscar brindar a los estudiantes de ingeniería un nivel de egreso que complete los requerimientos actuales de las empresas dentro de la cuarta revolución industrial. Los temas claves para el desarrollo de este proyecto fueron la Educación 4.0 que se dio a partir de la necesidad de que la enseñanza cumpliera con las necesidades laborales de los ingenieros dentro de la I4.0, la mecatrónica educativa como sucesor de la robótica educativa y parte crucial de la cuarta revolución industrial, y la metodología pedagógica Flipped Learning como pieza fundamental en la creación de una herramienta digital que apoye en el proceso de uso de la plataforma SCOPPE y la metodología para el diseño y desarrollo de proyecto de Design Thinking, que se vieron relacionados al grado de que con lo descrito a lo largo del presente se vio logrado el objetivo inicial para que el usuario cuente con herramientas y material autodidacta y pueda aprender de manera autónoma.
Martínez Medina Noe, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

REALCALINIZACION DE ESTRUCTURAS DE CONCRETO CARBONATADAS


REALCALINIZACION DE ESTRUCTURAS DE CONCRETO CARBONATADAS

Martínez Medina Noe, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

La corrosión de la armadura es un proceso electroquímico en el cual se da la formación de una pila de corrosión, donde en la región anódica ocurre la oxidación del hierro y en la región catódica la reducción del oxígeno. El proceso conduce a la formación de óxidos e hidróxidos de hierro color marrón, con un volumen superior al del metal de origen, que lleva a la aparición de tensiones internas en el concreto, lo que puede ocasionar manchas en la superficie del concreto, "fisuración" con posterior desprendimiento del recubrimiento, reducción de la sección de las armaduras principales y el concreto, con la consecuente disminución de la capacidad portante de la estructura. Podemos describir que la corrosión es ocasionada entonces por dos fenómenos que se presentan en cualquier tipo de construcción y para esto nos basamos en obras costeras como puentes, puertos, carreteras etc., y construcciones en zonas industrializadas. El ataque por cloruros se caracteriza por ser más dañino, ya que hace más rápido el trabajo de corrosión en una armadura y se caracteriza de estructuras cercanas al mar por los fenómenos que penetran en estas obras como iones cloruro. Por otro lado, la corrosión por efecto de la carbonatación se manifiesta en forma generalizada y puede ocurrir en estructuras localizadas en cualquier zona geográfica, pero tienen mayor impacto en aquellas zonas urbanas donde se tiene un alto impacto de gases como dióxido de carbono y sus contaminantes. Cuando la corrosión por carbonatación aparece y afecta la estructura, el procedimiento convencional de reparación implica que se retire el concreto carbonatado y la posterior colocación de un mortero o concreto de reparación. Puede ser nocivo para los trabajadores, y el ambiente, es costoso y no garantiza la repasivación del acero, ya que se promueve la aparición de zonas anódicas y catódicas que facilitan el resurgimiento de la corrosión La realcalinización electroquímica (RAE) surge como técnica capaz de recuperar esa alcalinidad pérdidadurante la carbonatación. Es decir, el aumento de pH del concreto podría conducir a una repasivación de la armadura, disminuyendo por ende su velocidad de corrosión. Su aplicación se considera de carácter temporal ya que el tratamiento puede hacerse desde los 3 hasta los 21 días, se aplica un campo eléctrico formando una celda electroquímica con un metal inerte (ánodo) y el acero (cátodo) y un electrolito básico (un valor de pH alto).



METODOLOGÍA

Para una correcta realcalinización o extracción de los cloruros deben tenerse en cuenta, según la técnica empleada, muchos aspectos y variables tanto del hormigón tales como el cemento que lo compone y su cantidad, como de la propia armadura que se está viendo sometida al efecto de la corrosión, tales como su recubrimiento, su disposición, diámetro, densidad de armado, etc Actualmente este proceso cuenta con varias patentes con métodos operativos. Las limitaciones principales de aplicación de la realcalinización son: su coste y la necesidad de que todas las superficies tratadas queden expuestas durante el tratamiento. Se puede (y suele) aplicar junto a otro proceso: el de extracción de cloruros.   El funcionamiento se basa en generar un elemento anódico (armadura de aporte en la superficie del hormigón) y uno catódico (armaduras existentes) y aplicarle una corriente que se desplaza de un polo a otro a través del hormigón. El paso de la corriente a través del hormigón entre el dispositivo y las armaduras provoca lo que se conoce como electromigración.   Para aplicar este tratamiento se debe contar con una superficie de hormigón expuesta y libre de revestimientos, materiales extraños o zonas sueltas que limiten el paso de corriente o produzcan su corte La zona a tratar debe contar con continuidad eléctrica en las armaduras. Esta se comprueba mediante el uso del ohmiómetro. Se resuelve la falta de continuidad aplicando puentes eléctricos generalmente con la adición de piezas metálicas unidas con soldadura. Posteriormente se crea exteriormente una red anódica mediante un mallazo metálico. Hay que tener en cuenta que durante el proceso esta red exterior se va a corroer, lo que puede generar daños estéticos en la superficie. Para hormigones vistos se utilizan mallas de titanio activado que no sufren corrosión. No deben producirse uniones entre cátodo y ánodo pues se crearían cortocircuitos. Se aplica la corriente en densidades que oscilan entre los 1 y 2 A/m2 en superficies inferiores a 100 m2 y en periodos de 3 a 15 días.   Los componentes para la aplicación de la técnica son los siguientes: Un electrolito que puede ser carbonato de potasio (K2CO3) o carbonato de sodio (Na2CO3). Una fuente de corriente directa. Un ánodo externo provisional Al aplicar la RAE la varilla actúa como cátodo, generando iones hidroxilos debido a las reacciones catódicas, y el ánodo externo cierra el circuito (malla de acero inoxidable o de titanio), logrando valores de pH, incluso superiores a 11.5, dependiendo las condiciones de la estructura.  


CONCLUSIONES

La realcalinización electroquímica extiende la vida residual de una estructura de concreto reforzado carbonatado para distintos niveles de degradación del acero por corrosión. La realcalinizacion se considera una técnica efectiva de acuerdo a los criterios que rige NACE SPO 107- 2007 en términos de eficacia. Sin embargo, en la norma no se menciona en qué nivel de degradación se encuentra el acero de refuerzo al momento de definir la aplicación de la RAE. La RAE hace hincapié en la importancia de crear, mantener y difundir una cultura de inspección y mantenimiento rutinario de las estructuras (cada vez más aceptada y aplicada en la ingeniería civil), en la que un diagnóstico completo se debe desarrollar con el fin de tener un control y planificar la intervención de la aplicación de la RAE, aceptando la frase de que ¨la mejor intervención para una recuperación de la estructura, es la que no es necesaria realizar¨
Martínez Mendoza José Antonio, Instituto Tecnológico de Morelia
Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia

COMPENSACIóN DE LA POTENCIA REACTIVA DE UN SISTEMA FOTOVOLTAICO CONECTADO A LA RED MEDIANTE UN COMPENSADOR TCR-FC


COMPENSACIóN DE LA POTENCIA REACTIVA DE UN SISTEMA FOTOVOLTAICO CONECTADO A LA RED MEDIANTE UN COMPENSADOR TCR-FC

Martínez Mendoza José Antonio, Instituto Tecnológico de Morelia. Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La constante necesidad de las industrias por implementar tecnologías de generación eléctrica renovables las ha llevado a optar por instalaciones fotovoltaicas debido factores como su abundancia, bajo mantenimiento, operación silenciosa, costo nulo de la energía de entrada, entre otros. No obstante, esta transición hacia las energías renovables no debe llevarse a cabo a costa de la pérdida de la calidad de la energía, ya que esto ocasionaría mayores perjuicios hacia la industria. Una buena calidad de la energía es el factor más importante para obtener el mejor desempeño en materia de ingeniería eléctrica. Uno de los problemas más comunes de la calidad de la energía es el control del factor de potencia, el cual depende del tipo de cargas que se está alimentando. En las empresas e industrias las cargas generalmente son de naturaleza inductiva, las cuales ocasionan una disminución del factor de potencia. Un bajo factor de potencia ocasiona una mala calidad de la energía consumida, lo que resulta en varios problemas como son pérdidas de energía, daño a equipos conectados en la red y penalizaciones económicas. El factor de potencia se puede corregir mediante una compensación de la potencia reactiva que se consume.



METODOLOGÍA

Para solucionar la problemática, se llevó a cabo el diseño de una instalación fotovoltaica conectada a la red así como de un compensador de potencia reactiva de tipo reactor controlado por tiristores con capacitor fijo para utilizarlo en el control del factor de potencia de esta instalación mediante simulaciones bajo diversos casos de estudio. Previo al diseño de la instalación y a las simulaciones, se realizaron las siguientes investigaciones: - El principio de funcionamiento de la energía fotovoltaica, así como de los componentes necesarios en una instalación fotovoltaica y los tipos que existen. - La teoría acerca de los convertidores de electrónica de potencia necesarios para acondicionar la energía eléctrica generada de los paneles fotovoltaicos. - Los compensadores estáticos de potencia e investigar la teoría que los sustenta, especialmente del compensador TCR-FC. Una vez realizada la investigación, se diseñó la instalación fotovoltaica, la cual cuenta con los siguientes datos:  Voltaje de salida de los paneles = 1548 Vcd. Potencia de paneles = 5 MW. Voltaje de salida del convertidor Boost = 3000 Vcd. Voltaje de salida del inversor y del sistema = 1060 Vrms (f-f). Frecuencia del sistema = 60 Hz. Se realizó la compensación de cargas inductivar y capacitivas, y en cada carga se realizaron 2 casos de estudio. En el caso 1 se llevó a cabo la compensación con el sistema fotovoltaico desactivado, donde la carga se alimenta únicamente de la red eléctrica. En el caso 2 se llevó a cabo la compensación donde el sistema fotovoltaico y la red eléctrica alimentan a la carga de manera interconectada. Los datos de las cargas y del TCR-FC son los siguientes: - Carga inductiva: 4.6 MW (3f), 4.6 MVAR (3f), fp 0.707 (-). - Carga capacitiva: 4.6 MW (3f), -4.6 MVAR (3f), fp 0.707 (+). - Rango de compensación del TCR-FC: 5 MVAR (3f) -- -5 MVAR (3f). Los resultados de la simulación son los siguientes:  - Carga inductiva. El ángulo de disparo del TCR-FC = 153.5522°. -- Caso 1. Q(comp) = -1.55 MVAR (1f). FP = 0.9999. Q(carga) = -17.02 kVAR (1f). P(red) = 4.606 MW (3f). Q(red) = -51.05 kVAR (3f). -- Caso 2. Q(comp) = -1.55 MVAR (1f). FP = 0.9999. Q(carga) = -17.02 kVAR (1f). P(red) = -185.2 kW (3f). Q(red) = -65.36 kVAR (3f). P(fotov) = 4.786 MW (3f). Q(fotov) = 0. - Carga capacitiva. El ángulo de disparo del TCR-FC = 91.8006°. -- Caso 1. Q(comp) = 1.437 MVAR (1f). FP = 0.9981. Q(carga) = -96.71 kVAR (1f). P(red) = 4.679 MW (3f). Q(red) = -285 kVAR (3f). -- Caso 2. Q(comp) = 1.559 MVAR (1f). FP = 0.9981. Q(carga) = -96.71 kVAR (1f). P(red) = 207.4 kW (3f). Q(red) = -308.6 kVAR (3f). P(fotov) = 4.474 MW (3f). Q(fotov) = -244.2 VAR (3f).    


CONCLUSIONES

El TCR-FC es un compensador capaz de compensar tanto potencia reactiva en atraso como potencia reactiva en adelanto, y este puede ser utilizado tanto en instalaciones conectadas a la red, como en instalaciones donde se tengan sistemas fotovoltáicos sin ningún problema. En los dos casos de estudio de ambas cargas, inductiva y capacitiva, se logró obtener un factor de potencia muy cercano a la unidad, compensando así la potencia reactiva de la instalación eléctrica. Mediante esta compensación, el sistema eléctrico que alimenta a la carga únicamente debe proveer de la potencia activa demandada por la carga. Un sistema fotovoltaico es capaz de suministrar la potencia activa necesaria para alimentar a la carga sin necesidad de demandarla de la red eléctrica externa.  Además, se pudo observar que toda la potencia activa sobrante generada por el sistema fotovoltaico fué suministrada a la red eléctrica. De esta manera, se consiguió tener una instalación eléctrica donde la demanda de potencia activa de la carga es suministrada en su totalidad por el sistema fotovoltaico mientras que la demanda de potencia reactiva es compensada casi en su totalidad por el compensador TCR-FC.
Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora

APLICACIóN DE UN DISEñO INSTRUCCIONAL BASADO EN UN MODELO CONSTRUCTIVISTA QUE MEJORE EL RENDIMIENTO ACADéMICO EN EL TECNOLóGICO DE ZAMORA


APLICACIóN DE UN DISEñO INSTRUCCIONAL BASADO EN UN MODELO CONSTRUCTIVISTA QUE MEJORE EL RENDIMIENTO ACADéMICO EN EL TECNOLóGICO DE ZAMORA

Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán. Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán. Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán. Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Hoy en día los avances en la tecnología de la comunicación han producido cambios muy significativos en la educación tradicional. Un gran número de instituciones educativas están ofreciendo aprendizaje a distancia o virtual a través del internet. Ahora estos docentes se enfrentan con el reto de cambiar el diseño instruccional tradicional para que sus cursos sean efectivos en línea. En el Instituto Tecnológico de Estudios Superiores de Zamora, normalmente cada docente tiene sus propios cursos en diversas plataformas virtuales, sin embargo, no se cuenta con un diseño instruccional que permita estandarizar las actividades que se pretenden y que el curso contenga todo lo necesario para que el estudiante aprenda. Los cursos no presentan el uso de diferentes actividades que proporciona la plataforma utilizada. Las reducidas actividades que actualmente proporcionan los profesores de estos cursos virtuales no promueven la característica principal del constructivismo social que es la de relacionarse socialmente para aprender. Esto a pesar de que el modelo educativo basado en competencias se fundamenta en la teoría constructivista.



METODOLOGÍA

Esta investigación es de tipo experimental. El proceso secuencial se efectuaría de la siguiente manera: Investigación documental. Técnicas de investigación de campo. Recopilación de la información. Análisis de la información obtenida. Interpretación de la información obtenida. Conclusiones y recomendaciones. Definir los resultados obtenidos. Determinar las causas y los efectos de dichos resultados. Precisar la alternativa más conveniente. Reporte final de investigación. Metas: A corto plazo se pretende aplicar el diseño instruccional en una clase con un grupo ya formado para llevarlo a cabo como una prueba piloto, se presentará al estudiante los temas y subtemas que contiene alguna unidad y se describirá la importancia de la misma. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. A mediano plazo se implementará en una materia completa, en donde cada unidad contenga todos los elementos del diseño instruccional constructivista. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. A largo plazo se implementará en una carrera, en donde todas las asignaturas cuenten con el diseño instruccional constructivista, de igual forma se emplea con los anteriores, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. Finalmente, se incluirá, cómo se llevaron a cabo las actividades de aprendizaje, Éstas se realizarán a través de las actividades que proporciona Moodle como son: wikis, diario, glosario, cuestionario, encuesta, tareas, foros, crucigramas y chat. 


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos acerca del diseño instruccional basado en un modelo constructivista y poner en práctica esos conocimientos tomando el rol de profesores, donde nos dimos cuenta que la labor de un docente no es nada fácil, tienen que pasar por una etapa de organización demasiado detallada para que todo cuadre a lo largo de lo que se imparte la materia, además de cumplir con los objetivos de la asignatura a base de las actividades que se van dejando. También aprendimos a utilizar las plataformas virtuales con Sway, para apoyarnos en presentaciones dinámicas y Educaplay para actividades interactivas. ---Andrea Guadalupe Rosas Miranda   La educación en línea tomó por sorpresa a muchos, pensando en esto, se realizó una plantilla de diseño instruccional constructivista, la cual, estandariza la manera en la que el docente impartiría sus clases, es importante que los estudiantes se instruyan de manera efectiva y dinámica, estimulándolos a la investigación, proporcionándoles la inquietud y el interés por aprender cosas nuevas, por lo que se propusieron actividades de aprendizaje con distintas plataformas virtuales, entre ellas: Moodle, Genially, Sway, Visual Paradigm, Educaplay, Zoom, Meet Google, entre otras. Algunos docentes todavía son tradicionales en su forma de enseñanza y como estudiantes, a veces no nos percatamos del esfuerzo y dedicación de nuestros profesores, el tomar el papel de docente en esta investigación nos hizo valorar aún más dicha profesión, que dicta de la paciencia y el entusiasmo de enseñar. ---María José Carrillo Núñez   Mi participación en el programa Delfín, sin duda alguna fue de las mejores experiencias que he tenido, porque he aprendido a trabajar en equipo de una mejor manera. Los conocimientos que adquirí fue el trabajar mediante un modelo constructivista para acoplar una página, en la cual los estudiantes puedan tomar clases de manera virtual, de forma más sencilla, ordenada y didáctica. Sin dejar de lado la experiencia de trabajar de manera virtual en el desarrollo de este proyecto, ya que fue un verdadero reto, debido a que se presentaron muchos inconvenientes como fallas con el internet, entre otras cosas, que hicieron un poco más complicado el desarrollo del proyecto, aunque no imposible. ---Verónica Guadalupe Martínez Mora   Jamás tuve experiencia relacionada con elaborar contenido educativo en las ya conocidas plataformas virtuales, como estudiante únicamente estaba del lado de tener que introducirme a nuevas plataformas. Realizando mi estancia me percaté que tenía que utilizar un lenguaje para el desarrollo de páginas web; que es una asignatura que vi en mi carrera. Comprendí que ser docente no es simple, que con los límites que nos impidan asistir a la escuela, aún así, los docentes tienen que adaptarse y aprender a utilizar estas tecnologías para seguir enseñándole a sus alumnos. Mi punto de vista sobre las plataformas virtuales y el docente cambiaron considerablemente, fue algo que admiré mucho y que estaría dispuesto a hacer si en algún momento a mí también me toca compartir mis conocimientos. ---Fermín Lara Chávez      
Martínez Muñoz Elena Rubí, Instituto Tecnológico de Tepic
Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango

OPTIMIZACIÓN Y CONTROL DEL PROCESO DE MOLIENDA EN EL ÁREA DE PINTURAS


OPTIMIZACIÓN Y CONTROL DEL PROCESO DE MOLIENDA EN EL ÁREA DE PINTURAS

Martínez Muñoz Elena Rubí, Instituto Tecnológico de Tepic. Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Para lograr la optimización de procesos es preciso hacer uso y aplicación de distintas técnicas que buscan la mejora de factores, aspectos e indicadores específicos dentro de un proceso, definiendo de igual manera que la apertura de tales conocimientos y metodologías es posible mediante la ingeniería industrial, ya que esta desemboca en distintas áreas y herramientas aplicables en cada una de ellas. Es preciso hacer mención que la optimización se define como el rendimiento de productividad, a continuación, se describe el caso de estudio de una empresa dedicada a la manufactura de pinturas industriales, en particular se analiza el proceso de molienda, lugar donde se busca el aumento de la productividad, mediante la identificación de cada una de sus partes, para obtener una mejora solida en los indicadores de este proceso. La productividad es el grado de rendimiento con el que se emplean los recursos disponibles para alcanzar objetivos predeterminados (Criollo, 2005). Y el motivo para estudiar la productividad en una empresa es para poder incrementarla, y así poder beneficiar el diseño o flexibilidad de los procesos, aumentando la cantidad de producción en una medida de tiempo.



METODOLOGÍA

Inicialmente se seleccionó el proceso que se quería estudiar, que fue el proceso de molienda y se registraron los datos en diagramas de flujo, después se obtuvieron las operaciones y sus tiempos, además de que se analizaron los problemas que presentaba cada operación para la etapa de examinar, en la siguiente etapa se estableció un nuevo método para la optimización del proceso, se evaluó el método y se obtuvieron los resultados de este. También se utilizó la razón OEE para medir el aprovechamiento de la maquinaria, y dados los resultados se diseñó y manufacturó equipo complementario, y se colocaron instalaciones eléctricas y de tubería para el flujo de agua, además de un arrancador automático. Como primera instancia se realizó una clasificación de las pastas que se hacen para la molienda, por medio de un diagrama, diagramas de flujo de proceso para las lacas DIM blanco y rojo bermellón, así mismo se hizo un diagrama de flujo para el proceso de molienda, esto con el objetivo de analizar el proceso de manera especial, ya que este es el proceso más importante. Gracias a esto se pudieron obtener las operaciones del proceso de molienda, el cual está integrado por 21 actividades, dentro de las actividades posteriores se realizó el lay out del área de pintura, así mismo se realizó un diagrama de recorrido. Posteriormente se analizaron los tiempos de cada operación del proceso de molienda, en donde se tomaron en cuenta los tiempos productivos, los tiempos muertos y las causas de esos tiempos muertos. Una vez analizadas las operaciones y tiempos muertos se prosiguió a examinar las causas de estos problemas y a darles solución. Iniciando con el sistema de molienda, en el que la situación es que el sistema funciona con el método por pasada de olla a olla. La solución es cambiar el método actual por el método de recirculación. Se examinaron los molinos verticales para perlas de circonio de modelo ST-3030 y ST-5030, se diagnosticó la situación actual de estos, para poder rearmarlos y en el proceso identificar más problemas, además de hacer los arreglos respectivos, para después realizarles pruebas en los motores. Al poner en marcha los molinos, se identificaron problemas en ambos, en el molino uno el tambor no asentaba correctamente en la base, el eje del molino dos no permitía que el espiral dentro del tambor girara correctamente. La solución en el primero fue ajustar el tambor poniendo taquetes en la parte superior e inferior para alinearlos, en el segundo molino se ajustó y lubrico la polea y a las bases de los tambores se les pusieron taquetes en la parte inferior y superior para alinearlos. Para optimizar el proceso se diseñó y se manufacturó equipo complementario para los molinos de perlas de circonio, este equipo complementario consiste en bases para bombas, motores y tolvas, tolvas y tapas para tolva. De la misma manera se aplicó la metodología del OEE (Efectividad total de los Equipos) para identificar el margen de mejora en la efectividad del equipo. En donde se tomó en cuenta que se trabajan 10.5 horas, el nivel de desempeño actual está muy por debajo del 50% y la calidad no es negociable, el punto más bajo o de mayor deficiencia que se pudo observar fue el de desempeño.  Las consecuencias por las cuales el desempeño suele ser el punto más bajo son bastantes tales como: paros en operación, deterioro en maquinaria, falta de equipo idóneo para ejecutar una mejor operación en el proceso, fallas técnicas y falta de mantenimiento.


CONCLUSIONES

Utilizando la metodología de ingeniería de métodos para la optimización de la productividad en el área de molienda, además del uso de la razón OEE para determinar el aprovechamiento de la maquinaria se logró cumplir con el objetivo del trabajo de investigación en donde se obtuvieron los siguientes resultados: Se realizo la comparativa de los tiempos de molienda actuales con respecto a los tiempos mejorados, visualizando un cambio radical en el proceso de molienda, a través del cambio del sistema de molienda olla a olla por el sistema de recirculación, así mismo los excelentes resultados que obtuvimos en las pruebas de molienda.
Martínez Pérez Alberto, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Guillermo César Mondragón Rodriguez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

ESCALAMIENTO DEL PROCESO DE ANODIZADO DE TI PARA FORMAR NANOTUBOS DE TIO2


ESCALAMIENTO DEL PROCESO DE ANODIZADO DE TI PARA FORMAR NANOTUBOS DE TIO2

Martínez Pérez Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Guillermo César Mondragón Rodriguez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La contaminación es un factor determinante en la vida de nuestro planeta. Muchas de las actividades cotidianas generan un cierto grado de contaminación ya sea de agua, aire y suelo, una de las industrias que más contaminación causa es la textil, ya que los colorantes que se utilizan no se degradan fácilmente. Dentro de este contexto, es necesario desarrollar métodos para la limpieza y tratamiento del agua puesto que es un líquido de vital importancia para la humanidad y las reservas del agua potable son cada vez más escasas. La industria textil es, después de la industria del petróleo, la segunda industria más contaminante del medio ambiente. Esto tiene como principales impactos ambientales el alto consumo de agua y las aguas residuales con alta carga de contaminantes. Las aguas residuales coloreadas son mezclas complejas que contienen sustancias difíciles de oxidar por métodos convencionales. La fotocatálisis con nanotubos de TiO2 ha demostrado ser eficiente en la oxidación de sustancias por medio de foto activación del catalizador con luz artificial. Los materiales nano tubulares de TiO2 son de gran interés debido a la inercia química, fuerte poder oxidante, bajo costo de producción y estabilidad relativamente buena en temperaturas elevadas. Este material es ampliamente explorado como un catalizador para la división del agua y para la producción de hidrógeno solar. El material de dióxido de titanio tiene suficiente energía de banda prohibida específicamente para promover o catalizar una gama de reacciones químicas de interés ambiental. En particular se ha utilizado para oxidar contaminantes y su conversión en productos como agua, alcoholes y otros productos útiles. En este sentido, la mejora se le atribuye al aumento de la región de absorción del dióxido de titanio, el incremento del área de superficie y la mejora de la transferencia electrónica, por lo que se logra una reducción de electrones en el volumen de TiO2.



METODOLOGÍA

Para el proceso del escalamiento del reactor, primero se buscaron artículos relacionados con el proceso de anodizado para la formación de NTs-TiO2 recabando información cómo: el tamaño de las placas que funcionan como cátodo y ánodo, las sustancias para la formación del electrolito, así como la cantidad usada para la misma, el voltaje aplicado, densidad de corriente y tiempo de anodizado. Con base a la investigación recabada por los artículos y/o tesis se analizó la información y con ello se realizó una comparación donde se agruparon los datos más importantes. Con base a esta información se procedió a realizar una lista de parámetros que son de utilidad para obtener un rango en específico sobre las características que ayudarán para poder continuar con el proceso del escalamiento de formación de NTs-TiO2. Los parámetros que se toman en cuenta para la formación de NTs-TiO2 son el voltaje aplicado, la viscosidad del electrolito, el pH, tiempo del anodizado, temperatura y los efectos de la concentración de flúor. Cada uno son fundamental para la formación de los NTs-TiO2. El voltaje es indispensable en la formación de los nanotubos puesto que, para formar diámetros de 300 nm se necesita un voltaje de 40 - 100 V. Así pues, un electrolito a base de glicerina , la cual hace una solución viscosa proporciona una formación de nano tubos casi al 100 %. En cuanto al tiempo del anodizado cuando el electrolito es a base de glicerina va de 1 a 3 h. La temperatura a la que el anodizado es llevado a cabo recae de 20 - 40 °C proporcionando una buena longitud y diámetro, debido a que la temperatura es un factor en la formación de los nanotubos. En cuánto a la concentración de fluoruro, diversos autores señalan que es clave en la electroquímica en la formación de los nanotubos. Para el proceso del escalamiento en una placa de 50x50 nm con un espesor de 0.127 nm se pretende usar una solución de 250 ml a base de glicerina con: 245 ml de glicerina 5 ml de agua desionizada 7.5 g de NH4F Como bien se había mencionado anteriormente, una solución a base de glicerina hace que la formación de los NTs-TiO2 sea mejor, además si se tiene una concentración adecuada de NH4F es factor en la electroquímica de los NTs, pues se ha observado que, a mayor concentración de fluoruro, se obtienen mayores densidades de corriente en las curvas de polarización. Cátodo y Ánodo Placa de acero inoxidable con recubrimiento PVD (engl. Physical Vapour Deposition) de Ti de 99.5 % Placa de acero inoxidable. Parámetros de volate y corriente 60 V 6 A Tiempo de anodizado 60-120 minutos Temperatura 35 °C Con los parámetros anteriores se pretende que la formación de los NTs- TiO2 se lleve a cabo de manera exitosa.


CONCLUSIONES

La investigación es la forma de seguir contribuyendo con la innovación de la tecnología y la ciencia, reduciendo poco a poco los problemas que enfrentamos día a día. En la actualidad existen métodos que contribuyen a la limpieza y tratamiento para la purificación del agua, gracias a estos métodos la degradación de colorantes en el agua propicia a ser más efectiva. Durante esta estancia de verano virtual se logró adquirir conocimientos teóricos sobre el proceso del anodizado para la formación de nanotubos de TiO2 , logrando así conocer más sobre diferentes métodos para la degradación de colorantes textiles usando fotocatálisis para mejorar el proceso de degradación. Aquí radica la importancia del trabajo antes descrito, en diseñar procesos catalíticos y superficies activas para contribuir a la reducción y eliminación de la contaminación en aguas residuales. Se plantea aplicar métodos nuevos y creativos con materiales de bajo costo para garantizar la incursión de estos sistemas en procesos de interés práctico.
Martinez Rea Daniel Azareel, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

REALIDAD AUMENTADA EN APLICACIONES MULTIPLATAFORMA PARA EL ENTRETENIMIENTO.


REALIDAD AUMENTADA EN APLICACIONES MULTIPLATAFORMA PARA EL ENTRETENIMIENTO.

Martinez Rea Daniel Azareel, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualemente el uso de la Tecnologías como lo es la Realidad Aumentada se ha convertido en un factor muy importante para la industria, la educación, medicina y el entretenimiento. Es por ello que es imporatante obtener habilidades para el desarrollo de aplicaciones de Realidad Auementaa en multiplataforma considerando la demanda que los dispositivos moviles por ejemplo generan en esta area. Siendo el uso de marcadores y sistema de navegación y localización GPS de vital importancia para esta tecnologia. Con el objetivo de optimizar el trabajo en la industria o fomentar el entretenimiento como lo es en este proyecto.     



METODOLOGÍA

Durante el verano de investigación delfín 2020 se realizaron distintas aplicaciones enfocadas a la Realidad Aumentada tanto como aplicaciones de escritorio, para dispositivos móviles y multiplataforma mediante WebView. Para ello se utilizaron: Java y JavaScript  como lenguajes de programación así como el uso de librerías y scripts de AR.js y A-Frame. Primero se utilizó processing para trabajar la realidad aumentada en aplicaciones de escritorio en el cual se realizaron las siguientes actividades en codificación de java: Reconocimiento de la o las cámaras disponibles en el dispositivo. Cargar marcadores. Cargar objetos 3d. Conectar el objeto cargado con el marcador para su posterior reconocimiento. Interactuar con el objeto cargado.   Esto con la finalidad de que al momento de correr la aplicación se habilite la cámara de nuestro dispositivo para mostrar el marcador que cargamos en formato PDF y visualizar la aparición del objeto que también fue cargado. Posteriormente trabajamos lo anterior mencionado pero en esta ocasión para dispositivos móviles para lo cual fue necesario la conexión y depuración por USB correctamente aplicada para poder realizarlo como una aplicación de teléfono donde resultó ser más interesante debido a que en la actualidad  se utilizan demasiado los dispositivos móviles y por lo cual se pudo interactuar con ambas cámaras del dispositivo y el flash. Además estuvimos trabajando con herramientas como ArtToolKit para realizar calibración de las cámaras de los dispositivos con la finalidad de que tuvieran un mayor reconocimiento al momento de mostrar los marcadores. Así también se realizó la creación de marcadores mediante Paint o sitios web siendo estos del tipo .png y .patt respectivamente y entre otros tipos de marcadores incluso de imagen del tipo nft. Dentro de la metodología estuvimos trabajando con programas como SketchUp y Blender para la creación de objetos 3D para poder implementarlos en nuestra aplicación. Una vez revisado lo anterior mencionado comenzamos a trabajar con las librerías y script de AFrame y AR.JS las cuales trabajan en Web esto con la finalidad de lograr la multiplataforma en nuestro proyecto. Para ello son necesario los conocimientos de html y css para poder manipular la realidad aumentada por este medio. Además se trabajó con el recurso de xampp y apache para realizar las pruebas locales de nuestra aplicación. Y evidentemente se trabajó con el uso de certificados y OpenSSL para conexiones seguras del protocolo https para que nuestra aplicación sea multiplataforma exitosamente. Ahora bien, de esta manera únicamente funciona de manera local y es por ello que dentro de la metodología trabajamos con el uso de repositorios de GitHub para poder alojar nuestro proyecto en sus servidores y de esta manera poder acceder desde cualquier lugar con conexión a internet. Una vez trabajado lo anterior mencionado se realizaron ejemplos de realidad aumentada y alojados en el servidor de GitHub a los cuales se les realizaron pruebas en distintos dispositivos. También se trabajó con el uso de GPS para poder manipular los objetos 3d en distintas ubicaciones similar a la aplicación de Pokemon Go. Finalmente se trabajó con la interacción de los objetos es decir, poder moverlos con el uso del touch y los dedos con el uso de AR.JS                                                     Proyecto: Para el desarrollo del proyecto fue necesario elegir una temática y una esencia. En este proyecto elegimos la Paradoja de los viajes en el tiempo basado en el  entretenimiento.  Donde la única forma de hacer viajes en el tiempo es con Realidad Aumentada ya que si no podemos viajar al pasado o al futuro si podemos por el contrario traer a nuestra realidad objetos o lugares del pasado o improvisar con el futuro mediante el maravilloso mundo de la Realidad Aumentada. Es por ello que se realizo una aplicación web multiplataforma que cuenta con un menu principal que cuenta con dos opciones(pasado y futuro) donde al elegir una de ella abrirá la cámara del dispositivo la cual cargara distintos tipos de maracadores para mostrar objetos o lugares interesantes del pasado o una improvisación del futuro.  


CONCLUSIONES

Durante la estancia de verano virtual se logró adquirir conocimientos teóricos y prácticos básicos, con el objetivo de desarrollar aplicaciones para distintos dispositivos en el ámbito de la Realidad Aumentada ya sea educativos, médicos, o por entretenimiento como lo fue este proyecto. Por el tiempo y las condiciones el proyecto quedo sencillo y los objetos no fueron tan impresionantes debido al uso de un servidor gratuito. En general la realidad aumentada es traer a nuestro mundo real cualquier cosa que se nos pueda ocurrir como en el proyecto realizado. Resultados: Aplicación web multiplataforma que muestra objetos 3d. 
Martínez Soto Mauro Osvaldo, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan

DISEÑO Y SIMULACIÓN DE UN INTERCAMBIADOR DE CALOR TUBULAR POR MEDIO DE ANSYS FLUENT.


DISEÑO Y SIMULACIÓN DE UN INTERCAMBIADOR DE CALOR TUBULAR POR MEDIO DE ANSYS FLUENT.

Avila Lopez Brian, Instituto Tecnológico Superior de Ciudad Serdán. Gómez Coronel Leonardo, Instituto Tecnológico de Tuxtla Gutiérrez. Martínez Soto Mauro Osvaldo, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Se presenta una propuesta de  diseño para un intercambiador de calor de tipo tubular, y su simulación empleando el módulo de FLUENT del software ANSYSTM Academic, con la finalidad de corroborar los valores obtenidos para los valores de la temperatura de los fluidos en sus respectivas entradas y salidas al intercambiador de calor. Partiendo de una serie de datos de entrada para un problema de diseño dado, se determina la longitud adecuada para el intercambiador de calor que deberá de ser empleado en este tipo de aplicación, y posteriormente se realiza el diseño en CAD del modelo simplificado del intercambiador de calor con las trayectorias y dominios de los fluidos involucrados. Posteriormente se realiza un mallado adecuado para simulación CFD  y se ejecuta la simulación insertando las condiciones de borde adecuadas para el fenómeno físico, tales como los materiales, modelo de turbulencia seleccionado, tasa de flujo másico para los fluidos, temperaturas de entrada, condiciones y materiales para el muro, etc. La simulación es llevada a cabo por medio del Método del Elemento Finito. A manera de discusión de resultados se realiza la comparación de los resultados obtenidos que fueron obtenidos de la simulación con los cálculos teóricos obtenidos de las ecuaciones que son proporcionadas por la bibliografía. De obtener cálculos lo suficientemente cercanos en ambos casos, podríamos concluir que nuestra  simulación fue llevada a cabo de forma satisfactoria  y de esta forma validar el modelo.  



METODOLOGÍA

El objetivo principal de la investigación consiste en realizar una simulación referente al diseño de un intercambiador de calor de tipo tubular, al cual son aplicables todas las ecuaciones especificadas anteriormente. El primer paso consistió en resolver el problema de diseño por  medios analíticos, empleando las ecuaciones correspondientes al tipo de intercambiador y arreglo de flujo. Se planteó un problema de diseño con datos que pueden ser manejados en el entorno de simulación y, de igual modo, los resultados de esta misma deben de coincidir, o cuando menos, aproximarse en la medida de lo posible a los resultados que fueron obtenidos analíticamente. El problema de diseño a tratar es el siguiente: Un intercambiador de calor a contraflujo de una sola tubería se emplea para reducir la temperatura del agua que se extrae del condensador de un equipo de refrigeración a 80°C hasta 35°C. El agua caliente se extrae a un flujo másico de 0.01 kg/s. Se emplea agua de enfriamiento que está disponible a 20°C y que se bombea al intercambiador de calor a un flujo másico de 0.3 kg/s en una tubería de 50 mm de diámetro, concéntrica y externa a la tubería interna por donde fluye el agua caliente. La tubería interna del intercambiador es de cobre (K = 387.6 ) con un diámetro externo de 1 in (25.4 mm) y un espesor de pared de 2 mm. Asumiendo que el coeficiente de transferencia de calor en la superficie externa de la tubería es de 500 , determinar el valor de la longitud requerida para el intercambiador de calor. Asumir  constante a lo largo de toda la extensión del intercambiador de calor. Con lo cual se concluye que la longitud adecuada para el intercambiador de calor es de aproximadamente 1.47 m, lo cual por simplicidad se redondea a un valor cerrado de 1.5 m. Obteniendo un valor adecuado para la longitud del intercambiador de calor, se procedió al modelado del mismo empleando SolidWorksTM. El modelo obtenido es el que se aprecia en las figuras 9 a 11. Este modelo, conformado por dos sólidos diferentes (uno para el dominio del agua fría y otro para el dominio del agua caliente) fue guardado en un formato de modelo universal de CAD (en este caso, en un modelo tipo PARASOLID), y posteriormente importado a un proyecto nuevo en ANSYSTM Academic, en el módulo de “Geometry”, de donde se importa al resto de módulos que serán empleados para la simulación. El mallado resultante consiste de 50,964 nodos y 212,946 elementos, según el apartado de estadísticas. Un mallado inferior a los 70,000 nodos sería deseable en términos de la potencia computacional disponible.  Una vez que se cuenta con un mallado adecuado, y con las condiciones de frontera con su nombre correspondiente, es posible acceder al módulo de “Fluent” para introducir las condiciones de frontera en la simulación.


CONCLUSIONES

Haciendo referencia a valores anteriormente mencionados, recordemos que los valores de temperaturas a la entrada y la salida para el agua caliente eran de 80  (353.15 ) y de 35  (308.15 ), respectivamente, obtenido el valor a la salida después de la transferencia de calor resultante de la interacción con el agua de enfriamiento a 20 (293.15 ). Según la escala que acompaña al contorno de temperaturas, la temperatura del agua a la salida del intercambiador de calor se encuentra en el rango de entre los 305 a 309  los cuales son lo suficientemente cercanos a los 308.15 que se esperaba obtener por medio de cálculos. De este contorno de temperaturas es posible visualizar y concluir que los resultados calculados son lo suficientemente cercanos a los valores que fueron arrojados por los resultados de la simulación, validando de esta forma el modelo del intercambiador de calor propuesto. De cualquier modo también sería posible hacer que los resultados sean incluso más cercanos a los que son obtenidos de forma analítica realizando un mallado más fino con una mayor cantidad de nodos y elementos a cambio de un mayor recurso computacional invertido en su resolución. De igual forma sería necesario realizar un refinamiento del mallado en ciertas zonas con cambios de sección o curvaturas en las cuales los elementos se encuentran deformados o no cuentan con la perpendicularidad adecuada. Así también, en el apartado de simulación asignar un valor de error más pequeño en los residuales, y una cantidad más elevada de iteraciones podría traducirse en resultados más cercanos a los resultados analíticos.
Martínez Tavera Arianna Angélica, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato

MANUAL DE OPERACIONES Y REDISEñO DEL LAYOUT DE UNA BODEGA DE BEBIDAS.


MANUAL DE OPERACIONES Y REDISEñO DEL LAYOUT DE UNA BODEGA DE BEBIDAS.

Cabrera Lona Gustavo Adolfo, Instituto Tecnológico Superior de Guanajuato. Martínez Tavera Arianna Angélica, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El presente Manual y rediseño de una Bodega Central fue elaborado para ser la pauta en los preparativos para la organización y el buen funcionamiento de la Bodega Central de una empresa del sector refresquero. Toda la información recabada se obtuvo a partir de un previo estudio de mercado para la empresa que tiene sus orígenes en enero del 2020. Posteriormente se analizó y se decidió que es de suma importancia contar con una Bodega Central con instalaciones bien distribuidas y se comenzó a investigar sobre todo lo necesario para las instalaciones. La bodega central, se encargará de alojar todo el producto terminado proveniente de la fábrica para posteriormente ser distribuido por todo el país. Además, contará con un almacén para acopiar azúcar en costales de 100 kg que serán transportados a la fábrica, debido a que es la materia prima que la empresa menos necesita.  Es por ello que la bodega central debe ubicarse en un sitio estratégico, que agilice la recepción y distribución de los envíos. Deberá ser acondicionada para contar con áreas de oficinas, baños, de recepción, de almacenes y de distribución.



METODOLOGÍA

El presente manual consta de tres capítulos: En el primero se realiza el rediseño de la Bodega y trata todas las actividades a realizar para instalar la bodega, tales como la proyección de las dimensiones del inmueble (tanto área total como área de cada departamento), el proceso de búsqueda de inmuebles, la elaboración del Lay Out, la Proyección de recursos materiales y humanos y la actualización del sistema de control de inventarios. El segundo capítulo se relaciona con todas las operaciones de la bodega, tales como la descripción de las áreas de la bodega, la descripción de puestos y la descripción narrativa y diagrama de flujo.  El tercer y último capítulo se basa en los requerimientos de la bodega central , en primer lugar una guía de inspección para la prevención de siniestros (salidas de emergencia, prevención de incendios e inundaciones), las áreas requeridas para la bodega, las normas de seguridad e higiene y los requerimientos de personal para la operación de la bodega (proyectando el número de plazas y capacidad de almacenaje para el año 2023).  


CONCLUSIONES

Se observó que lo que más afectaba la Bodega Central inicial fue la incorrecta distribución realizada, ya que esta generaba pérdida de tiempo, movimientos innecesarios, no se conocían las ubicaciones pues no existían pasillos ni señaléticas, existían áreas con muy poco espacio y otras con exceso de espacio lo que provocaba que hubiera lugares desocupados y mal aprovechados. Fue por ello que se buscó la manera de acomodar correctamente cada área y se marcaron pasillos para el flujo de recurso humano y maquinaria tales como los montacargas. Aunado a todo esto se descubrió que había mucho producto perdido pues no se llevaba un control de inventarios y con el nuevo software ahora se conoce en tiempo real los pedidos y todo lo relacionado al almacén de envases. Este permite tener datos actualizados sobre el inventario de la documentación y los materiales mediante el control de entradas y salidas, además de registrar las cantidades de mercancías existentes y para establecer el costo de la mercancía vendida y generará los documentos y reportes necesarios para la operación de la bodega con la periodicidad deseada. Ahora se conocen y se cumplen las normas de Seguridad e Higiene en la Bodega Central lo que trae consigo que haya mayor seguridad para todos los que laboran ahí y así evitar accidentes. Esto inició desde que se comenzó con la búsqueda del inmueble pues se buscó que no hubiera peligro interno ni externo dentro de ella. Se establecieron actividades en cada área y se determinaron jerarquías para realizar correctamente todo el trabajo dentro de la Bodega. Con todo esto se mejoró la Cadena de Suministro de la empresa y la Logística, pues la Bodega Central distribuye a todo el país y permite que todos los pedidos llegan correctamente al cliente final.
Martinez Zuñiga Geneva Krystel, Universidad Autónoma de Baja California
Asesor: Dra. Minerva Gonzalez Melchor, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DE PROPIEDADES DE LA MEZCLA HERBICIDA/AGUA A TEMPERATURA Y PRESIóN FIJAS


EVALUACIóN DE PROPIEDADES DE LA MEZCLA HERBICIDA/AGUA A TEMPERATURA Y PRESIóN FIJAS

Martinez Zuñiga Geneva Krystel, Universidad Autónoma de Baja California. Asesor: Dra. Minerva Gonzalez Melchor, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El herbicida Ácido 2,4-diclorofenoxiacético o 2,4-D es ampliamente utilizado en granjas, áreas industriales y campos de cultivo para el control de hierba silvestre. Éste causa en las plantas que las células de los tejidos que transportan el agua y los nutrientes se dividan y crezcan sin control, matándola de manera efectiva. El compuesto 2,4-D en el ambiente generalmente se descompone en el suelo en un 50%, pudiéndose encontrar en corrientes de agua en áreas rurales o urbanas. Este herbicida es altamente tóxico para animales marinos, especialmente cuando la temperatura del agua incrementa. Ya existen diversos métodos para el saneamiento del agua, entre los más novedosos destacan las esponjas de nanotubos de carbono que absorben los contaminantes como pesticidas y productos farmacéuticos. El trabajo realizado durante esta estancia de verano forma parte de un proyecto que contempla el uso de nanotubos de carbono para remover el herbicida 2,4-D del agua, lo que significa que persigue uno de los Objetivos de Desarrollo Sostenible (ODS) de la ONU, aquel referente al agua limpia y saneamiento, el cual busca garantizar la disponibilidad y gestión sostenible del agua y el saneamiento para todos. En este caso, para hacer más eficiente el trabajo en el laboratorio se aprovecha la posibilidad de crear simulaciones por computadora de la dinámica molecular entre el herbicida y el agua para dar explicación y predecir cómo cada átomo del sistema se moverá a través del tiempo basado en modelos físicos de interacciones interatómicas (ecuaciones del movimiento de Newton y ecuaciones para modelar la interacción entre átomos y moléculas) . En el presente trabajo se calcularon la densidad, constante dieléctrica estática y la distribución radial de las moléculas de agua cuando está el herbicida 2,4-D presente a dos concentraciones, un caso de baja concentración y otro caso muy concentrado.



METODOLOGÍA

Se llevó a cabo un estudio teórico-computacional de la mezcla herbicida/agua a condiciones de presión y temperaturas fijas. Previo al trabajo de simulación, se realizó una revisión de conceptos involucrados en dinámica molecular y  la lectura de referencias proporcionadas por la asesora: sobre los herbicidas y el ácido 2,4-diclorofenoxiacético, introducción a la dinámica molecular y aplicaciones de la misma . Una vez entendido el problema y los conceptos generales del mismo, se procedió a descargar e instalar el visualizador Visual Molecular Dynamics(VMD), el graficador QtGrace y el programa ssh Secure File Transfer de acceso libre.  A través de éste último se accedió a un servidor llamado Aquila, que sirvió para transferir archivos entre el servidor de Benemérita Universidad Autónoma de Puebla (BUAP)y la PC local. Para acceder  Aquila fue necesario obtener un usuario y contraseña de parte de la BUAP. En dicho servidor se aprendió a usar los comandos más básicos del programa Gromacs, útil para realizar las simulaciones computacionales pertinentes. En seguida, en Aquila se cargaron los archivos proporcionados por la asesora referentes a la mezcla de agua-herbicida y agua pura en diferentes directorios: agua pura, simulación A y B con 3.7% y 138.38% de concentración masa-masa de herbicida en agua respectivamente. Para la familiarización del programa Gromacs se ejecutaron simulaciones con los archivos de agua pura a condiciones de número de partículas, temperatura, volumen fijos (NVT). Los archivos en extensión .gro y .xtc se descargaron del servidor Aquila a la PC local y se visualizaron con el programa VMD, a través del cual se pudo reproducir una película del movimiento de las moléculas de agua en 1 nanosegundo, es decir, la simulación molecular del agua pura con las condiciones previamente establecidas. Posteriormente se procedió a revisar el contenido de los archivos para las simulaciones A y B y se modificaron para conducir una dinámica de 500,000 iteraciones, lo que se traduce en 1 nanosegundo de tiempo con la presión y temperatura fija (NPT) a 1 atmósfera y 298.15 K respectivamente. Asimismo, en dichos directorios se realizaron operaciones para calcular la densidad de las mezclas de herbicida, la constante dieléctrica estática y la distribución radial de los átomos del agua con respecto al agua y del agua con respecto al herbicida. Los resultados de la distribución radial fueron descargados del servidor Aquila a la PC local en archivos de extensión .xvg, los cuales se leyeron con el programa QtGrace, el cual sirvió para graficar y comparar los resultados con datos experimentales y los generados en el directorio de agua pura.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de herbicidas, el ácido 2,4-diclorofenoxiacético y de  dinámica molecular, con los cuales fue posible realizar simulaciones computacionales para determinar la densidad, la constante dieléctrica estática y la distribución radial de las mezclas 2,4-D con agua a diferentes concentraciones a presión y temperatura fijas. La comparación de dichos parámetros permite predecir el comportamiento de ambas sustancias a diferentes concentraciones, en este caso se observó una correlación entre el incremento de la probabilidad de encontrar más cercanas los átomos de oxígeno e hidrógeno (correspondientes a las moléculas del agua) cuanto más incrementa la concentración del herbicida en la mezcla. Esto lleva a la conclusión de que existe una segregación del agua en presencia del herbicida. Futuros trabajos podrían corroborar los resultados anteriores realizando simulaciones a otras concentraciones del herbicida en agua, así como comparar también la distribución radial de los átomos del herbicida con respecto a otras moléculas del mismo.
Mata Ortiz Patricia Paulina, Universidad de La Salle Bajío
Asesor: Mg. Carlos Alberto Cortes Aguirre, Universidad Autónoma de Manizales

KIT DIDáCTICO PARA CAPTURA Y ESTUDIO DE BIOPOTENCIALES


KIT DIDáCTICO PARA CAPTURA Y ESTUDIO DE BIOPOTENCIALES

Mata Ortiz Patricia Paulina, Universidad de La Salle Bajío. Asesor: Mg. Carlos Alberto Cortes Aguirre, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Debido a la situación mundial actual derivada de la pandemia Covid-19, los estudiantes se han visto limitados en cuanto a las actividades prácticas y de laboratorio que pueden realizar para complementar sus conocimientos. Esto puede generar cierta dificultad al momento de comprender algunos conceptos o bien, para la formación de investigaciones. A su vez, dicha situación hace pensar acerca de aquellos estudiantes que, por decisión propia o por otro motivo deben tomar sus estudios de forma virtual. Ciertas carreras universitarias requieren de actividades prácticas complementarias, con la utilización de herramientas o instrumental de laboratorio. Por este motivo, lo ideal sería que aquellos que estudian desde casa cuenten con un equipo básico de laboratorio, para que eso no los limite en cuanto a sus conocimientos y en cuanto a las actividades que puedan realizar.



METODOLOGÍA

Para la realización del prototipo, primero se procedió a idear los circuitos electrónicos que serán funcionales para el estudio de los cuatro biopotenciales básicos: ECG, que permite estudiar la actividad eléctrica del corazón; EMG, que muestra la actividad eléctrica de los músculos; EEG, que muestra la actividad eléctrica del cerebro y, EOG, que nos permite observar la actividad eléctrica de los ojos. Las señales que serán adquiridas de cualquier persona son muy pequeñas (mV), lo cual imposibilita su estudio. Por tal motivo, se debe generar un circuito que sea capaz de amplificar dicha señal para posteriormente ser analizada. Como en cualquier adquisición de señales, existe cierto ruido que puede afectar en la lectura final, por lo que también se deben incluir filtros para eliminar dichos ruidos y obtener una señal más limpia y concisa. Los diferentes biopotenciales se manejan respecto a diferentes rangos de frecuencias y amplitudes, por lo que primero se realizó una investigación para conocer específicamente esos rangos. Con base en dichos datos, se definieron los rangos que se tomarían para cada circuito; esto es importante para la aplicación de los diferentes filtros. Para el EOG el rango de frecuencias fue de entre 1Hz y 40 Hz; para el EEG, fue de entre 8Hz y 30 Hz; para el EMG se definió de entre 1 Hz a 2KHz y para el ECG el rango fue de entre 10 Hz y 20 Hz. En todos los biopotenciales, se aplicaron dos filtros conocidos como pasa-bajas y pasa-altas. Como lo dice el nombre, el primer permite el paso de frecuencias bajas, pero no de frecuencias altas; por el contrario, el segundo permite el paso de frecuencias altas. Se deben definir cuáles serán esas frecuencias (conocida como frecuencia de corte), de manera que la señal quede lo más limpia posible a la salida. Existe otro filtro que se debe aplicar para eliminar la frecuencia de 60 Hz proveniente de la línea de potencia, ya que, de lo contrario dicho ruido podría interferir en nuestros circuitos. Finalmente se integró una configuración para la eliminación de los offset que se hayan generado a nuestras salidas. Con la ayuda de un software de simulación electrónica se realizaron pruebas, para verificar que los circuitos fueran funcionales y en base a eso, ir modificándolo hasta obtener el circuito deseado. Una vez definidos los circuitos, se procedió al diseño del circuito impreso, en donde se integraron los cuatro diferentes circuitos para que, de esta forma, quedaran dentro del mismo impreso; esto para mayor practicidad. Fue importante al momento de realizar el diseño, distribuir los elementos de manera que fuera comprensible para el usuario, indicando las diferentes entradas y salidas que existen, para que sólo sea necesario realizar las conexiones (electrodos y voltajes). El proyecto finaliza en el diseño del circuito impreso, ya que en este momento no se cuenta con el material necesario para imprimirlo y realizar pruebas de funcionamiento en físico; pero una vez terminada la pandemia, se espera poder realizar las actividades restantes para verificar su funcionamiento ya no sólo de forma virtual.


CONCLUSIONES

Debido a la situación antes mencionada, el trabajo durante la estancia se vio un poco limitado, pero al mismo tiempo permitió generar un proyecto que podría ser de mucha utilidad para todos aquellos que estudian de forma virtual. Por otro lado, se logró reforzar algunos conocimientos ya existentes y al mismo tiempo, adquirir otros que serán de suma importancia para trabajos posteriores. Dicho proyecto puede ser utilizado por cualquier persona o estudiante que lo necesite, ya que el prototipo se encuentra listo para ser impreso y finalmente utilizado.
Matias Carmona Roberto, Universidad Politécnica de Tecámac
Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac

SISTEMA DE COMUNICACIóN WIFI CON ACCESORIOS ELéCTRICOS Y COMPUTADORA DE UN AUTOMóVIL PARA LA CONEXIóN CON EL IOT


SISTEMA DE COMUNICACIóN WIFI CON ACCESORIOS ELéCTRICOS Y COMPUTADORA DE UN AUTOMóVIL PARA LA CONEXIóN CON EL IOT

Buendia Martinez Cristian Antony, Universidad Politécnica de Tecámac. Flores Luis Fatima Alejandra, Universidad Politécnica de Tecámac. Matias Carmona Roberto, Universidad Politécnica de Tecámac. Rodriguez Flores Lizeth, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

El principal problema es que los usuarios no pueden detectar las fallas que presente su automóvil de manera rápida y cómoda, tienen que llevar sus vehículos a revisión para identificar la falla. En el mundo hay un automóvil por cada siete personas, según una estimación hecha por Enrique Koganen en el 2016. El problema también está presente en México, ya que, a nivel nacional se tiene una aproximación 3,565,469 de automóviles, estimación realizada por Enrique Koganen en el 2016. En la localidad de Tecámac según la estadística básica municipal de Tecámac, en el 2012 aproximan un total de 3,194 automóviles. En la actualidad la sociedad se ha acostumbrado tanto a vivir con electrodomésticos, autos y teléfonos celulares. Los automóviles son un medio de transporte muy útil, por lo que se busca un buen funcionamiento del mismo. Existen varios softwares y aplicaciones, pero no todos son amigables y funcionales para el usuario. Se requiere de un sistema para tener un control en los servicios mecánicos y manipulación de accesorios eléctricos del automóvil para un mayor confort.  



METODOLOGÍA

El presente trabajo presenta una metodología scrum que hace un énfasis especial en la consideración de los requisitos no funcionales características de este tipo de sistema como los requisitos temporales o la interacción con dispositivos físicos del vehículo. Además de que ejecuta el proyecto en fases cortas y permite mucha flexibilidad a la hora de acometer cambios a mitad del proyecto, ya que tras cada fase se replantean las tareas y los objetivos. Se analizaron las distintas plataformas para el desarrollo de aplicaciones móviles, siendo Xamarin, una extensión de Visual Studio la mas conveniente para este proyecto. Tambien se analizó el microcontrolador, en este caso se ocupó el ESP32 que se programa mediante el IDE de Arduino, ya que nos permitía alojar un Web Service y asi manipular los distintos elementos. Primero se logró crear un Web Service en el ESP32, al mismo tiempo que se realizó la conexión entre el ESP32 y una red Wifi. Posteriormente se logra que la aplicación elaborada en Xamarin se conecta al Web Service que está alojado en el ESP32, para que de esta forma se puedan hacer las solicitudes HTTP. La aplicación se diseñó y desarrolló en con tres vistas: 1. Es un inicio de sesión por parte del usuario, donde solo podrá ingresar con un correo electrónico y contraseña. 2. Despues del inicio de sesión se muestra un menú de dos opciones, donde la primera es un escaneo del vehículo, donde mostrará si este tiene alguna falla mecánica o eléctrica asi como su temperatura, velocidad y combustible. 3. La segunda opción es la de accesorios, donde muestra los elementos que puede controlar, por ejemplo, luces, ventilación, seguros, iluminación interna, etc


CONCLUSIONES

En el presente proyecto se concluye que la comunicación de la aplicación móvil con el microcontrolador ESP-32, fue de un 98 % aceptable en la transmisión de datos entre las diferentes secciones de medición, escaneo, instrucciones e información. Primero se logró crear un web-service en el esp32, al mismo tiempo que se logró la conexión entre el esp 32 y una red wifi. Posteriormente se logró que la aplicación elaborada en Xamarin se conectara al web-service que está alojado en el ESP32, para que de esta forma se puedan hacer las peticiones HTTP a través de Internet. Aunque todavía no se realizan las pruebas en un vehículo, se realizó una simulación con LEDS que representaban los distintos accesorios eléctricos del vehículo, con esta simulación se logró verificar que se pueden manipular correctamente los elementos del vehículo a través del web-service,El sistema se encuentra a más del 50 % de desarrollo, de tal forma podemos decir que el sistema es factible, ya que es una herramienta que ayudará a una gran cantidad de usuarios para que conozcan a tiempo las fallas que presenta su vehículo y de esta forma evitar fallas más graves en el futuro.
May Olan Amarilis, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Esp. Ana María Aristizábal Montoya, Universidad Católica de Oriente

DISEñO Y VALIDACIóN DE UNA GUíA EDUCATIVA PARA LA ALIMENTACIóN SALUDABLE DE LOS ADULTOS MAYORES


DISEñO Y VALIDACIóN DE UNA GUíA EDUCATIVA PARA LA ALIMENTACIóN SALUDABLE DE LOS ADULTOS MAYORES

Hernandez Clemente Maria Jose, Instituto Tecnológico de Tuxtla Gutiérrez. May Olan Amarilis, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Esp. Ana María Aristizábal Montoya, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

Las personas en la etapa de vida a partir de los 60 años o más son consideradas adultos mayores (Ministerio de Salud y Protección Social, 2018a) este grupo etario es de suma importancia debido al incremento de las expectativas de vida y las proyecciones de envejecimiento de la población (Albala, 2020). De acuerdo con las cifras de la Organización Mundial de la Salud (OMS, 2018) se espera que en el año 2050 la población adulta alcance los 2000 millones de personas mayores de 60 años y 365 millones de personas con 80 años o más.   La vejez se relaciona con el deterioro biológico, morfológico y fisiológico que conlleva el aumento de diversas afecciones que desmejoran las condiciones de salud del adulto mayor, sumado a factores de orden genéticos y psicosociales. (Salech & Jara, 2012, Medina, 2011). La pérdida del apetito, ingesta inadecuada de frutas y vegetales, reducida exposición a la luz solar así como la actividad física escasa, se convierten en las principales causales de las deficiencias nutricionales que pueden desencadenar problemas de salud o acentuar los síntomas de otros padecimientos.   Por lo que es importante aumentar en la dieta la ingesta de nutrientes de los cuales se evidencia un déficit durante la edad adulta mayor y que son esenciales para mantener un óptimo estado de salud (Somoza, 2017).   Con el diseño de esta guía se busca presentar hábitos alimentarios que contribuyan al mejoramiento del estilo de  vida de los adultos mayores con ideas sobre alimentos y preparaciones que pueden ingerir fácilmente y que a su vez aportan nutrientes clave como proteína, fibra, minerales y vitaminas que contribuyen a cubrir los  requerimientos nutricionales diarios.  



METODOLOGÍA

El proyecto de diseño y validación de una guía educativa para la alimentación saludable de los adultos mayores seguirá la siguiente metodología, una revisión de la literatura para recolección de la información relevante, consolidación de la  información, diseño del material educativo y del instrumento para la evaluación por parte los cuidadores y expertos, presentación al comité de ética junto con el consentimiento informado para la participación en la evaluación y recolección de la información de manera virtual, análisis de los resultados para determinar el índice de Validez del contenido (CVI) (Yusoff, 2019) los expertos calificaran la guía de acuerdo con una escala de relevancia definida (1 no es relevante a 4 altamente relevante), cada uno de los ítems contemplados en el instrumento, para un número entre 7 y 9 expertos el valor será 0,78, con las observaciones y sugerencias recibidas se realizará el ajuste de la guía y se procederá a la elaboración de un artículo con los resultados de la validación.  


CONCLUSIONES

La guía educativa para la alimentación saludable de los adultos mayores fue evaluada y validada en su contenido y pertinencia, dicho proceso convocó a profesionales en la temática y cuidadores de los adultos mayores. Para la construcción del material educativo fue necesaria la búsqueda de información, revisión y diseño del material. Las recomendaciones de los evaluadores fueron tenidas en cuenta para la versión final de la guía. El proyecto de diseño y validación de una guía para la alimentación saludable de los adultos mayores puede considerarse pertinente e innovador al contribuir al Objetivo del Desarrollo Sostenible (ODS) 3 Salud y bienestar que busca garantizar una vida saludable y promover el bienestar en este grupo poblacional. 
Medina Espinoza Maria Jose, Universidad Autónoma de Sinaloa
Asesor: Dr. Mario Armando Gómez Favela, Universidad Politécnica del Mar y la Sierra

FERMENTACIóN DE ALIMENTOS FUNCIONALES


FERMENTACIóN DE ALIMENTOS FUNCIONALES

Medina Espinoza Maria Jose, Universidad Autónoma de Sinaloa. Asesor: Dr. Mario Armando Gómez Favela, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

Las frutas y verduras son un componente importante de una dieta saludable. Algunas frutas como el plátano ofrecen grandes beneficios médicos. Esto es en parte porque ayudan a la retención de calcio, nitrógeno y fósforo en el cuerpo, los cuales contribuyen a la reconstrucción de tejidos; el plátano puede ser utilizado para combatir desórdenes intestinales como úlceras. La pulpa de plátano es una excelente fuente de potasio, este elemento beneficia los músculos, ya que ayuda a mantener su buen funcionamiento y evita los espasmos musculares. Además, estudios recientes muestran que el potasio puede ayudar a disminuir la presión arterial y también reduce el riesgo de accidentes cerebrovasculares (Blasco G., & Gómez F, 2014). Sin embargo, esa fruta por su carácter climatérico tiende a perder su calidad muy rápido por efecto de la respiración del mismo. Derivado de esto, los frutos son desechados y en ocasiones producen contaminación del ambiente por su descomposición. Una de las alternativas para solucionar este problema es el uso de este fruto para la elaboración de una bebida mediante el proceso de fermentación.  



METODOLOGÍA

Materiales y métodos -2 Kg de plátano. -1 Kg de azúcar. -Levadura. -Agua. -Termómetro. -Olla de aluminio. -Cucharas. -2 botellas de plástico de 4L. -2 metros de manguera de plástico transparente. -2 vasos con agua. -Cinta. Para iniciar la elaboración de esta bebida lo primero que se realizó fue moler la pulpa de los plátanos, hasta tener una pasta, que normalmente se conoce como mosto. Posteriormente le agregue una cierta cantidad de agua y 3 tazas de azúcar, ya que estuvo listo, está mezcla se colocó en una olla de aluminio y se llevó a la estufa hasta que tomó una temperatura de aproximadamente 80°C, para destruir los microorganismos es necesario someterlos a tratamientos térmicos como una pasteurización casera que consiste en cambios bruscos de temperatura, obteniéndose una temperatura final de 25°C, durante un tiempo de 10 min. Por otra parte, mientras se preparaba todo lo anterior, también se estaba realizando de manera simultánea el activar 10 g de levadura en agua que tenía una temperatura de 35°C con una pequeña cantidad de azúcar. A las tapaderas de las botellas de plástico se les realizó un pequeño orificio por donde se pasó la manguera y se selló con cinta para que no entrará oxígeno, pero si pudiera salir el CO2 producido durante la fermentación. Se dividió el jugo a fermentar en dos porciones iguales, para experimentar una fermentación con la presencia de levaduras (Saccharomyces Cerevisiae) y una fermentación natural, sin la presencia de microorganismos que favorezcan la producción de alcohol. Para la primera muestra, se colocó el jugo de plátano a fermentar y después las levaduras activadas, se tapó y se selló con cinta, en la otra punta de la manguera se colocó una trampa de agua. En la segunda muestra se puso soló el jugo a fermentar y se realizó el procedimiento anterior. Las botellas y las trampas de agua se dejaron en un sitio donde no les pegará la luz del sol, durante un lapso de tiempo de 5 días. Finalmente, cuando ya estuvo listo para degustar, el líquido paso por un colador para retirarle los excesos de pulpa de plátano y sólo tomar la bebida fermentada que se obtuvo.


CONCLUSIONES

Resultados Debido a que en casa no se cuentan con los equipos necesarios para valorar el grado de alcohol de la bebida, el pH o los grados brix que tenía el mosto, los resultados sólo se basaron en el aroma, el color, la viscosidad, la apariencia, para obtener lo mencionado con anterioridad se hizo una prueba sensorial con 30 personas para comprobar que tanta aceptabilidad tenía, y en un futuro poder mejorarla. A simple vista, se podía observar que la primera muestra (fermentada con levadura) tuvo un color más claro que la segunda y un aroma más fuerte de alcohol, en consideración con las viscosidades no hubo mucha diferencia, el sabor a alcohol fue más fuerte en la bebida que fue fermentada con levadura, sin embargo, la bebida fermentada sin levadura presento mayor aceptabilidad sensorial ya que presentó un sabor más suave que la bebida fermentada con levadura. Conclusión  Es interesante e importante el conocer cómo se lleva a cabo un proceso de fermentación alcohólica y más porque está comprobado que se puede realizar en casa, no de la misma manera que en un laboratorio, pero se realizó con los materiales que se tuvieron al alcance. Las personas están interesadas en probar productos nuevos e innovadores que se hayan realizado con alimentos que sean comunes y que se tengan en casa, ayudando de esta manera a nosotros como estudiantes a motivarnos un poco más, considerando que en un futuro esta bebida se pueda mejorar e incluso se pueda comercializar.
Medina Rodríguez Jessica Giselle, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa

ESTRATEGIAS LOGíSTICAS PARA EL DISEñO DE UNIDADES DE CARGA EN ZONAS RURALES


ESTRATEGIAS LOGíSTICAS PARA EL DISEñO DE UNIDADES DE CARGA EN ZONAS RURALES

Medina Rodríguez Jessica Giselle, Instituto Tecnológico de Zitácuaro. Sanchez Gomora Emanuel, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El transporte es y ha sido un factor central para el progreso o el atraso de las distintas civilizaciones y culturas (Sarache & Cardona, 2007). En México, el transporte terrestre representa el medio de transporte más utilizado con el 75% frente al 17% del ferrocarril, el 7% del marítimo y el 1% del aéreo. Sus principales ventajas son su servicio puerta a puerta, su flexibilidad debido a la existencia de vehículos adaptados para todo tipo de carga y volúmenes, rapidez y la facilidad con la que se puede coordinar con otros medios de transporte. Sin embargo, sus desventajas están las limitantes de peso y volumen de la carga. (Navarro, 2013) Sin embargo, en la actualidad existen muchos lugares remotos en el mundo que carecen de abastecimiento de víveres y productos de primera necesidad, por lo que es impórtate contar con unidades de carga que sean compatibles con los diferentes medios de transporte disponibles en los lugares. Tal es el caso de una compañía distribuidora que surte a un cliente que se encuentra en una zona difícil de llegar por lo que desea mejorar el aprovechamiento de la capacidad del transporte, además de optimizar los tiempos de carga del producto. La compra promedio mensual de dicho cliente es de 6,366 artículos, con un peso aproximado de 1319 kg. Por lo que la pregunta de investigación es ¿Cómo deben de formarse las unidades de carga para optimizar los tiempos de descarga en zonas rurales?



METODOLOGÍA

Para la realización del presente trabajo se utilizará el método de investigación cuantitativo propositiva, se utilizarán 2 métodos para el cálculo del cubicaje; el método exacto o de la matriz, posteriormente con ayuda de los software se realizará la simulación de los procesos de acomodamiento de los productos al interior de los contenedores  de transporte, la utilización de dichos métodos y los software Stack Builder tienen la finalidad de encontrar la mejor solución que minimice el transporte, almacenaje y manipulación de los productos. Para su desarrollo se realizaron las siguientes actividades. Análisis de abastecimiento: Se identificará que especificaciones tienen los productos a transportar, tales como: Cantidad, kilogramos y kilogramos totales, además se les colocará un ID a la caja y se enlistará los productos que contiene dicha caja. Posteriormente, se clasificarán los productos en las siguientes categorías: Alimentos, aparatos electrónicos, aparatos eléctricos, combustible, repuestos, químicos y herramientas de trabajo. Diseño de unidades de carga: Para el diseño se utilizarán dos tipos de transporte: camioneta Pick Up con carrocería (240 cm x 185 cm x 100 cm) y Pick Up con caja seca (250 mm x 180 cm x 180 cm), al igual que dos tipos de palet: europalet 800 mm x 1200 mm y estándar 1000 mm x 1200 mm con un solo tipo de caja 60 x 40 x 30. Y se realizará la simulación con ayuda del software Stack Builder Comparativa de unidades de carga: Una vez diseñadas las unidades de carga se realizará una tabla comparativa para conocer cuál es la mejor opción para transportar los productos.


CONCLUSIONES

Mediante el análisis de abastecimiento se obtuvo que los productos que se transportan son en mayoría los pertenecientes a las categorías de repuestos y alimentos con un 27.25% y 23.19 % respectivamente. Además, para el transporte se utilizan 80 cajas con diferentes pesos que van desde los 7 kg hasta los 31 kg, dando un total de 1319 kg. Una vez ya realizados todos los análisis con el software Stack Builder y el método exacto se realizó una comparativa entre los diferentes aspectos de las unidades de carga, tales como: longitud, ancho, alto, volumen, eficiencia de área, eficiencia de volumen, n° de cajas, n° de pallets, n° de cajas en pallets y camionetas recomendadas. Teniendo con ello que la mejor opción es utilizar Caja Seca con Europallet, ya que presenta eficiencia de área y de volumen del 85.3 % y 77.9% respectivamente, pero además sólo utiliza 1 camioneta para el transporte del total de los productos. Sin embargo, el no utilizar pallets generaría un aprovechamiento del 89.2% del área y 80.3% del volumen en el caso de la carrocería, pero aun así se tendría que hacer uso de dos camionetas para el transporte total de los productos y se generarían costos por maniobras, además de invertir un mayor tiempo de carga y descarga. La decisión de utilizar o no cargas unitarizadas es una decisión que debe evaluarse , ya que la presencia de pallets puede llegar a ocupar un volumen relevante en el espacio de los contenedores, sin embargo, para este caso de aplicación, el diseño de unidades de carga fue muy útil para agilizar las maniobras, ya que sin la utilización de pallets se realizan mínimo 80 movimientos para la carga o descarga de los productos, en caso contrario, con la utilización de la camioneta Pick Up con caja seca y europallets se realizarán mínimo 4 movimientos con ayuda de un montacargas o un patín hidráulico, es decir, que se reduce en un 95% aproximadamente los movimientos empleados para la carga o descarga de los productos. Con base en lo explicado anteriormente, se puede dar respuesta a la pregunta de investigación, sin embargo, es recomendable evaluar la influencia de los costos por agilizar las maniobras ya que, si bien si se logra minimizar los tiempos de carga y descarga, pero se debe de hacer una inversión en equipos para el manejo de cargas, como el patín hidráulico y los pallets.
Medina Valdes Hector, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana

DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO


DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO

Hernández Casarrubias Natividad, Instituto Tecnológico de Chilpancingo. Jacobo Cuenca Luis David, Instituto Tecnológico de Chilpancingo. Medina Valdes Hector, Instituto Tecnológico Superior de Uruapan. Muñoz Flores José Gilberto Otoniel, Benemérita Universidad Autónoma de Puebla. Rojas Rubio John Rafael, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Históricamente los fenómenos naturales como huracanes, tsunamis, terremotos, etc., han generado desastres de gran magnitud, dejando a su paso una considerable cantidad de estructuras colapsadas, extensas regiones naturales devastadas y aún más, una gran pérdida de vidas humanas. Se calcula que en promedio más de diez mil personas pierden anualmente la vida, debido a este tipo de eventos.   El estudio del comportamiento de las estructuras ante la presencia de cargas generadas por sismos ha sido y es de gran interés en el área de la ingeniería de terremotos y en la dinámica estructural. En los años más recientes, el avance en este campo, con el fin de minimizar la respuesta (aceleración, velocidad y/o desplazamiento) en las estructuras civiles (edificios, puentes, hospitales, escenarios deportivos, etc.), ha sido bastante significativo. Una de las alternativas para mitigar los daños, causados por un sismo, en una estructura es reducir la demanda de la energía absorbida por la estructura. Dentro de esta alternativa, existen los sistemas o equipos de control, los cuales pueden ser pasivos, activos o semiactivos. El disipador de fluido viscoso se cataloga como disipadores pasivos y pueden disminuir considerablemente desplazamientos, y aceleraciones producidas por un sismo. Los dispositivos de fluido viscoso disipan energía forzando el flujo de un fluido a través de un orificio, su comportamiento depende netamente de la velocidad. Los amortiguadores viscosos han sido utilizados con éxito en estructuras civiles, especialmente en áreas geográficas de alta sismicidad. La adición de amortiguadores viscosos a una estructura puede elevar el amortiguamiento de la estructura a un 30 % del amortiguamiento crítico o más. Por consiguiente, esta adición puede reducir las aceleraciones y desplazamientos laterales por un 50% respecto a la estructura sin amortiguadores (Constantinou y Symans, 1992). Ecuación de balance de energía Ei=Ek+Es+Ea+Ed Donde: Ei= Energía de entrada por el sismo Ek= Energía cinética Es= Energía de deformación elástica Ea= Energía de amortiguamiento Ed= Energía de deformación inelástica o ductilidad



METODOLOGÍA

Metodología de la investigación Estudio del estado del arte: Ecuación de movimiento armónico con amortiguamiento Disipación de energía Disipadores viscosos Macheo de acelerogramas Obtención del espectro de diseño símico utilizando el programa SACID de la Ciudad de México. Búsqueda y obtención de 7 acelerogramas de magnitud mayor a 6.5 Diseño de 3 modelos estructurales en el software SAP2000 v22, de 5, 7 y 9 niveles. Revisión de las distorsiones de cada edificio para cada uno de los 7 acelerogramas Diseño del disipador sísmico de fluido viscoso Modelado de los edificios con disipadores en SAP2000 v22 Resultados


CONCLUSIONES

Conclusión Las distorsiones que se presentaron para cada uno de los sismos deben ser controladas por el disipador viscoso que resulte del diseño. Se debe revisar el diseño de los modelos ya que las secciones son robustas. Una vez que tengamos el modelo adecuado se revisarán de nuevo las distorsiones, estas distorsiones deberán ser controladas en un porcentaje por el disipador de fluido viscoso. Las distorsiones obtenidas por medio del análisis dinámico en los modelos, fueron menores a la distorsión máxima que exige la Norma Técnica Complementaria de la Ciudad de México 2017, resultado de un correcto dimensionamiento de las secciones para los elementos estructurales.
Melgoza Ramírez Luis Alberto, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes

INSTALACIóN DE PANELES SOLARES PARA AUTOCONSUMO EN ITSLR


INSTALACIóN DE PANELES SOLARES PARA AUTOCONSUMO EN ITSLR

Melgoza Ramírez Luis Alberto, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

El costo del suministro de energía eléctrica suele ser muy costoso ya que la institución cuenta con bastantes equipos de los cuales algunos de ellos consumen demasiada energía, así como equipos que se encuentran alimentados por lapsos de tiempo prolongados, además de tener instalaciones considerablemente grandes con mucha luminaria, provocando que una buena parte de los recursos de la institución sean destinados para liquidar el costo de este servicio. Sabemos que, aunque podamos producir el 100% de energía para autoconsumo tenemos que seguir conectados al suministro de energía proporcionado por la empresa suministradora de energía eléctrica, pero claramente la reducción del coste de este servicio será abismal en comparación con lo que hasta el momento paga. Otro de los grandes problemas que tenemos para llevar a cabo este proyecto es el financiamiento de los equipos y la instalación. Al tener un consumo tan elevado de energía eléctrica es necesario un sistema demasiado robusto para poder satisfacer las necesidades de la institución, pues este tiene que ser mucho mayor al que necesitaría una residencia o un negocio convencional



METODOLOGÍA

Para realizar un proyecto de este tipo el primer paso es calcular la orientación, posición y ubicación de los paneles solares, para eso tenemos que recopilar todos los datos de la zona en la que será colocado el sistema solar fotovoltaico como lo son la cantidad de radiación solar pico a lo largo de todos los meses del año, estos datos los podemos encontrar en la página oficial de la nasa http://power.larc.nasa.gov. Estos datos los utilizaremos para llevar a cabo los procedimientos de cálculo y así encontrar la mejor forma de colocarlos para que den el máximo rendimiento posible debido a la zona.  Después tendremos que calcular la cantidad de paneles solares necesarios, realizamos un análisis del consumo energético promedio diario de la institución, esto lo podemos calcular sumando el consumo total en el año y lo dividimos entre los 365 días del año, después para que los cálculos de los paneles solares sea correcto tenemos que tomar en cuenta la eficiencia en los diferentes componentes y obtendremos un consumo corregido dividiendo el consumo promedio diario entre las eficiencias que nos dan estos componentes.   Para conocer la potencia que debe tener el sistema solar fotovoltaico que necesitamos para cubrir en su totalidad la demanda energética que tenemos dividimos el dato anterior entre las horas solar pico al día y tenemos en el resultado lo que nuestro sistema necesita generar por hora. Ahora el siguiente paso será escoger la potencia de los paneles solares de la empresa de nuestra preferencia, para poder calcular el número óptimo de paneles solares que serán requeridos para satisfacer las necesidades de la institución usaremos una sencilla fórmula que es la potencia que necesitamos generar por hora por un factor de corrección y el resultado lo dividimos entre la potencia de los paneles que se usarán multiplicado por su eficiencia Sabemos que necesitamos muchos paneles solares lo cual indica que realizar toda inversión en una sola exhibición podría no ser una opción viable para la economía de la institución por lo que se pretende seguir un plan de crecimiento progresivo en varias etapas, cubriendo un porcentaje del consumo total en cada una de estas etapas. El proyecto consta de 5 etapas en las cuales se distribuirán el 100% en partes equivalentes y con un espacio de recuperación económica de 2 años. De esta manera podemos empezar en una primera etapa cubriendo alrededor de un 20% del consumo total, posteriormente pasaremos a las siguientes etapas las cuales se manejarán de la misma manera en los demás edificios. Por último pero no menos importante, teniendo ya el diseño todos los materiales y equipos que serán requeridos para la instalación del sistema solar fotovoltaico, vamos a hacer un presupuesto completo.  Este resultado lo compararemos con el ahorro del consumo energético y nos lanza el resultado de en cuánto tiempo se va a recuperar la inversión.  


CONCLUSIONES

Respecto a lo que compete a este proyecto nos permite llevar al Tecnológico a funcionar completamente con energías limpias y ser una de las instituciones más vanguardistas, inspirando a los jóvenes a cuidar el medio ambiente predicando con el ejemplo. Es interesante mencionar que la instalación de un sistema solar fotovoltaico aún llevándola a cabo en varias etapas con bastante tiempo entre la primera y última de estas pueda resultar en el financiamiento total de la inversión en un tiempo bastante corto, apoyando a no recurrir a préstamos que generarían una deuda extra.    El plan de crecimiento en el sector energético de la institución después de todo el trabajo nos arrojó grandes resultados siendo estos muy satisfactorios sabiendo que los que esperábamos eran resultados económicos a favor en quizá un lapso de tiempo mucho más largo. El estudio de sustentabilidad eléctrica en instituciones es un tema extenso con el que podemos aprender todos para comprobar por nosotros mismos los beneficios que tiene y los problemas que conlleva. De esta manera podremos tener en cuenta todos los factores necesarios para futuros proyectos de este tipo.  
Méndez Reyes María de Lourdes, Instituto Politécnico Nacional
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

DETERIORO Y BIODETERIORO DEL PATRIMONIO INMUEBLE EN MATERIAL PéTREO.


DETERIORO Y BIODETERIORO DEL PATRIMONIO INMUEBLE EN MATERIAL PéTREO.

Méndez Reyes María de Lourdes, Instituto Politécnico Nacional. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El patrimonio inmueble comprende obras arquitectónicas de índole civil, religiosa, militar, sitios históricos, zonas arqueológicas, entre otras irremplazables en nuestra historia. Se han intervenido para su restauración y conservación al pasar de los años, creando ciudades que fusionan el pasado y el presente a lo largo del mundo. Estos inmuebles hablan sobre nuestro pasado como civilización y la evolución que hemos tenido. El tiempo es un factor importante para el proceso de deterioro y biodeterioro que llegan a sufrir estos inmuebles, al igual que las condiciones bioclimáticas de la zona donde se encuentren ubicados. Para la preservación del patrimonio y con ello nuestra historia es importante tener en cuenta el cómo se origina el deterioro y biodeterioro para poder conservar y preservar por más tiempo y en buenas condiciones los inmuebles, y así nuestra huella en el paso de la historia se preserve.   OBJETIVO Identificar los agentes que causan el deterioro y biodeterioro del patrimonio inmueble en material pétreo, de los cuales se analiza el agente principal de las patologías causantes a estas construcciones, ya que en la mayoría de estos la colonización microbiana es frecuente.



METODOLOGÍA

La vida útil del patrimonio inmueble ha ido evolucionando al pasar de los años, esto gracias al crecimiento de la mancha urbana que ha sido notoria recientemente, ya que con ella llega un incremento y un cambio en las condiciones climáticas, tomando como factores los indicadores de la calidad de aire que permiten evaluar el estado de la contaminación atmosférica. Los seis contaminantes criterio que se incluyen son: Partículas suspendidas PM 10 y PM 2.5, Ozono (O3), Dióxido de azufre (SO2), Dióxido de nitrógeno (NO2), Monóxido de carbono (CO). Estos indicadores junto con los agentes bioclimáticos y microrganismos son los principales factores del deterioro y biodeterioro en el patrimonio inmueble de material pétreo. Para la identificación de los agentes que causan el deterioro y biodeterioro en los edificios de importancia histórica es necesaria una inspección visual al inmueble en los cuales se podrán obtener las siguientes observaciones y continuar con un monitoreo futuro: Deterioro por acción del sol y la temperatura. Deterioro por acción del viento. Deterioro por acción del agua. Biodeterioro de materiales. Las consecuencias patológicas causadas por el deterioro y biodeterioro pueden ser (J. Reyes, 2012): Erosión de canteras y aplanados. Pérdida general de aplanados. Formación de cavernas. Disgregación del mortero de unión. Arenización de rocas y morteros constituyentes de mampostería. Desarrollo microbiano en zonas elevadas, libres de mortero, incluyendo roca, e interior de resquicios y cavernas. Costras negras. Costras grises. Costras ocres (asociadas a pigmentos). Eflorescencias. Sangrado de paredes. Alveolización de aplanados y roca. Colonización por plantas y animales superiores.


CONCLUSIONES

Se puede determinar que los agentes ambientales y microorganismos son los principales para generar el deterioro y biodeterioro en los inmuebles con valor histórico y que el cambio climático ha tomado gran importancia en la determinación de estos. Esta investigación se enfoca en materiales pétreos lo cual no quiere decir que no exista patrimonio inmueble que sufra de corrosión ya que hay construcciones actuales que cuentan con la fusión del metal y la piedra. Si bien la estancia de verano fue de una manera virtual los conocimientos adquiridos en ella fueron valiosos para poder desarrollar esta investigación referente al deterioro y biodeterioro y se logró el objetivo propuesto adaptándonos a esta nueva modalidad de la estancia con resultados positivos y adquiriendo nuevos conocimientos referentes a la línea de investigación, que en un futuro apoyarán el desarrollo en el campo laboral.
Mendoza Garcia Diana Montserrat, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia

BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES


BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES

Canales Grimaldo Juan Pablo, Instituto Politécnico Nacional. Loza Aceves Jose de Jesus, Universidad de Guadalajara. Mendoza Garcia Diana Montserrat, Instituto Tecnológico de Tuxtla Gutiérrez. Moreno Macias Pablo Cesar, Universidad de Guadalajara. Obeso Peregrina Andrea, Universidad de Guadalajara. Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la sociedad enfrenta retos importantes en todos los aspectos. Uno de ellos es la integración de grupos minoritarios en actividades cotidianas, para que las personas puedan generar una experiencia que les permita adquirir cualidades como individuos y generar un bienestar individual y/o colectivo. La propuesta desarrollada Bioclimática y espacio público: propuesta de intervención del espacio público asociado a estructuras sustentables e incluyentes.       engloba dos aspectos muy importantes para el desarrollo integral de una persona: educación y recreación



METODOLOGÍA

En los diferentes espacios de este proyecto como son el parque sensorial y la escuela de educación especial, se adaptan e integran diversos elementos arquitectónicos para que el usuario sea capaz de descubrir y desarrollar sus cualidades a través de la experiencia sensorial e intuitiva. Para la realización de este proyecto se usó el método cuantitativo de diseño arquitectónico del Arquitecto Álvaro Sánchez, el cual permite el planteamiento de una solución de proyecto. Finalmente, estos elementos y métodos se concluyen en un objeto arquitectónico apto para el cumplimiento de su objetivo, ofreciendo soluciones técnicas constructivas y sustentables. La desintegración social es un problema con alta incidencia en los grupos de todos los niveles educativos y socioeconómicos de determinada población, en donde se generan diferencias propias de los integrantes, habiendo una marcada deficiencia en los sistemas de organización y regularización para atender los problemas.  Cuando existe, el grupo como tal, no se desarrolla en su máxima plenitud


CONCLUSIONES

Crear el Centro de Recreación e Integración Social supone para el desarrollo humano un paso muy importante en la sana convivencia y bienestar del lugar en donde se encuentre. Esto demuestra la flexibilidad que tiene la arquitectura para crear, así como innovar conceptos e ideas de acuerdo a los nuevos requerimientos sociales, al mismo tiempo se demuestra la responsabilidad que esta rama tiene en ofrecer espacios que den solución a dichos requerimientos. Este proyecto cumple con ellos de manera sustentable, técnica y perceptual, prometiendo convertirse en un referente urbano a nivel local, nacional e internacional, no solo por su diseño, sino también por el origen de su concepción que va más allá de solo mejorar un lugar y construir un objeto arquitectónico.  Ofrecer una oportunidad a todas las personas, especialmente a las que tienen capacidades diferentes para su bienestar y desarrollo, para percibir su entorno de manera distinta y de experimentarla con una mejor calidad de vida emocional y físicamente, es lo que se ha plasmado en este proyecto, generando un cambio positivo en la calidad de vida de nuestra sociedad.
Mendoza Garcia Maria Camila, Universidad La Gran Colombia
Asesor: Dr. Salvador Adame Martinez, Universidad Autónoma del Estado de México

ANáLISIS DE RIESGO POR INUNDACIóN EN EL ORIENTE DE LA ZONA METROPOLITANA DE TOLUCA (ZMT)


ANáLISIS DE RIESGO POR INUNDACIóN EN EL ORIENTE DE LA ZONA METROPOLITANA DE TOLUCA (ZMT)

Mendoza Garcia Maria Camila, Universidad La Gran Colombia. Asesor: Dr. Salvador Adame Martinez, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

En las últimas décadas la Zona Metropolitana de Toluca ha presentado una expansión urbana descontrolada derivado de una dinámica económica y poblacional importante, especialmente en la parte oriente, este proceso de expansión ha ocasionado que se desarrollen áreas susceptibles a riesgos por fenómenos meteorológicos como las inundaciones. Por lo tanto, el objetivo de la investigación fue analizar los atlas de riesgo de inundación del oriente de la Zona Metropolitana de Toluca conformada por los municipios de: Lerma, Metepec, Ocoyoacac y San Mateo Atenco, para identificar las zonas sujetas de inundación en el periodo de 2016-2018, y con ello coadyuvar con el objetivo 11 de los Objetivos de Desarrollo Sostenible (ODS) Ciudades y Comunidades Sostenibles, a fin de evitar algún tipo de riesgo tanto de vidas humanas como de pérdidas económicas.



METODOLOGÍA

En el proceso de análisis de riesgo por inundación, se hizo a través de tres fases, la primera de ellas estuvo enfocada en la recopilación y revisión bibliográfica de los atlas de riesgo y los atlas de inundación; es de resaltar que los atlas de riesgos son elaborados por cada uno de los municipios del Estado de México. Mientras que los atlas de inundación los elabora la Comisión de Aguas del Estado de México dentro del Programa de Prevención y Atención de Emergencias.   Con base en lo anterior, se formuló la fase siguiente que tuvo como objetivo la elaboración de la cartografía de uso de suelo y vegetación. Este procedimiento se realizó por medio de la construcción de productos cartográficos en el software ArcGIS 10.5 con la ejecución de herramientas de geoprocesamiento las cuales permitieron la digitalización de los usos de suelo de cada municipio y sus respectivas categorías de usos de suelo, además de las áreas correspondientes a zonas de inundación entre los periodos de (2016-2018) de los municipios que conforman el oriente de la zona metropolitana. Finalmente, con la información obtenida en las fases anteriores, se realizó un análisis comparativo de riesgo por inundación en el oriente de la zona metropolitana que tuvo como resultado final las tablas de eventos presentados en cada municipio por inundación involucrando las causas, áreas e infraestructura afectada por este fenómeno en el período de tiempo correspondiente al definido en la investigación.


CONCLUSIONES

Durante la estancia de verano se logró concluir que los atlas de riesgo y los atlas de riesgo por inundación constituyen el marco de referencia para la elaboración de políticas y programas en todas las etapas de la Gestión Integral del Riesgo, ambos atlas coadyuvan con la meta 11.b de los ODS ya que permiten aumentar el número de ciudades y asentamientos humanos que adoptan e implementan políticas y planes integrados para la mitigación del cambio climático y la adaptación a él y la resiliencia ante los desastres.  Por lo tanto, los mapas de riesgo por inundación realizados en el oriente de la zona metropolitana muestran las áreas susceptibles a inundación y, añadido a esto las tablas de eventos suministran información preliminar del evento como su ubicación, la infraestructura afectada y los factores que ocasionaron la inundación.
Mendoza Jiménez Edwin Geovani, Instituto Politécnico Nacional
Asesor: Dr. Francisco Antonio Castillo Velasquez, Universidad Politécnica de Querétaro

MODELO DE SISTEMA EXPERTO PARA LA DETECCIÓN DE FALLAS EN LA INDUSTRIA AUTOMOTRIZ.


MODELO DE SISTEMA EXPERTO PARA LA DETECCIÓN DE FALLAS EN LA INDUSTRIA AUTOMOTRIZ.

Domínguez Ortiz Gerardo Daniel, Instituto Tecnológico de Sonora. Mendoza Jiménez Edwin Geovani, Instituto Politécnico Nacional. Asesor: Dr. Francisco Antonio Castillo Velasquez, Universidad Politécnica de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los problemas automotrices son muy comunes, ya que existen diversas razones por las cuales el auto puede fallar. El problema radica en que no todas las personas son expertas en cuestiones mecánicas, por lo que la mayoría recurre a un taller mecánico sin saber la verdadera razón por la cual el auto está fallando.   Se tomó la iniciativa de realizar una aplicación en la cual el usuario pueda identificar la raíz del problema por la que está fallando el auto o bien, puede comprobar una hipótesis que tenga el usuario del por qué él cree que está fallando. Cabe recalcar que el objetivo de la aplicación no es arreglar el auto o no ir a un mecánico, sin embargo, al usuario le permite tener un conocimiento más acertado de lo que está causando deficiencias en el coche. La solución propuesta trabaja con técnicas de IA y sistemas expertos. La Inteligencia Artificial (IA) es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Según Russel y Norvig (2003), existen diferentes tipos de inteligencia artificial: Sistemas que piensan como humanos: automatizan actividades como la toma de decisiones, la resolución de problemas y el aprendizaje. Un ejemplo son las redes neuronales artificiales. Sistemas que actúan como humanos: se trata de computadoras que realizan tareas de forma similar a como lo hacen las personas. Es el caso de los robots. Sistemas que piensan racionalmente: intentan emular el pensamiento lógico racional de los humanos, es decir, se investiga cómo lograr que las máquinas puedan percibir, razonar y actuar en consecuencia. Los sistemas expertos se engloban en este grupo. Sistemas que actúan racionalmente: idealmente, son aquellos que tratan de imitar de manera racional el comportamiento humano, como los agentes inteligentes.  



METODOLOGÍA

El desarrollo del modelo se basó en la estructura de un sistema experto basado en reglas. Dicha estructura tiene como elementos una interfaz de usuario, un generador de explicaciones, un motor de inferencias, una memoria de trabajo y una base de conocimiento conformada por reglas y hechos. La interfaz de usuario será el medio de comunicación entre el usuario y el sistema a crear. La base de conocimiento es un conjunto de reglas y hechos, los cuales están relacionados con el tema para el que va dirigido el sistema experto. En nuestro caso, la base de conocimiento fue investigada para que fuera afín a los problemas básicos en el diagnóstico de fallas automotrices, y de esa forma crear reglas y hechos. La memoria de trabajo, sería donde se concentra la información de entrada para iniciar el sistema experto, a lo largo de la ejecución, esta memoria irá creciendo, ya que al pasar por el motor de inferencia y validar ciertas reglas y hechos, se va a ir adquiriendo nuevo conocimiento que nuevamente tendrá que ser procesado. El método de inferencia será el encargado de validar lo que hay en la memoria de trabajo con los hechos y reglas que se encuentran en la base de conocimiento. Para implementar el método de inferencia, se basó en los sistemas de encadenamiento hacia adelante (Partiendo de los hechos de la memoria de trabajo a una conclusión) y encadenamiento hacia atrás. (Buscando validar una hipótesis, parte de una conclusión). La implementación de dicha aplicación, se realizó de tal forma que el usuario sea capaz de elegir qué tipo de reglas desea dar como entrada al sistema, y de esta forma el sistema funcione con un conocimiento deseado, ya no sólo automotriz, sino de cualquier índole.   La entrada de dicho conjunto de reglas se realiza a través de un archivo de texto, bajo el siguiente formato: CondiciónACumplir1 & CondiciónACumplir2 & ... & CondiciónACumplirN ; ConclusiónRegla1 Dónde cada renglón representa una regla. Separando las condiciones con el símbolo "&" y separando la conclusión con ";" . La aplicación recibe como entrada un archivo de texto con el formato previamente mostrado, una vez allí, el usuario puede seleccionar las distintas opciones que pertenecerán a la memoria de trabajo. Posteriormente el usuario podrá elegir entre los dos métodos de inferencia (Encadenamiento hacia adelante y hacia atrás) y la aplicación le mostrará que nuevo conocimiento se adquirió, o bien, si fue válida la hipótesis después de procesar la información de entrada.


CONCLUSIONES

La importancia de los sistemas expertos es fundamental en la actualidad, pues ayudan a automatizar numerosos procesos de cualquier índole. El proyecto realizado funcionó como una guía para el desarrollo de un Sistema Experto más complejo, y tiene la ventaja que es general, es decir, funciona para cualquier base de conocimiento que se cargue inicialmente. Se implementaron mecanismos de encadenamiento hacia adelante y atrás que representan el motor de inferencia del sistema. La apk del sistema se pondrá a disposición de la comunidad interesada. Como trabajo futuro se propone implementar el manejo de incertidumbre para tratar información imprecisa e incompleta; esto ayudaría a fortalecer la arquitectura del sistema para los casos en que no se cuenta con información de entrada y, principalmente, para enriquecer la interacción y confianza con el usuario final.
Mendoza López Dafna Yuridia, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Daniel Esteban Salas León, Fundación Universitaria Colombo Internacional

HISTORIA DE LA ISO 9001


HISTORIA DE LA ISO 9001

Mendoza López Dafna Yuridia, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Daniel Esteban Salas León, Fundación Universitaria Colombo Internacional



PLANTEAMIENTO DEL PROBLEMA

La ISO 9001 representa un estándar internacional para los Sistemas de Gestión de Calidad, obtener una certificación bajo esta norma ayuda a las organizaciones a elevar la calidad de sus productos y procesos, en virtud de ello los clientes manifiestan más confianza en los productos o servicios que obtiene.



METODOLOGÍA

Este escrito trata de una investigación documental basada en autores secundarios, donde encontrará información acerca de la Historia de la ISO 9001, algunos conceptos relacionados a ella, y alude sobre  sucesos que transformaron el enfoque de calidad a través de los años. Así mismo, indagamos sobre la versión más reciente de esta norma, la ISO 9001:2015, se menciona su definición, principios, estructura, comparación con versiones pasadas y el por qué las empresas deben obtener la certificación.


CONCLUSIONES

El propósito principal es dar a conocer aspectos importantes de la norma a aquellas personas u organizaciones que así lo requieran de forma clara y concisa.
Mendoza Loza Luis Clemente, Universidad Autónoma de Guerrero
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

CONCRETOS RECICLADOS EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL EN GUADALAJARA.


CONCRETOS RECICLADOS EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL EN GUADALAJARA.

Mendoza Loza Luis Clemente, Universidad Autónoma de Guerrero. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción es a nivel global una de las industrias más contaminantes, algunos de los problemas que ocasiona la construcción son: el consumo de grandes volúmenes de concreto, ya que este es el segundo recurso más consumido solo después del agua, la excesiva explotación de los recursos naturales para producir materias primas y la disposición final de los Residuos de Construcción y Demolición (RCD), porque, se sabe que estos al no ser tratados adecuadamente contaminan el suelo donde se depositan y de igual forma los mantos acuíferos que se encuentren próximos a estos. En nuestro país, de acuerdo al Diagnóstico Básico para la Gestión de Residuos, el problema de los RCD representa una producción de más de 10 millones de toneladas anuales, donde sólo la Ciudad de México genera aproximadamente la cuarta parte de esto, sin embargo, existe una empresa establecida en la capital del país dedicada a la recolección, tratamiento y venta de concreto reciclado como agregado, aunque solo logra comercializar el 10% del volumen que recibe. La idea de utilizar el concreto reciclado como sustituto de los áridos naturales se remonta a la época de la posguerra, donde la mayoría de las ciudades europeas quedaron destruidas debido al conflicto bélico, otro factor importante es que en esa región del mundo la disponibilidad de recursos es más limitada que en otras partes, lo que obliga a buscar alternativas para solucionar estos inconvenientes. En países asiáticos, europeos, Estados Unidos, Colombia y México se han hecho diversos estudios sobre la factibilidad económica, técnica y ambiental de sustituir los agregados naturales de forma parcial o total por agregado de concreto reciclado (RCA), destacando resultados como: un ahorro económico significativo, un desempeño físico y mecánico similar al concreto convencional, la disminución en la explotación de bancos de materiales y un menor impacto ambiental. Esta investigación tiene como objetivo conocer la situación actual del concreto reciclado en la Región Occidente de México, de manera específica en el estado de Jalisco y tiene relación con un Objetivo del Desarrollo Sostenible: Industria, Innovación e Infraestructura.



METODOLOGÍA

Esta investigación es de tipo descriptiva y se busca conocer la situación del concreto reciclado en Jalisco, considerando los bancos de materiales próximos al centro de población analizado, las empresas constructoras establecidas en la zona, la normatividad y legislación estatal y local, los estudios referentes a RCD y propuestas para el manejo de éstos y el conocimiento y aprobación de la población sobre el concreto reciclado. El primer paso para llevar a cabo este estudio fue seleccionar la zona de estudio de cada estado tomando en cuenta la población, así como su desarrollo de la industria de la construcción. Para recabar la información se implementaron varios recursos, que a continuación se describen: Búsqueda de literatura especializada referente a los RCD en aspectos económicos, técnicos y ambientales, a nivel internacional, nacional y local. Registro de los bancos de materiales, haciendo uso del Inventario de Bancos de Materiales de la SCT, considerando una distancia máxima de 50 km al centro de población logrando identificar la existencia de 23 bancos de materiales. Los datos obtenidos son su ubicación, los materiales que se extraen, el tratamiento y probables usos de estos, las restricciones ambientales y en el uso de explosivos para la extracción propios de cada banco, la distancia al centro de población y al límite de la traza urbana, así como la producción por tipo de material y los costos de estos. Registro de las empresas constructoras de la ciudad de estudio y aplicación de encuestas para obtener información sobre el tipo de obras que ejecutan, la zona donde se encuentran estas, el tipo y volumen en la generación de RCD, su gestión, disposición final y probable reutilización, así como los costos por asociados al reciclaje y transporte de éstos, y la distancia promedio hacia el lugar para la disposición final. Solicitud a dependencias en materia ambiental a nivel estatal y local, información sobre los sitios autorizados para la disposición de RCD y de centros de reciclaje y acopio de los mismos en la zona de estudio para esto se contactó a la SEMADET, la Secretaría de Ecología y la Dirección de Medio Ambiente del municipio de Guadalajara. Encuesta sobre el reciclaje y el concreto reciclado, para conocer la opinión de la población sobre la utilización del concreto reciclado en obras de construcción. Una vez obtenida la información se procede a hacer un análisis de esta y se darán propuestas sobre el aprovechamiento de RCD.


CONCLUSIONES

A nivel internacional como nacional existen estudios sobre la factibilidad de emplear concreto reciclado como agregado en concreto nuevo, hasta cierto punto esto es factible, para evitar comprometer la integridad estructural se habla de un 20-30%, donde destacan buenos resultados en los ensayos físicos y mecánicos hechos a especímenes con estas condiciones y un ahorro de alrededor del 10% en comparación con el concreto convencional. Respecto a la zona de estudio hay poca información, pero existen un par de propuestas: una para el Manejo Adecuado de los Escombros en el Municipio de Zapopan, Jalisco y otra para la Gestión Integral Sustentable de los Residuos de Construcción y Demolición (RCD) en el AMG, así como el Programa para la Prevención y Gestión Integral de Residuos Sólidos del Estado de Jalisco, en cuanto a la normatividad existe a nivel estatal la norma NAE-SEMADET-001/2016 y una Ley de Gestión Integral de los Residuos, donde este tipo de residuos se consideran con manejo especial. Con base a la encuesta aplicada a la población en general solo 1% vive en Jalisco, de los cuáles todos se dedican a actividades de la construcción, 67% conoce el concreto reciclado y la mitad lo considera una buena alternativa en obras de urbanización y 25% en edificación e infraestructura. En cuanto a la encuesta a constructoras, solo el 9% de las registradas accedió a colaborar.
Mendoza Lozada Jesus Alberto, Instituto Tecnológico de Toluca
Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior

MACHINE LEARNING


MACHINE LEARNING

Mendoza Lozada Jesus Alberto, Instituto Tecnológico de Toluca. Olivas Mendoza Daniela, Instituto Tecnológico de Ciudad Juárez. Reyes Rivera Joel, Instituto Tecnológico de Culiacán. Sanchez Hernandez Iran Armando, Instituto Tecnológico de Zitácuaro. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

El consumo de los recursos naturales es una actividad de la vida cotidiana que ha recibido gran atención a partir del siglo XV. De manera posterior, se hicieron comunes los discursos académicos y empresariales relacionados con el consumo sostenible haciendo énfasis en lo moral, normativo e individualista, pero con mayor énfasis en los últimos 40 años, debido al aporte de ciencias como la sociología, antropología, historia, entre otras. A este modelo, no se le ha prestado la debida atención que realmente requiere en comparación con las connotaciones que podría implicar una crisis ambiental en términos de la escasez hídrica que producen los cambios climáticos. Debido a la negligencia que se le ha dado a este problema han surgido discursos y propuestas del consumo verde, pero realmente no son soluciones a esta problemática, puesto que solo se dedican a la mercadotecnia y no a fomentar los valores humanos. Una alternativa de solución es la aplicación de metodologías matemáticas y de ingeniería, qué, una vez analizando tus patrones de comportamiento y de consumo una población especifica pueda entrenar un módulo automático de reconocimiento a los consumidores del servicio público de agua como herramienta que permite establecer conductas de consumo sostenible en los hogares de la región, así como una conducta de cuidado con el medio ambiente. En el presente trabajo se pre-procesa una base de datos previamente adquirida con información relevante sobre el consumo hábitos, percepciones y realidades de habitantes de la ciudad de Pereira, así como también se desarrolló una herramienta estandarizada que permite clasificar a los consumidores de los servicios públicos de la ciudad de Pereira, basados en la teoría del consumo sostenible y técnicas de aprendizaje de máquina. Específicamente, se realiza un enfoque de aprendizaje supervisado y otro no supervisado para evaluar las ventajas y dificultades de cada metodología. Gracias a la obtención de outliers, clusters y gráficas comparativas relativas a las conductas de consumo actuales entre los habitantes de la ciudad de Pereira, se puede plantear una base sólida para la implementación de un siguiente nivel, el desarrollo de un enfoque de identificación automático de perfiles de consumo basado en aprendizaje de máquina,  una herramienta de mucha utilidad para las empresas de servicios públicos, ya que se contaría con un aplicativo de monitoreo, seguimiento y control a usuarios irresponsables, de modo que se puedan tomar medidas correctivas en casos extremos.



METODOLOGÍA

1. PREPROCESAMIENTO DE LA BASE DE DATOS. En esta etapa se realizó un análisis descriptivo preliminar para descartar respuestas no relevantes, datos atípicos, y su conversión de valores alfabéticos a valores alfanuméricos. Asimismo, se etiquetaron las entradas de la base de datos de acuerdo con la rotulación otorgada por un experto, que comprende tres categorías: consumidor responsable, consumidor medianamente responsable y consumidor no responsable. Una vez procesada la base de datos, se utilizó para el entrenamiento de algoritmos de reconocimiento de patrones. 2. IMPLEMENTACIÓN DE MÓDULO DE APRENDIZAJE SUPERVISADO. Se desarrolló una metodología basada en técnicas de aprendizaje de máquina supervisado para la identificación de perfiles de consumidores de acuerdo con la teoría del consumo sostenible. De esta manera, se implementaron estrategias de aprendizaje supervisado tales como clasificadores simples (Bayesiano lineal, Bayesiano cuadrático, K vecinos más cercanos) y clasificadores complejos (Máquinas de soporte vectorial y Procesos Gaussianos). 3. IMPLEMENTACIÓN DE MÓDULO DE APRENDIZAJE NO SUPERVISADO. Se desarrolló una metodología basada en técnicas de aprendizaje de máquina supervisado y no supervisado para la identificación de perfiles de consumidores de acuerdo con la teoría del consumo sostenible. Puesto que se contó con datos que relacionan distintos tipos de variables, se implementaron estrategias de aprendizaje no supervisado para robustecer la metodología. De esta manera se hallaron patrones a partir de algoritmos de agrupamiento (K medias, mezcla de Gaussiana con inferencia Bayesiana, agrupamiento jerárquico). 4. VALIDACIÓN LOS MÓDULOS DE APRENDIZAJE. Para validar las estrategias implementadas en las etapas anteriores se emplearon métricas de rendimiento como la precisión, la dispersión, curvas ROC, especificidad y sensibilidad sobre los resultados que se obtengan a partir del perfilado de los consumidores.  


CONCLUSIONES

El aprendizaje automático es un campo de la informática que da a las computadoras la capacidad de aprender sin estar programado explícitamente en esta investigación se implementó la base de datos para poder aplicarle un análisis descriptivo de datos no relevantes para posteriormente analizar las diferentes técnicas de aprendizaje máquina(Módulo de aprendizaje supervisado, Módulo de aprendizaje no supervisado) y así desarrollar una metodológica ideal que nos permita realizar la identificación de los perfiles que buscamos de acuerdo con la teoría de consumo sostenible, para validar las estrategias implementadas en las etapas anteriores se emplearon métricas de rendimiento como la precisión, la dispersión, curvas ROC, especificidad y sensibilidad sobre los resultados que se obtengan a partir del perfilado de los consumidores. Se desarrolló un aplicativo en Python que articula los módulos de pre-procesamiento de datos, así como los de aprendizaje. Este aplicativo permite visualizar información respecto a la población de consumidores, relacionándolos en términos de sus hábitos de consumo
Mendoza Zaragoza Elizabeth, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes

DISEÑO DE ANDADOR Y PROPUESTA DE ALUMBRADO CON ENERGÍAS LIMPIAS


DISEÑO DE ANDADOR Y PROPUESTA DE ALUMBRADO CON ENERGÍAS LIMPIAS

Mendoza Zaragoza Elizabeth, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

Analizando la ciudad de Los Reyes de Salgado, Michoacán se puede observar como no existe una identidad arquitectónica local o tendencia a seguir aparte de no contar con un plan de desarrollo urbano adecuado por lo que se requiere de una búsqueda en revistas o artículos actuales sobre diseño y urbanismo para identificar elementos arquitectónicos que se adapten al proyecto, una vez teniendo esto cabe mencionar que la ruta de acceso no está en las mejores condiciones ni cuenta con los servicios públicos principales para ser transitada por los usuarios por lo que se necesita realizar un análisis del área para que el proyecto pueda acoplarse al medio y a su misma vez brinde la funcionalidad que demanda, en el análisis también se podrá analizar el recorrido del sol para lograr la mejor colocación de los paneles solares que alimentaran las luminarias.



METODOLOGÍA

Para llevar a cabo este proyecto en el camino al ITSLR desde la carretera Zamora-Los Reyes se tomarán en cuenta los siguientes pasos.   Estudiar el área y determinar las dimensiones a utilizar para el andador, esto por medio de google earth, trazando la ruta que da como resultado los metros de la longitud. En archicad 22, comenzar a dimensionar el andador, determinando el ancho, alto, siguiendo el reglamento de SEDESOL mobiliario urbano. Comenzar a diseñar la propuesta del andador incorporando barandal de protección. Una vez teniendo el diseño y después de buscar las luminarias que se desea proponer, realizar una distribución para las luminarias optimizando su rango de iluminación. Teniendo el diseño y la propuesta de luminarias calcular cuanta energía se requiere para el andador. Buscar en la marca deseada las características de los paneles solares que se adecuarán al proyecto, posteriormente realizar los cálculos que determinarán la cantidad necesaria de paneles. En archicad 22, agregar al diseño la propuesta de los paneles solares fijando la ubicación y organización de todos los elementos. Analizar y calcular dos propuestas para el sistema de conexión aislado y el conectado a la red y así se pueda analizar el costo beneficio de los sistemas para saber cuál es el más conveniente.


CONCLUSIONES

Como conclusión para el diseño del andador se puede observar que la propuesta del sistema fotovoltaico interconectado a la red es mucho más viable por no necesitar de baterías, puede resultar un poco más económico aparte de que la energía que no se utilice se va acumulando y puede llegar a generar ingresos, aunque son mínimos y en relacion al estilo de su  diseño se optó por uno simple ya que despues de un analizar la zona que esta un poco descuidada se pretende no generar un contraste impactacte pero si brindar sensacion de seguridad, amplitud y limpieza esto gracias a sus figuras simples y uso de colores frios propios de los materiales, este proyecto es completamente sustentable como se puede analizar por utilizar energías limpias, en general utilizar este tipo de tecnologías amigables con el ambiente son de un fuerte ingreso al principio pero que al paso del tiempo se recupera la inversión, lo más importante de estas es que se aprovecha un recurso renovable y al ser utilizadas en una ruta transcurrida por estudiantes se podrá crear conciencia sobre la energía solar.
Meza Villalvazo Angélica Nahomi, Instituto Tecnológico de Colima
Asesor: Dra. Elena Elsa Bricio Barrios, Instituto Tecnológico de Colima

MODELADO MATEMáTICO DE LOS PARáMETROS FISICOQUíMICOS DE CALIDAD DEL AGUA EN GRANJAS ACUICOLAS;VALIDACIóN RESPECTO A LA LITERATURA ABIERTA


MODELADO MATEMáTICO DE LOS PARáMETROS FISICOQUíMICOS DE CALIDAD DEL AGUA EN GRANJAS ACUICOLAS;VALIDACIóN RESPECTO A LA LITERATURA ABIERTA

Meza Villalvazo Angélica Nahomi, Instituto Tecnológico de Colima. Asesor: Dra. Elena Elsa Bricio Barrios, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

El camarón es un producto de alto valor, producido principalmente en Asia y América Latina, destinado generalmente para la exportación, sustento de varias regiones en vías de desarrollo. Se considera que la acuicultura es el sector productivo que presenta mayor crecimiento en el mundo, desde el año 2011 esta actividad superó en tasa de crecimiento a la ganadería de bovinos. En materia de acuicultura nuestro país registra antecedentes desde el siglo pasado y a partir de la década de los cincuenta inicia su desarrollo formal con la creación de amplios cultivos extensivos o de carácter experimental; colocándola como el sector primario productor de alimentos con mayor desarrollo. En lo que concierne a esta investigación, no se han realizado modelados matemáticos que describan la relación de los parámetros fisicoquímicos del agua con la cantidad de proteína administrada al cultivo de camarón, por lo cual la investigación cumple con la necesidad de innovación tecnológica en esta área de estudio, ya que puede hacer más eficiente la administración de la proteína durante la crianza de estos.



METODOLOGÍA

La investigación se realizó en el departamento de Ingeniería Ambiental y Bioquímica del Tecnológico Nacional de México, Campus Colima; México. Los datos fueron extraídos del artículo de Faillace (disponible en la revista AquaTIC). Para el desarrollo del proyecto, se implementaron software para análisis de datos estadísticos, tales como Microsoft Excel, el cual se utilizó para el registro de los datos y Minitab, que permitió la ejecución de funciones estadísticas básicas y avanzadas, de una manera rápida y eficaz, facilitando los cálculos pertinentes a la investigación. Para lograrlo, se llevó a cabo la recolección de datos históricos de camarón, los cuales fueron recabados de forma manual, seleccionando a aquellos que lograran describir la tasa de crecimiento y la evolución de los parámetros durante este periodo. Teniéndose en cuenta estos datos, se prosiguió a correlacionar los parámetros utilizando el software Minitab, desarrollando la técnica de regresión múltiple; posteriormente, se realizó la validación de los datos respecto a la literatura abierta, mediante la interpretación del diagrama de Pareto, proporcionado de igual manera por el software y por medio de un detenido análisis fue posible aprobar los resultados obtenidos. A continuación, los datos fueron procesados con el método de superficie de respuesta, pero en esta ocasión se ejecutó la correlación de los parámetros empleando programa Matlab y con el diagrama de Pareto brindado por el software, se realizó la validación de los resultados obtenidos por este método. Finalmente, se llevó a cabo la comparación de los resultados a través de las ecuaciones de regresión dadas en cada caso, implementando el programa Microsoft Excel y así mismo, se evaluó el desempeño de los datos, calculándose el error porcentual.  


CONCLUSIONES

En este trabajo se planteó una propuesta integral que incluyese la aplicación de la bioquímica, las matemáticas y la programación para crear un modelado matemático capaz de describir la proteína dietaria de camarón de crianza con relación a los parámetros fisicoquímicos del agua, estableciendo así un fundamento científico, con raíz en las correlaciones establecidas empíricamente. A partir de la recolección de los datos históricos de Faillace, que fueron la base para esta investigación, los datos se registraron y se graficaron respectivamente. Como primera etapa, se realizó un test de outlier y se determinó todos los datos reportados no son atípico, por tanto, la estrategia de medición y monitoreo fue adecuada. A continuación, se evaluaron los parámetros de calidad de agua con los modelos matemáticos respecto a la literatura abierta, coincidía las relaciones empíricas y numéricas. Por otro lado, se propuso modelos lineales con regresiones múltiples y superficie de respuesta y se observó que: El pH se correlacionó con los valores del Amonio, Nitratos y Nitritos, el error máximo calculado fue de 2.4% con la regresión múltiple y 1.05% con la superficie de respuesta lo que comprueba que el modelo lineal, se ajusta a este caso. Temperatura: es afín con el Oxígeno, el pH y los Nitritos, se calculó un error porcentual del 3.44% y 1.18% por regresión múltiple y superficie de respuesta, respectivamente, los resultados fueron aceptados, ya que, la expresión dada es representativa. Alcalinidad: se analizaron sus valores con los del Oxígeno y pH, obteniendo un error porcentual del 10% y 10.9% por regresión múltiple y superficie de respuesta, respectivamente, se aprueba el modelo lineal para este caso, porque logra describir el comportamiento del parámetro. Oxígeno: sus datos se relacionaron con los de la Temperatura, pH y Nitritos, presentando un error porcentual del 29% y 29.7% cuantificado por la regresión múltiple y superficie de respuesta respectivamente, por lo cual, se intuye que el comportamiento de este dato no se lleve a cabo de forma lineal y el modelo no sea representativo. En cambio, los parámetros de calidad como Amonio, Nitritos, Nitrato y Oxígeno, se observó que, al desarrollar el modelo matemático muestra las mismas correlaciones respecto a la literatura abierta. No obstante, estos modelos no fueron capaces de describir modelos lineales, ya que estos están son parámetros codependientes de los otros tres, es decir, se requiere realizar una evaluación de modelos no lineales para describirlo y, posteriormente validarlos.  
Miguel Cruz Lucia Monserrat, Universidad Autónoma del Estado de México
Asesor: Dr. Guillermo César Mondragón Rodriguez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

LECHO EMPACADO EN REACTORES DBD PARA LA DESINFECCIóN TOTAL O PARCIAL DE PATóGENOS CONTENIDOS EN EL AIRE


LECHO EMPACADO EN REACTORES DBD PARA LA DESINFECCIóN TOTAL O PARCIAL DE PATóGENOS CONTENIDOS EN EL AIRE

Miguel Cruz Lucia Monserrat, Universidad Autónoma del Estado de México. Asesor: Dr. Guillermo César Mondragón Rodriguez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades causadas por bacterias patógenas son una de las principales causas de muerte, estas bacterias se pueden presentar como pequeñas gotículas de aerosol que expulsamos cuando tosemos, hablamos o estornudamos en espacios confinados o semiconfinados. Estas microgotas se pueden precipitar en las superficies, sin embargo, cuando estas son más pequeñas o tienen el tiempo suficiente para evaporarse antes de alcanzar la superficie por el efecto de flotación estas pueden viajar por todo el espacio que está confinado, pero si no existe un movimiento en el fluido se provoca la precipitación de estas partículas teniendo así un mayor riesgo de contagio. Por lo que el control y descontaminación del aire son cruciales, las aplicaciones de plasma en conductos de aire para desinfección han sido estudiadas más a detalle, dando resultados eficientes, y en este trabajo se propone el diseño de un reactor con una configuración diferente a las ya estudiadas.



METODOLOGÍA

Durante la primera semana se realizó una revisión bibliográfica acerca de la aplicación de los plasmas, su composición, entre otros. La existencia de principalmente dos tipos de plasmas que es el cuarto estado de la materia hace referencia primero al plasma térmico que se caracteriza por tener un equilibrio térmico con altas temperaturas de millones de grados (107-109), y segundo al plasma no térmico o atmosférico que por sus características es llamado también plasma frío, estos plasmas se encuentran a temperaturas ambientales esto es porque la temperatura de sus especies pesadas (partículas neutras e iones) es cercana a la temperatura ambiente a diferencia de la temperatura electrónica que oscila entre los 5,000 y 100,000 °C, estas características permiten la producción de plasma atmosférico en reactores con diversas geométricas.  Una vez obtenida esta información se continuó con la búsqueda de información sobre las características de los reactores, algunas de ellas como los materiales que se han utilizado en investigaciones o incluso la industria, así como también las configuraciones más comunes y posibles configuraciones nuevas. En la producción de plasmas atmosféricos se encuentra en dos distintas formas: llamadas de corona y de barrera dieléctrica operables a condiciones ambientales. Estos tipos de descargas producen electrones muy energéticos, generando un gran número y diversidad de especies reactivas muy energéticas las cuales activan procesos químicos y físicos que con otros entornos o procesos químicos son difíciles de conseguir.  En reactores de descarga de barrera dieléctrica (DBD) para métodos de desinfección a sido estudiada con resultados eficientes, y con costos bajos, a través de datos expuestos en estas investigaciones se seleccionaron los parámetros y materiales, así como las dimensiones. En nuevas innovaciones sobre reactores en DBD es rellenar el volumen entre las placas de electrodos con material dieléctrico en forma de pellets, la principal ventaja es el mayor contacto con el flujo que ingresa y de igual forma la disminución del voltaje.  Por este motivo se propone un reactor DBD de lecho empacado, el cual se compondrá con material ferroeléctrico de BaTiO3 con diámetros de 1.5-2.0 mm como pellets, soportados en un par de placas de teflón perforado, con una distancia de 80 mm de altura entre electrodos. Un par de electrodos de cobre que con una longitud de 200mm y un espesor de 2mm montado en la superficie de ambas barreras dieléctricas, sus características y dimensiones podrán permitir tener micro descargas en el espacio existente entre los electrodos (o entre los pellets), sobre los cuales la aplicación de voltaje alterno con un máximo de 5.5KV se podrá iniciar y mantener las micro descargas dentro del reactor. Para no generar un flujo de corriente, permitiendo a los electrones migrar hacia el electrodo positivo y no dejarlos escapar, es necesario tener una barrera de aislamiento, proponiendo una placa de 1.5mm de espesor, longitud de 300mm y un ancho de 80mm será posible obtener un recorrido del flujo de aire más eficiente. Para tener un control sobre las condiciones, el reactor se puede montar en una cámara de acrílico con un espesor de 4.5 mm, ancho de 80 mm, largo de 300mm y una altura de aproximadamente 90-100 mm, así con esta configuración se logrará tener una estabilidad dentro del reactor.  Se recomiendan diferentes parámetros seleccionados para la exposición del material genético y para el control del reactor, estos son el caudal con recomendación de una velocidad de 3-7 L/min; humedad relativa con variaciones bajas (10-60%) y altas (85-90%) para la simulación de diferentes temperaturas ambientales; medición de las especies activas generadas que son las causantes de los efectos bactericidas; y la selección de microorganismos para realizar un experimento seguro.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el comportamiento del plasma como bactericida, proponiendo un esquema de reactor DBD de lecho empacado para una mejor eficiencia por el mayor contacto entre las superficies, donde los materiales propuestos son viables para una operación en físico del proceso por exposición directa de los microorganismos.
Millan Uribe Christofer, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales

OPORTUNIDADES DE PRODUCTOS PROCESADOS DE CíTRICOS SEGúN EL ANáLISIS DE VIGILANCIA TECNOLóGICA EN MéXICO


OPORTUNIDADES DE PRODUCTOS PROCESADOS DE CíTRICOS SEGúN EL ANáLISIS DE VIGILANCIA TECNOLóGICA EN MéXICO

Millan Uribe Christofer, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

La citricultura en México es fuente de ingresos para más de 67.000 familias y representa el 2.78 % del PIB agrícola nacional con 1.5 % que corresponde al limón, 1.15 % que corresponde a la naranja y 0.13 % que corresponde a la toronja. Las exportaciones mexicanas representan el 78.22 % de las importaciones de cítricos de Estados Unidos, posesionándose como el principal mercado objetivo actual gracias a los tratados comerciales como el TLCAN o el T-MEC que entra en vigor el primero de julio del 2020. Actualmente se satisface el 100 %de los requerimientos nacionales con producción interna; asimismo, las superficies de producción de cítricos en la última década se mantuvieron relativamente estable, la producción se incrementó 25.20 % y las exportaciones aumentaron más de 115 %, lo que pone en evidencia una mejora en la productividad e impulso de los cítricos destinados al comercio internacional. ¿Cuáles son las oportunidades de productos procesados de cítricos según el análisis de vigilancia tecnológica en México?



METODOLOGÍA

Se comienza con una estrategia básica para la vigilancia tecnológica que consiste en 5 etapas. Estudio de caso: •             Vigilancia tecnológica en la citricultura en México. •             Investigación cualitativa •             Tipo descriptivo Entorno: •             Científico •             Técnico •             Económico •             Comercial •             Social La etapa 1 es la planeación que consiste en identificar necesidades en los diferentes entornos en los que se aplica la vigilancia tecnológica. Buscando en el informe anual de la USDA se pueden determinar los principales problemas de la eficiencia técnica en la plantación de cultivos de cítricos, así como las dificultades que pasan los agricultores mexicanos como lo son la sequía y enfermedades de cítricos como el HLB. La etapa 2 es la captación y consiste en observar, discutir, buscar, detectar, recolectar información en general para satisfacer la etapa 1, destacando la información de fuentes de datos como lo son la USDA, SIAP Y el Servicio de Información Agroalimentaria y Pesquera del Gobierno Federal y una búsqueda tanto digital como de campo de productos procesados en la zona, al igual que hablar con un productor para tener una visión desde el punto de vista de un agricultor mexicano. La etapa 3 es el Análisis y consiste en analizar, tratar y almacenar la información que lleve al análisis de la cadena de valor de los productos procesados y situaciones concretas de la citricultura mexicana. Etapa 4 es la Inteligencia y consiste en dar valor añadido a la información y buscar incidir en la estrategia. Haciendo una síntesis del tema utilizando la información más relevante se obtienen factores que ayudan y marcan aperturas en el mercado, sin embargo, teniendo presente las dificultades como la prolongada sequía que pasa la república mexicana, enfermedades, el bajo consumo nacional de jugo fresco gracias a las medidas de quédate en casa que lleva a un paro temporal en las actividades comerciales gracias a las medidas sanitarias causadas por el virus SARS-CoV-2 (COVID-19). Etapa 5 es la comunicación y consiste con ayuda de mi Investigador principal lograr comunicar con los diferentes pasantes los diferentes resultados en las jornadas anteriores, difundir información y transferir conocimiento, creando un intercambio cultural haciendo un contraste entre el mercado y oportunidades entre Colombia y México.


CONCLUSIONES

Durante la estancia se logró adquirir las habilidades para el análisis de un sector especifico, sacando el máximo aprovechamiento a las bases de datos, sin embargo, México tiene que consolidar el comercio entre Estados Unidos y Canadá siguiendo con la línea de libre arancel y así ofreciendo productos de alta calidad, expandir el comercio en estados miembros de la Unión Europea y la AELC, llegando a acuerdos de reducción arancelaria que permita una mejor inclusión competitiva y desarrollar mejor comercio entre Brasil, Australia, Malasia y Corea del Sur pidiendo peticiones a una reducción arancelaria por medio del TPP11. En el caso de Australia a se cobra un 0 % de aranceles, por lo que es una buena oportunidad de incursionar con exportaciones de productos mexicanos.
Miralrio Arzate Vìctor Manuel, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mg. Carmen Elisa Gomez Tobon, Universidad Cooperativa de Colombia

SISTEMAS INTEGRADOS DE GESTIÓN EN LA ERA DE LA INDUSTRIA 4.0


SISTEMAS INTEGRADOS DE GESTIÓN EN LA ERA DE LA INDUSTRIA 4.0

Miralrio Arzate Vìctor Manuel, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Carmen Elisa Gomez Tobon, Universidad Cooperativa de Colombia



PLANTEAMIENTO DEL PROBLEMA

En un mundo cada vez más competitivo, el desarrollo de habilidades tanto personales como organizacionales, se transforma en una herramienta indispensable para afrontar una difícil y cambiante realidad. Los problemas y las circunstancias que se presentan son cada vez más complejos y en ese contexto, diariamente, los directivos tienen que afrontar decisiones de planificación de actividades, de coordinación y organización, de asignación de recursos, de dirección y de control. Un sistema de gestión es una herramienta que no puede estar ausente en la vida de una organización, pues tiene como finalidad la mejor y más eficiente asignación de los recursos de los que dispone, con el objetivo de obtener los mejores resultados posibles. Estos sistemas se ven afectados en cómo avanza la tecnología ya que están expuestos a cambios para adaptarse a las nuevas necesidades que estas innovaciones traen consigo, esto se hace para tener mejores controles y estándares de todo lo que sucede en un ambiente de trabajo. Por lo tanto, una gestión estratégica es un instrumento que permite a los directivos organizacionales mantener una situación de equilibrio con el contexto, adoptando una postura de adecuación a los cambios sufridos por el entorno, utilizando de la mejor manera los recursos disponibles. usando un estudio de caso en la empresa Grupo Bimbo Mexico y Grupo Bimbo Colombia, ¿Cómo se manejan los sistemas integrados de gestión en esta nuera era llamada industria 4.0?



METODOLOGÍA

Este proyecto fue realizado desde distintos enfoques metodológicos. A fin de cubrir tantos frentes informativos como fuera posible para contribuir a la investigación, se decidió abordar el campo desde un enfoque mixto, es decir, que envuelve métodos cualitativos, así como fuentes primarias como secundarias para recolectar la información que posteriormente fue realizada para los fines de este trabajo. La ficha metodológica de este trabajo es la siguiente: Tipo de estudio: Estudio de caso. Un estudio de caso consiste en una investigación de tipo empírico que busca estudiar un fenómeno actual dentro de su contexto en la vida real. Esta herramienta resulta valiosa para una investigación en la medida en la que se registra y se analiza la conducta de los sujetos involucrados en el fenómeno que se estudia (Yin, 1994). Así mismo, envuelve un conjunto de técnicas que se utilizan en la investigación, a fin de recopilar la información necesaria a través del proceso de observación de experiencias, planteamientos y documentos oficiales, con las que se pueda hacer frente a un tema específico. Con esta información se llevará a cabo un análisis con el que se pretende determinar las características, peculiares, anomalías y tendencias que se presenten en el tema. Unidad de análisis: Empresa Bimbo en México y Empresa Bimbo en Colombia, aunque, tiene presencia en más países como se mencionó en este trabajo. Cabe destacar que según el análisis de datos según Yin Robert esta investigación es Tipo2, es decir, el diseño se encuentra basado en el estudio de un caso, pero cuenta con sub-unidades de análisis dentro de la investigación que sirvieron de apoyo para el estudio principal. Así mientras la unidad de análisis central es Bimbo México y Bimbo Colombia, el trabajo pudo analizar otras unidades de la compañía a fin de aportar información y luz a la investigación. Mecanismos de recolección de la información: La metodología usada para la recopilación de la información fue variada, se tuvo en cuenta información primaria y de segunda mano, que también es indispensable para recoger experiencias de casos similares e información de uso específico. Primaria: La fuente primaria se tuvo como base y generador de información acerca de los intereses del trabajo ante situaciones que definen una exposición similar o idéntica a la situación de estudio, asi como la revisión de información y trabajos de grado.  Secundaria: Por otro lado, las fuentes secundarias se usaron para brindar apoyo y sustentar el estudio de caso con fuentes teóricas que enriquezcan el proyecto, se utilizaron estudios a modo base o guía, además de la revisión de información en páginas web generales. Procedimientos: Una vez recolectada la información se hizo un análisis y contraste de la información, a fin de testear y comparar las variaciones que se encuentran entre los dos, con respecto a lo que innovación en sistemas de gestión se refiere.


CONCLUSIONES

Los sistemas integrados de gestión en una empresa son muy importantes ya que con estos sistemas se tiene un mejor control de la misma, a pesar de que los cambios que van teniendo con el paso del tiempo estos deben de irse adaptando a las nuevas tecnologías. Grupo Bimbo ha tenido la base de su éxito como la mayor panificadora a nivel mundial sentando bases en la innovación. Esta compañía que entiende la innovación como una herramienta que genera valor en su empresa a partir de novedosos o mejorados productos, bienes o servicios; procesos, métodos y actividades internas de la empresa; tecnológicas, industria y maquinaria; marketing y diseño; ha tenido la capacidad de aplicar en la práctica las ideas creativas que tienen y han creado patrones de conducta y lineamientos institucionales que han integrado la innovación en las praxis propias de la compañía y en sus nexos con el exterior. Esto han sido un factor diferenciador y de ventaja para la empresa. Se concluye que Bimbo es una empresa que en definitiva utiliza la innovación y tiene la necesidad de seguir utilizándola mediante las formas anteriormente expuestas para continuar su brillante historia de ascenso y mantenerse en la cima del mercado.
Miranda Cayetano Yazmin Alejandra, Universidad Autónoma de Guerrero
Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo

HOTEL ECO-TURÍSTICO


HOTEL ECO-TURÍSTICO

Aguirre Chavez Andrea Guadalupe, Universidad de Sonora. Arévalo D Elia Uziel Mizraim, Consejo Quintanarroense de Ciencia y Tecnología. Bueno Gutiérrez Mayra Saraí, Universidad Autónoma de Guerrero. Cruz Garcia Isabel Alejandra, Universidad Autónoma de Guerrero. Miranda Cayetano Yazmin Alejandra, Universidad Autónoma de Guerrero. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Este proyecto tiene como objetivo el implementar la madera como material principal en la edificación arquitectónica. Dando una solución tanto estructural como de diseño. Un hotel ecoturístico busca un ambiente armonioso que integre áreas de relajación, deportivas, de descanso, de sanación espiritual y talleres de recreación que fomenten el desarrollo sustentable, haciendo uso eficiente y racional de los recursos naturales. Su enfoque principal es hacia el desarrollo turístico el cual busca la relación del usuario con el medio ambiente.



METODOLOGÍA

a través  -Estudio de la zona -Entorno natural (Clima, topografía, flora, fauna) -Contexto construido (Tipologías, estilos) -Contexto social (Habitantes, alfuencia turística, cultura) -Normatividad Análisis  -Diagramas -Zonificación -Programa arquitectónico Síntesis -Planos -Perspectivas


CONCLUSIONES

Debido a las condiciones medioambientales que se viven en la actualidad, se han buscado nuevas formas para poder reducir nuestro impacto ecológico, es por ello que en el sector turístico ha surgido el término hotel ecoturístico el cual deberá propiciar un ambiente armonioso de relajación y recreación, este se enfoca al desarrollo y realce del turístico porque busca relacionar al usuario con el medio ambiente. Es por ello que este proyecto se desarrollará en una zona que tiene un potencial para diseñar este tipo de espacios, asi como se propone el uso de madera y sus sistemas constructivos para el plantemiento del proyecto. 
Miranda Chavéz Lisandra, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

ESTUDIO DE MERCADO PARA LA IMPLEMENTACIóN DE UN ASFALTO A BASE DE MUCILAGO DE NOPAL PARA SU APLICACIóN EN PAVIMENTACIóN DE CAMINOS RURALES.


ESTUDIO DE MERCADO PARA LA IMPLEMENTACIóN DE UN ASFALTO A BASE DE MUCILAGO DE NOPAL PARA SU APLICACIóN EN PAVIMENTACIóN DE CAMINOS RURALES.

Miranda Chavéz Lisandra, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La falta de caminos pavimentados ha traído consigo una problemática, sin duda, los caminos rurales son elementos esenciales para el desarrollo social y económico de las comunidades humanas poco numerosas y, muchas veces, situadas en sitios montañosos o semidesérticos, en los que el acceso a los servicios básicos de salud y educación es muy complicado, genera gastos en combustible yreparación de automóviles para la población por falta de un buen camino, esto hace más costoso el transporte de los caminos rurales, ahora bien, las carreteras y vías urbanas son un factor muy importante de las regiones y el municipio de Tacámbaro, Michoacán, el transporte es un elemento de gran influencia en la economía de las zonas urbanas y rurales, y la serviciabilidad de las carreteras contribuye al desarrollo socio - económico de los sectores de la población, por ello es necesario una adecuada planificación en los proyectos viales para que puedan garantizar y facilitar el mejoramiento de la calidad de los caminos que son de terracería además de la calidad de vida de los habitantes. Por ello es de gran importancia para la región, que se cuente con proyecto vial eficiente y económico, de esta manera el pavimento asfáltico bien diseñado y apropiadamente construido dura muchos años, puede ser mantenido con sólo realizar repetidos reemplazos de la capa superficial. En la actualidad, el asfalto constituye la forma más efectiva para construir y pavimentar carreteras por eso es que se realizó un estudio para ver las carencias existentes de pavimentación en las comunidades pertenecientes al municipio de Tacámbaro encontrando que un 70% de las comunidades no están pavimentadas.



METODOLOGÍA

Para el estudio de mercado sobre la implementación del asfalto: desarrollado y hecho a base de mucílago de nopal, cal y PET, que sirve para su aplicación y restauración en los caminos de las comunidades pertenecientes al municipio de Tacámbaro, se llevó a cabo la recolección de información primaria que sirvacomo base de análisis. Encuestas propias, investigaciones de campos. Muestreo: para capturar los datos relevantes provenientes de fuentes primarias para luego analizarlos y generalizar los resultados para generar conclusiones que se aplique a toda la población objetivo. Experimentación: manejar uno o varios elementos de mercado (precio, cantidad, calidad, publicidad) con el fin de generar datos acerca de reacciones del mercado. Análisis del comportamiento del consumidor, análisis de regresión: para aplicar técnicas matemáticas para estimar las relaciones existentes, con base en datos preliminares o variables aisladas. Predicciones o informes y estimar valores. Investigación predicativa, que serán los resultados de la investigación y la base para obtener conclusiones.


CONCLUSIONES

Durante la estancia de verano se logró adquirir nuevos conocimientos acerca de las problemáticas existentes por la carencia de tener los caminos no adecuados en las comunidades rurales. Sin embargo, por ser un trabajo extenso no se pueden revelar los datos derivados. Con este proyecto se espera desarrollar una propuesta de asfalto orgánico con mezcla de residuos sólidos urbanos para la pavimentación de los caminos, de las comunidades pertenecientes al municipio de Tacámbaro deseando obtener un resultado factible en este propósito trayendo consigo respuestas viables de las comunidades que se beneficiaran llevándolas acabo por medio de vinculaciones con la presidencia municipal y de esta manera se desarrolle el proyecto de una excelente manera.
Miranda Valdovinos Rosa Nayeli, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla

CONSTRUCCIóN Y VALIDACIóN DE UN SISTEMA DE CARACTERIZACIóN DE SENSORES QUíMICOS DE GAS MEDIANTE NANOESTRUCTURAS DE óXIDO DE ZINC (ZNO)


CONSTRUCCIóN Y VALIDACIóN DE UN SISTEMA DE CARACTERIZACIóN DE SENSORES QUíMICOS DE GAS MEDIANTE NANOESTRUCTURAS DE óXIDO DE ZINC (ZNO)

Miranda Valdovinos Rosa Nayeli, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años se ha observado la transformación que ha tenido el planeta debido al incremento de la población, la urbanización, la actividad industrial (que conlleva el desecho de productos químicos y gases tóxicos), la quema de combustibles fósiles para obtener energía, entre otros factores que han causado distintos problemas ambientales en el medio ambiente. El calentamiento global y el cambio climático son dos fenómenos que se asocian con el aumento de la concentración de los gases de efecto invernadero (GEI) en el planeta. El incremento en la concentración de los GEI en la atmosfera está relacionado con las actividades antropogénicas tales como: el crecimiento industrial durante y después de la Revolución industrial lo que incrementó las emisiones de CO2 producto de la combustión de los combustibles fósiles (carbón, petróleo y gas), la deforestación y desertificación lo que genera la degradación del suelo alterando así el flujo natural y la concentración normal de los GEI en la Tierra, de tal manera que todos estos problemas transforman y perjudican la calidad de vida del ser humano. Ante estos problemas ambientales una solución para detectar y controlar los GEI es mediante el sensado de los mismos. Los nanomateriales fabricados a partir de óxidos metálicos semiconductores son una propuesta altamente viable para la construcción de sensores de gas de alto rendimiento.



METODOLOGÍA

El óxido de zinc (ZnO) es un material multifuncional debido a sus propiedades físicas y químicas, en los últimos años este material se ha empleado en la construcción de sensores de gas debido a su excelente respuesta de detección de gases el cual está asociada a sus propiedades piezoeléctricas y piroeléctricas, el bajo costo del material, la estabilidad térmica y química y a su fácil fabricación. La respuesta de detección del sensor de gas depende de las dimensiones de las nanoestructuras las cuales pueden ser: películas delgadas, nanoesferas, nanotubos, nanofibras, nanoagujas, entre otras. La obtención de nanopartículas de óxido de zinc (ZnO) se puede llevar a cabo mediante los siguientes métodos: Pulverización catódica por radiofrecuencia: Este método es eficaz para preparar películas de nanoestructuras a baja temperatura, consiste en la aplicación de un campo eléctrico a un gas inerte que se encuentra junto con el material para preparar la lámina y un sustrato. Molienda mecánica: Esta técnica consiste en la trituración de una gran pieza de material en partículas pequeñas, para ello se utilizan molinos de alta energía de tipo centrifuga o vibratorio a temperatura ambiente. Deposición por láser de pulso: Dentro de las técnicas por deposición de películas delgadas la deposición por láser de pulso es una de las más usadas debido a su simplicidad para depositar películas y nanoestructuras de alta calidad en condiciones optimizadas de una variedad de materiales. Deposición química de vapor: La deposición química de vapor (CVD) se refiere al proceso de deposición de películas delgadas y nanoestructuras a través de reacciones químicas de precursores en fase de vapor, este método se lleva a cabo en el interior de una cámara de vacío en donde se lleva a cabo la descomposición de uno o varios compuestos volátiles. Síntesis hidrotermal: Esta técnica hace uso del agua como solvente a temperaturas y presiones altas lo que permite disolver o hacer reaccionar especies muy poco solubles en condiciones normales. Síntesis solvotermal: Este método se caracteriza por el uso de disolventes orgánicos o inorgánicos (también puede emplearse agua) para llevar a cabo una reacción química en un sistema cerrado (autoclave) a temperaturas superiores al punto de ebullición (la temperatura máxima es de 250 °C) y presiones superiores a 1 bar. Electrodeposición: Este método consiste en utilizar una corriente eléctrica para promover la nucleación y crecimiento de cristales en la superficie de un sustrato. Existen dos tipos de electrodeposición, la galvanoplastia y la técnica electroforética o de electroforesis. Método Sol - gel: Este método se basa en la hidrólisis y condensación / deshidratación de un alcóxido metálico (los cuales son insolubles en agua) por lo que se requiere del uso de un alcohol como disolvente y se aprovechan las cargas atómicas, el grupo alcóxido presenta una carga parcial negativa mientras que el metal presenta una carga parcial positiva, la hidrólisis se produce por el ataque de la molécula de agua (debido a la carga negativa del oxígeno) lo que permite que en una reacción de condensación dos moléculas hidrolizadas puedan unirse formando un enlace M - O - M (Metal - Oxígeno - Metal).  Pirolisis por pulverización de llama: Este método se usa para producir nanopartículas de óxidos metálicos mediante la pulverización de una solución acuosa de sal metálica a través de un capilar en una llama lo que permite la formación de pequeñas gotas mientras el solvente arde dentro de la llama, los gradientes altos de temperatura permiten la conversión de la solución en nanopartículas de óxido metálico con un tamaño de 5-500 nm.


CONCLUSIONES

Durante la estancia de investigación se logró cumplir con las actividades del plan de trabajo las cuales permitieron adquirir conocimientos sobre los nanomateriales y las técnicas y métodos para su obtención. Debido a las circunstancias no fue posible desarrollar el trabajo experimental, se espera dar continuación a esta línea de investigación una vez que se retomen actividades normales en la BUAP donde se llevará a cabo un análisis para determinar la técnica o técnicas a emplear para sintetizar el óxido de zinc a escala nanométrica y aplicar las nanoestructuras obtenidas en el sensado de gases y presentar este tema por medio de un proyecto de tesis.
Mirón Toruño María Fernanda, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)

CONSTRUCCIóN DE áRBOLES FILOGENéTICOS PARA EL ESTUDIO DE AISLADOS VIRALES MEDIANTE MéTODOS COMPUTACIONALES


CONSTRUCCIóN DE áRBOLES FILOGENéTICOS PARA EL ESTUDIO DE AISLADOS VIRALES MEDIANTE MéTODOS COMPUTACIONALES

Mirón Toruño María Fernanda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

A finales del año 2019, un grupo de casos de neumonía con causas desconocidas, fueron ligados epidemiológicamente a un mercado pesquero en Wuhan, China. El subsecuente análisis del genoma, mediante tecnologías de nueva generación, hizo posible la determinación de un nuevo virus, identificado como Severe Acute Respiratory Syndrome Coronavirus 2 (SARS-CoV-2) por el International Committee on Taxonomy of Viruses (ICTV), mientras que, la enfermedad provocada por el mismo recibió el nombre de Coronavirus Disease 2019 (COVID 19). En este estudio, se exploró la diversidad filogenética entre aislados de SARS-CoV-2 pertenecientes a diferentes regiones de México. Utilizando datos de secuenciación genómica previamente reportados en GISAID, se alinearon 21 secuencias obtenidas en México con 65 secuencias de genoma completo obtenidas alrededor del mundo, logrando la construcción de un árbol filogenético con un método basado en distancias. Mediante el uso del software libre Phylogenetic Assignment of Named Global Outbreak LINeages v. 2 (Pangolin v. 2) se establecieron los linajes asociados a cada secuencia obtenida en la región de estudio, intentando inferir patrones de transmisión y entrada del virus SARS-CoV-2 al territorio mexicano. 



METODOLOGÍA

Las secuencias de genoma de SARS-CoV-2 fueron obtenidas a través de la base de datos GISAID bajo los filtros de alta cobertura y genoma completo. El análisis filogenético fue llevado a cabo con un batch inicial de 91 secuencias recuperadas el 20 de julio de 2020, la curación manual posterior logró la exclusión de 5 secuencias, obteniendo un dataset final de 86 secuencias.  El uso del software MAFFT CBRC v. 7 permitió el alineamiento múltiple de secuencias (MSA). El genoma SARS-CoV-2 isolate Wuhan-Hu-1 fue utilizado como referencia para eliminar gaps e inserciones, mientras que el alineamiento fue exportado en formato NEXUS/PAUP 4.0 a través de la herramienta Molecular Evolutionary Genetic Analysis (MEGA). Un árbol filogenético por métodos basados en distancias fue construido en PAUP 4.0 considerando el método Neighbour-Joining (NJ) Bootstrap = 100, con cálculo de distancias por el modelo de Kimura-2-parámetros. La secuencia SARS-CoV-2 isolate Wuhan-Hu-1 fue considerada como un outgroup parafilético con respecto al ingroup. El árbol consenso fue visualizado a través de la interfaz gráfica de PAUP 4.0 como cladograma. Se asignaron clusters genética y geográficamente relacionados a través del software Pangolin v. 2 (github.com/cov-lineages/pangolin) en el interés de identificar posibles patrones de transmisión. La herramienta soporta diferentes opciones, sin embargo, para el interés del estudio se conservaron los parámetros por default.


CONCLUSIONES

En primera instancia, se observa una distribución a lo largo del árbol filogenético de las 21 secuencias mexicanas previamente obtenidas. El estudio sugiere una relación proximal entre un grupo de seis secuencias obtenidas en México y secuencias asociadas con el lugar de origen de la pandemia; la provincia de Huwan y Hong Kong. El linaje Pangolin atribuido a este grupo de secuencias (A.1) surge como descendiente del linaje más temprano de virus, por lo cual, es correcto pensar en una relación filogenética de ancestría. A pesar de lo anteriormente descrito, el linaje A.1 se caracteriza por estar altamente presente en países norteamericanos, esto conlleva a una inferencia de vínculo de contagio por cercanía geográfica.   Por otro lado, un grupo más reducido conformado por tres secuencias surge del mismo progenitor hipotético anteriormente descrito, sin embargo, se clasifican en un linaje Pangolin diferente (A.5) caracterizado por tener una sobrerrepresentación de países hispano hablantes, particularmente España. La secuencia hCoV-19 Mexico CDMX InDRE 11 2020 posee un menor grado de divergencia respecto al ancestro común en comparación con todas las secuencias reportadas en México. Su linaje Pangolin (B) posee bases en China con registros de exportación global. Se puede inferir una entrada temprana y directa desde el continente asiático hacia México.  Las secuencias mexicanas restantes, surgen de una rama diferente a las discutidas con anterioridad. Tres accesos poseen un ancestro común compartido entre ellos, mientras que dos últimos comparten un ancestro común más reciente que indica una relación más estrecha entre ambas. Sumando a estos tres accesos tres secuencias, existen seis secuencias pertenecen al linaje Pangolin B.1.5 asociado con Inglaterra, España, Turquía, Australia y EUA. A pesar de que el linaje no posee una fuerte validación estadística, es consistente con seis secuencias originadas en España reportadas dentro del árbol filogenético.  Perteneciente a un ancestro común más reciente asociado con secuencias originarias de USA, hCoV-19 Mexico CDMX InDRE 10 con linaje Pangolin B.1 corresponde a un linaje europeo correspondiente con el brote en Italia. Finalmente, dos secuencias derivan de un ancestro común compartido con secuencias de Brasil, USA e Italia. Su linaje Pangolin sugiere la importación del virus SARS-CoV-2 desde países europeos hacia México. A pesar de las relaciones y rutas epidemiológicas previamente inferidas, es necesario considerar múltiples limitaciones asociadas a este trabajo. En comparación con países europeos y USA, México posee un limitado número de registros genómicos; es necesario promover la secuenciación de genoma completo del virus y su difusión. En el interés de la estancia actual, el método para realizar el árbol filogenético se restringió a un método basado en distancias (NJ); es necesario tener en cuenta que, a pesar de que este método presenta simplicidad computacional es solo recomendado para árboles iniciales y sus conclusiones deben tomarse en cuenta con precaución.
Mondragon Hernandez David, Universidad Politécnica de Tecámac
Asesor: Mtra. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac

DISEñO E IMPLEMENTACIóN DE APLICACIóN CLIENTE SERVIDOR CON PHP PARA EVENTOS ACADéMICOS. CASO UPTECáMAC


DISEñO E IMPLEMENTACIóN DE APLICACIóN CLIENTE SERVIDOR CON PHP PARA EVENTOS ACADéMICOS. CASO UPTECáMAC

Almaraz Becerra Isai, Universidad Politécnica de Tecámac. Flores Torres Karime Vianey Morelia, Universidad Politécnica de Tecámac. Mondragon Hernandez David, Universidad Politécnica de Tecámac. Romero Caratachea Mariana, Universidad Politécnica de Tecámac. Asesor: Mtra. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Las grandes instituciones cuentan con una infraestructura tecnológica que soporta todas las actividades operacionales y administrativas por ende la Universidad Politécnica de Tecámac al ser una institución en constante crecimiento pretende mediante una plataforma tecnológica optimizar sus procesos administrativos relacionados con la feria académica.  El proceso de registro a este evento dentro de la institución actualmente en su mayor parte se realiza a mano con el auxilio del software de hoja de cálculo como lo es Excel para el seguimiento de los equipos, el tipo de proyecto, su lugar asignado, entre otras cosas; y la herramienta de formularios de Google. La asignación de los profesores para la evaluación de proyectos resulta ser tediosa para los PTC (Profesores de Tiempo Completo) dentro de la institución siendo los únicos capaces de cumplir esta tarea muchas veces no se les notifica sobre su papel de evaluadores dentro de la feria académica lo que causa conflicto puesto que proyecto queda sin evaluación, aquí es donde el factor humano complica las cosas estando siempre propenso a equivocaciones poniendo en riesgo toda la organización el evento.   



METODOLOGÍA

La metodología propuesta es Scrum, la cual destaca que es un desarrollo incremental en lugar de la clásica planificación del desarrollo completo de un producto o servicio. Los equipos Scrum se caracterizan por ser auto-organizados. Y se centra en el producto final, en la calidad del mismo, siendo así que cada integrante del equipo o responsables de sus roles, pueda adaptarse con independencia y trabajar simultáneamente. Fases en las que se divide el proceso: Se desea lograr el óptimo desarrollo de una aplicación web que ayudará a simplificar y agilizar el proceso de registro de estudiantes para la feria académica, la cual se y tiene ubicación en la Universidad Politécnica de Tecámac a través del siguiente contenido: El proyecto tiene lugar de desarrollo dentro de la Universidad Politécnica de Tecámac, siendo así, el equipo de trabajo tiene un asesor empresario asignado, quien dictamina los requerimientos para la aplicación. Es necesario precisar que el plazo de término del desarrollo de software será el 29 de Julio, gracias al cronograma establecido, es más sencillo llevar cabo cada proceso y terminarlo en las fechas estipuladas. El contenido del desarrollo se presenta de la siguiente manera: Primero se planea una reunión con el asesor académico, quien es el profesor que da un panorama general del funcionamiento de los procesos que se llevan a cabo de forma manual desde el registro de los estudiantes hasta la asignación de docentes que serán los evaluadores y estimación de resultados. Luego, para es necesario tomar en cuenta los roles estipulados anteriormente para comenzar con el diseño de las vistas y su respectivo funcionamiento. Posteriormente, según el entorno de trabajo con el que se trabaje, se desarrolla todo lo relacionado con el código, elección de paradigma a usar e implementación a las vistas. Como se dijo con anterioridad, el framework propuesto para este proyecto es Laravel y con el enfoque a modelo vista controlador, empleando el lenguaje de programación php y el sistema de plantillas del mismo framework para generar HTML. Una vez terminada la fase de codificación, será necesario realizar las pruebas de todas las vistas para dar un panorama general de cómo es que funciona todo el sistema y asegurar que tanto cada una de ellas y sus funciones trabajen respectivamente a los requerimientos de los usuarios. La planificación de dicho proyecto tuvo inicio en mayo de 2020, según a lo correspondido en el cronograma, se debe iniciar con el mockup de la aplicación, un bosquejo de cómo se muestran las vistas y lo que deberá contener cada una de ellas. Para posteriormente, comenzar con el proceso de codificación con ayuda del lenguaje de programación PHP y Laravel Framework, con un estimado de entregar vistas generales y funcionamiento en el mes de junio. Fases La reunión principal con el asesor empresarial (primer sprint) en la que se tiene asistencia previamente para la explicación y levantamiento de requerimientos, expresar todas las dudas existentes acerca del funcionamiento de cada proceso, esto ayuda a que se pueda realizar el bosquejo de las vistas que se obtendrán.  En cuanto a la base de datos, con anterioridad ya se había trabajado en su creación y análisis, ya que el desarrollo de este sistema se había quedado pendiente y no se había reanudado.  Para las revisiones en cuanto al código, estás se realizan cada veinticuatro horas. Esto hará que el proceso de prueba sea más eficiente y evitar en la medida de los posible tener errores (sintaxis, enlazado, ejecución y lógicos) Los sprints correspondientes que se establecieron son cada mes, estas reuniones con el usuario final tendrán como objetivo que se revise el avance del desarrollo y que el mismo pueda visualizar el funcionamiento de cada proceso y dictaminar su conformidad a los aspectos previamente expuestos. Finalmente, una vez terminado el desarrollo de la aplicación web, será necesario mantener el sistema e incluso implementar mejoras, ya que según lo mencionado estará sujeto a cambios por autoridades superiores, en el sentido de que se añadirán más categorías de evaluación.


CONCLUSIONES

El proyecto de investigación realizado pudo solucionar la problemática que se tenía respecto a los eventos académicos, en específico de la Feria Académica que se lleva a cabo en la Universidad Politécnica de Tecámac, ya que se logró agilizar y automatizar los procesos que se llevan a cabo, partiendo desde el registro de los proyectos del alumnado participante hasta la evaluación de estos, en una plataforma por medio de una aplicación web. Guiándonos con nuestro método, y respectiva metodología realizamos los estudios pertinentes para visualizar la problemática desde diferentes perspectivas y de ese modo abarcar totalmente una solución integral. Con los buenos resultados que obtuvo el proyecto, nos percatamos de que tiene la posibilidad de a futuro convertirlo en una plataforma para otras actividades escolares, ya sean culturales, ambientales o de otra índole.
Monjaraz Hernández Paola, Instituto Politécnico Nacional
Asesor: Dra. Teresa de Jesús Jaime Ornelas, Universidad de Guadalajara

ANáLISIS FISICOQUíMICOS DE LOS ALIMENTOS DE ORIGEN ANIMAL: “LECHE FLUIDA DE VACA (DIFERENTES TRATAMIENTOS TéRMICOS), LECHE EN POLVO, LECHE EVAPORADA Y CONDENSADA”


ANáLISIS FISICOQUíMICOS DE LOS ALIMENTOS DE ORIGEN ANIMAL: “LECHE FLUIDA DE VACA (DIFERENTES TRATAMIENTOS TéRMICOS), LECHE EN POLVO, LECHE EVAPORADA Y CONDENSADA”

Monjaraz Hernández Paola, Instituto Politécnico Nacional. Asesor: Dra. Teresa de Jesús Jaime Ornelas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En México existen Normas Oficiales Mexicanas, que son de carácter obligatorio, cuyo objetivo principal es el establecimiento de parámetros y límites regulatorios aplicables a los productos y servicios que se ofrecen dentro del país. Éstas contemplan temas de Calidad, Inocuidad, Buenas Prácticas de Manufactura y Fabricación, en lo que respecta a la industria alimentaria. Algunos de los parámetros que contemplan estas normas, son los análisis fisicoquímicos de los alimentos como medida directa de su calidad. Los análisis fisicoquímicos brindan información acerca de la naturaleza del producto, el tratamiento al que fue sometido y las posibles alteraciones que pudiera sufrir, ya sea de forma intencionada o por un mal manejo en alguna etapa de la cadena de suministro.  Sin embargo, existen algunos vacíos dentro de estas normas, ya que no contemplan evaluaciones fisicoquímicas que pueden ser utilizadas como indicadores importantes de la calidad de los alimentos en su proceso productivo, en este caso en específico, se trata lo referido a los análisis fisicoquímicos que deben de ser realizados para el aseguramiento de calidad de la leche fluida para consumo humano y sus productos (leche en polvo, leche evaporada y condensada).  Por lo que el objetivo de esta investigación fue proveer a los productores industriales de leche fluida y sus productos, herramientas teórico-prácticas que aseguren un control de procesos basado en conocimientos actuales y en la normatividad vigente.  



METODOLOGÍA

Se planteó la realización de una investigación bibliográfica acerca de los análisis fisicoquímicos realizados a leche fluida, leche en polvo, leche evaporada y leche condensada con el fin de comprender la importancia de éstos y el impacto que tienen sobre el aseguramiento de la calidad.  Se realizó un cuadro comparativo sobre los análisis fisicoquímicos establecidos dentro de las Normas Oficiales Mexicanas aplicables para los productos antes descritos, los establecidos por las directrices internacionales y las recomendadas por libros especializados, artículos de divulgación y manuales de expertos en la industria láctea.  Una vez terminado el análisis cualitativo de la información obtenida, se clasificaron los análisis fisicoquímicos para los productos dentro del proceso productivo correspondiente, considerando el manejo y toma de muestra en campo así como la relevancia de realizar el análisis antes o después de una operación unitaria en específico. Para poder realizar esta clasificación fue importante conocer los cambios fisicoquímicos que presentan los productos debido a su mal manejo o por el deterioro, y con mayor importancia, conocer las características fisicoquímicas que deben cumplir los productos para su consumo y que sean considerados de calidad.  La calidad implica el aseguramiento de la inocuidad y el valor nutrimental, por ello se realizó una investigación acerca de los daños a nutrientes que pueden sufrir los productos estudiados, debido al mal manejo dentro de su procesamiento o por la naturaleza de éste, y su deterioro.   A manera de evaluación, se realizó un comparativo sobre las ventajas y desventajas que resultan de la propuesta de llevar a cabo análisis fisicoquímicos a lo largo del proceso productivo de la leche fluida, leche en polvo, evaporada y condensada, ya que se consideran críticas para el aseguramiento de la calidad de estos productos.   


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos bastos acerca de la importancia de realizar análisis fisicoquímicos a lo largo del proceso productivo de leche fluida, leche en polvo, evaporada y condensada. Los materiales generados en esta investigación podrían utilizarse como guía para los industriales de lácteos interesados en asegurar la calidad de sus procesos productivos basados en las normas vigentes e información actualizada.  La implementación de los análisis fisicoquímicos sugeridos en esta investigación como parte de los requisitos obligatorios, implica un desafío para los industriales y la legislación alimentaria. Sin embargo, los beneficios son mayores. De establecer una robusta evaluación fisicoquímica a lo largo del proceso productivo, se asegura que los productos elaborados cuentan con los estándares más altos de calidad. Además el consumidor tendría la seguridad de que está adquiriendo productos que no han sido alterados y que podrán aportarles los nutrientes que por naturaleza se encuentran en estos.  Algunos de los productos estudiados son para consumo humano directo o empleados como materia prima en la elaboración de diversos alimentos como helados, pastelería, panadería, etc. Por lo que de implementarse la propuesta, los beneficios también serían para los productores de tales alimentos quienes podrían obtener mejores productos debido a la excelente calidad y estandarización de la materia prima.  
Monroy Martinez Diana Isabel, Instituto Tecnológico de Matamoros
Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro

ACOPLAMIENTO DE LLUVIA PROVOCADA POR HURACANES, EMPLEANDO ESTACIONES METEOROLÓGICAS


ACOPLAMIENTO DE LLUVIA PROVOCADA POR HURACANES, EMPLEANDO ESTACIONES METEOROLÓGICAS

Monroy Martinez Diana Isabel, Instituto Tecnológico de Matamoros. Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Los huracanes son fenómenos meteorológicos extremos que año con año provocan daños económicos, inundaciones y pérdidas de vidas humanas en México. Se trabajó con la base de datos de estaciones Climatológicas y Meteorológicas Automáticas, acopladas a las trayectorias de los huracanes que han afectado la república mexicana desde el año 1965. Se investigó su categoría, la velocidad de sus vientos, su posición geográfica y las estaciones que registraron lluvia a su paso. Con esta base de datos se realiza una comparación entre las mediciones realizadas en superficie por las estaciones y las mediciones que se realizan empleando satélites meteorológicos (método de Vicente et al., 1998). Este es solo un ejemplo de la utilidad de esta base de datos. Como ejemplo, se presentan los resultados del Huracán Ernesto en agosto de 2012, registrando lluvia en la Estación Meteorológica de Alvarado en Veracruz. Como conclusión se puede decir que la recopilación de esta base de datos de mediciones de lluvia acoplada a las trayectorias de huracanes es la primera que se realiza en nuestro país. Las aplicaciones de esta base de datos son muchas, desde análisis con redes neuronales; hasta el cálculo de índices de vulnerabilidad para zonas urbanas.   Palabras clave: intensidad de lluvia; huracán Dean, hurracán Ernesto, tormentas severas, GOES, México.



METODOLOGÍA

El monitoreo de la trayectoria de huracanes se realiza a tiempo real desde el Servicio Meteorológico Nacional (SMN) (Kidder y Vonder Haar, 2010). La medición de la precipitación se realiza en superficie en Estaciones Meteorológicas Automáticas (EMA). Los trabajos para conocer la vulnerabilidad de estos eventos extremos es un trabajo complejo y es uno de los retos de la hidrología forense. Con ayuda de las trayectorias de huracanes y los datos de intensidad de precipitación medida en las estaciones Climatológicas y Meteorológicas Automáticas se propone un acoplamiento para conocer la validez de las mediciones y la evolución de las láminas de lluvia a lo largo de la evolución del huracán. Este tipo de análisis permite por ejemplo, obtener un índice de vulnerabilidad para ayudar a los sistemas de monitoreo y de alerta temprana para prevenir el riesgo de multi-amenaza que representa el impacto de un huracán sobre una zona urbana (Berne y Uijlenhoet, 2007). Actualmente se cuenta con una gran cantidad de satélites meteorológicos para el monitoreo y pronóstico de tormentas severas. También se cuenta con imágenes satelitales que permiten mejorar los sistemas de alerta temprana en las diferentes regiones de México (Kalinga y Gan, 2010). Como una aplicación de la base de datos que se desarrolló en este verano, se calcula la precipitación a partir de imágenes satelitales en el espectro infrarrojo (IR) proveniente del satélite geoestacionario GOES y se valida con las estaciones pluviométricas de nuestra base de datos (Kuligowski, et al., 2016).   El Huracán Ernesto y la Estación Alvarado, Veracruz (9 Agosto 2012) El huracán Ernesto se formó a partir de una ola tropical desarrollada el 27 de julio, en la costa africana, la ola tropical se intensificó hasta llegar a una tormenta de depresión el 1 de agosto, junto a la evolución de este sistema en la tormenta tropical del 2 de agosto, y para el 7 de agosto, Ernesto fue catalogado como huracán de categoría II en la escala Saffir-Simpson. La principal afectación fue la fuerte lluvia en los estados de Yucatán, Quintana Roo, Campeche, Tabasco y Veracruz. Ernesto toca tierra en el sur de Quintana Roo moviéndose hacia el oeste e impactando en la costa de Campeche. Después, hace un segundo aterrizaje en Veracruz; esta región recibió más de 300 milímetros de lluvia principalmente en la costa central de Veracruz. El estado de Veracruz tiene 7 estaciones climatológicas pero sólo 3 de ellas registraron el evento y sólo una registró la máxima intensidad de lluvia. La Estación Alvarado recibió 80.76 mm/h el 9 de agosto de 2012, a las 14h00. El inicio del registro se tomó a partir de las 12h32 una hora antes de que se registrara el máximo. En la figura 1 se muestra la relación entre la intensidad de las lluvias registradas por el Estación Alvarado el 9 de agosto de 2012, de 06h30 a 16h40 y la lluvia estimada con la imagen de satélite.


CONCLUSIONES

La construcción de una base de datos entre las trayectorias de huracanes y los registros de lluvia en superficie, permitirá una gran cantidad de investigaciones encaminadas a obtener un índice de vulnerabilidad de lluvia huracanada (Karabatić, et al, 2011). Este acoplamiento de lluvia producida por huracanes es la primera que se realiza en nuestro país. Sobre todo porque se realizó la investigación de los huracanes desde 1965. Este trabajo deja la actualización de los mapas de trayectorias de huracanes para las regiones homogéneas ya definidas para calcular las curvas de Huff de cada región hidrológicamente homogénea de nuestro país.     Referencias Berne, A., & Uijlenhoet, R. (2007). Path-averaged rainfall estimation using microwave links: Uncertainty due to spatial rainfall variability. Geophysical Research Letters, 34(7). doi: 10.1029/2007gl029409 Kalinga, O., & Gan, T. (2010). Estimation of rainfall from infrared-microwave satellite data for basin-scale hydrologic modelling. Hydrological Processes, (24). doi: 10.1002/hyp.7626 Karabatić, A., Weber, R., & Haiden, T. (2011). Near real-time estimation of tropospheric water vapour content from ground based GNSS data and its potential contribution to weather now-casting in Austria. Advances in Space Research, 47(10), 1691-1703. doi: 10.1016/j.asr.2010.10.028 Kidder, S., & Vonder Haar, T. (2010). Observing Weather from Space. Science, 327(5969), 1085-1086. doi: 10.1126/science.1185867 Kuligowski, R., Li, Y., Hao, Y., & Zhang, Y. (2016). Improvements to the GOES-R Rainfall Rate Algorithm. Journal of Hydrometeorology, 17(6), 1693-1704. doi: 10.1175/jhm-d-15-0186.1 Vicente, G., Scofield, R., & Menzel, W. (1998). The Operational GOES Infrared Rainfall Estimation Technique. Bulletin of the American Meteorological Society, 79(9), 1883-1898. doi: 10.1175/1520-0477(1998)079<1883:togire>2.0.co;2  
Monsalve Guzman Jacobo, Institución Universitaria de Envigado
Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios

ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.


ESTADO ACTUAL DE LAS TECNOLOGíAS CON APLICACIóN DE INTELIGENCIA ARTIFICIAL, PARA EL DIAGNóSTICO DE ENFERMEDADES CARDíACAS.

Cadavid Restrepo Juan Camilo, Institución Universitaria de Envigado. Garzón Restrepo Alvaro Andrés, Institución Universitaria de Envigado. Gómez Narváez Yeison, Institución Universitaria de Envigado. Macias Ramirez Jairo Yael, Universidad de Guadalajara. Monsalve Guzman Jacobo, Institución Universitaria de Envigado. Asesor: Mg. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

Con el avance de las nuevas tecnologías como las proporcionadas por la Industria 4.0 y la gran cantidad de datos, que posibilitan el manejo de la información mediante el uso de la Big Data, ha permitido a investigadores abordar el gran campo de la inteligencia artificial haciendo uso de todo este material libre para la investigación. Uno de los mayores contribuyentes de esta información es el área de la medicina que a partir de diferentes tipos de registros han consolidado grandes bases de datos de diversos temas de interés como, por ejemplo, diagnósticos sobre enfermedades cardíacas, como se menciona en (Ciechowski, 2013) Las muertes a causa de enfermedades cardíacas en países desarrollados se está volviendo cada vez más común, muy posiblemente se deba al estilo de vida sedentario que viven muchas personas, que además no se puede obtener un diagnóstico temprano para tratar la enfermedad debidamente. Por este motivo muchos investigadores en conjunto con profesionales médicos se han encargado de aprovechar las técnicas de IA utilizando y creando algoritmos para procesar los diferentes tipos de datos provenientes de las evaluaciones de pacientes que están disponibles para su uso.



METODOLOGÍA

Con el fin de abordar el diagnóstico de enfermedades mediante el trabajo realizado por el campo de la Inteligencia artificial, este trabajo se fundamentó desde un metodología que permitiera conocer el estado actual de las investigaciones relacionadas con a los términos expuestos anteriormente (IA, diagnostico, modelos, métodos, algoritmos) que han sido utilizados recientemente para el tratamiento de dicha enfermedad, por eso este trabajo considero en desarrollar un Estado del arte, que recopila los artículos más recientes que permitan dar a conocer a toda la comunidad científica la manera en la que están trabajando estos dos grandes campos , la medicina y la inteligencia artificial, basándose en el planteamiento de Vélez y Calvo sobre Estado del Arte Maestría en Educación, en el que sugieren cuatro pasos a seguir para la realización del estado del arte: a. Contextualización b. clasificación c. Categorización d. Análisis El desarrollo de estos pasos se llevaron a cabo a groso modo de la siguiente manera : La ejecución del primer paso consistió en una contextualización la cual hace alusión a una exploración previa sobre la documentación bibliográfica, en este caso empleado mediante las diferentes bases de datos electrónicas, (Scopus, Science Direct, Google Scholar, DOAJ, entre otras) ofrecidas por las universidad a, así como también en algunas páginas web ,indagando sobre: Un estado del arte, señales biomédicas provenientes de corazón, la evolución de las tecnologías informáticas con fines de automatización en procesamientos de datos, la inteligencia artificial como herramienta para el diagnóstico clínico, y enfermedades cardiacas, planteando además el problema de estudio, como también definiendo el alcance del trabajo con el fin de dar claridad sobre el curso de la investigación. El paso siguiente consiste en una clasificación sobre toda la información recolectada, según el tiempo de publicación que permita dar un orden cronológico, los objetivos de dichas investigaciones y además el nivel de aporte a la investigación en curso. Luego en la siguiente etapa de categorización, como lo afirma (García, 2014) implica una recuperabilidad importante de la información, lo cual facilitará el estudio del fenómeno a investigar, y como plantea (Molina Montoya, 2005) desde la documentación bajo el enfoque de las temáticas, metodologías, hallazgos, teorías, estudios prospectivos o retrospectivos, y a través de la conexión entre temáticas investigativasencontrando esas singularidades y aspectos comunes que han trabajo empleado en previos investigaciones. Finalmente, el último paso del análisis trata de exponer tendencias y perspectivas mediante una valoración de las implementaciones que se esperan a futuro según las perspectivas de la documentación consultada. Como lo indica Molina citado en (García, 2014), El estudio previo y sistemático de las investigaciones precedentes, además de contribuir al mejoramiento de la teoría y la práctica de un tema particular, permite llegar a conclusiones y respuestas nuevas que se proyecten a futuro. de tal manera que los resultados de esta investigación se puedan aplicar en futuras investigaciones o proyectos, generando un valor agregado a partir de los resultados obtenidos.


CONCLUSIONES

Las técnicas utilizadas en los más recientes artículos consultados han implementado algoritmos de machine learning y Deep learning, dejando atrás los métodos estadístico que eran utilizados anteriormente, que han permitido el procesamiento y el aprendizaje de una gran cantidad de información, aprendiendo patrones y categorizando por ejemplo el tipo de enfermedad, el grado o la etapa en la que esta se encuentra , así como también han podido diagnosticar de forma preventiva el padecimiento de una enfermedad cardiaca, disminuyendo los errores de diagnóstico humano que se podrían encontrar en la práctica real. Sin embargo en estos mismos estudios los autores expresan que aunque es indudable el gran trabajo que se ha logrado, debe pasar algún tiempo que permita revisar la precisión de estos métodos mediante el resultado del paciente en cuanto a su salud o una verificación externa con dato clínicos reales, Igualmente al considerar un factor como el constante aprendizaje que requieren dichos programas para mantenerse al tanto de los nuevos diagnósticos y los nuevos resultados o conocimiento sobre la enfermedad en cuestión. Se espera que en un futuro no muy lejano estos programas ayuden al personal médico a mejorar la precisión y dar conocer al paciente su situación médica de manera oportuna mediante el apoyo inteligente de percepción de una máquina, logrando un tipo de consultor experto sofisticado.  
Monsiváis Rodríguez Juan Sergio, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez

ESTADíSTICA NO PARAMETRICA UTILIZADA EN INVESTIGACIONES DE ERGONOMIA


ESTADíSTICA NO PARAMETRICA UTILIZADA EN INVESTIGACIONES DE ERGONOMIA

Monsiváis Rodríguez Juan Sergio, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Las técnicas estadísticas de estimación de parámetros, intervalos de confianza y pruebas de hipótesis son en unión, denominadas Estadística Paramétrica. Estas son básicamente aplicadas a variables continuas. Estas técnicas están basadas en especificar la forma de distribución de la variable aleatoria y de los estadísticos obtenidos de los datos. En la estadística paramétrica se supone que la población de donde la muestra fue extraída, es normal o aproximadamente normal. Esta característica se requiere para que la prueba de hipótesis sea válida. La ergonomía es el estudio del trabajo en relación con el entorno en que se lleva a cabo las actividades a realizarse (lugar de trabajo) y con quienes se realizan (trabajadores), tomando en cuenta distintos factores como son los físicos, mentales y ambientales independientemente del tipo de actividad que se esté desempeñando. Se utiliza para determinar cómo diseñar o adaptar el lugar al trabajador a fin de evitar distintos problemas de salud y de aumentar la eficiencia. Es por eso que se realizan diferentes estudios estadísticos para obtener conclusiones y en base estas conclusiones tomar decisiones.  Las herramientas estadísticas son utilizadas muy a menudo en estudios ergonómicos, por ejemplo, en estudios donde se quiera saber la frecuencia de un síntoma en un grupo de personas, o estudios donde se quiera conocer la relación de diversas características en una o más muestras. Sin embargo, en muchos casos no es posible determinar la distribución original, ni la distribución de los estadísticos, por lo que en realidad no se tienen parámetros a estimar. Se tienen solo distribuciones que comparar. A esto se le conoce como Estadística No Paramétrica.



METODOLOGÍA

Lo primero a realizar era identificar las diferentes herramientas de la estadística no paramétrica. Una vez hecho esto se clasificaron según su la variable dependiente. Por un lado, todas las pruebas donde la variable dependiente es nominal, por ejemplo, Binomial y Chi-cuadrada para una muestra, McNemar para 2 muestras relacionadas y Q de corchan para más de 2 muestras relacionadas. Y por el otro lado donde la variable dependiente es ordinal o de intervalo, como Wilcoxon para 2 muestras relacionadas, U de Mann-Whitney para 2 muestras independientes, Tau de Kendall, etc. Después de realizar lo anterior mencionado se me proporciono una base de datos la cual anteriormente fue obtenida por el investigador. Esta base de datos sería utilizada para realizar 3 estudios estadísticos, los cuales serían:   Prueba de Wilcoxon. En esta prueba se realizaron dos análisis, análisis de carga física y análisis de carga mental, ambos utilizando un método llamado NASA-TLX. Este cuestionario fue aplicado por el investigador a 416 trabajadores los cuales son pertenecientes a 3 diferentes industrias. Lo que se deseaba realizar con la prueba Wilcoxon fue explorar las posibles diferencias entre los análisis anteriormente mencionados.   Prueba de U de Man-Whitney. Para esta prueba se utilizó el análisis de carga mental y únicamente se tomaron las muestras pertenecientes a los trabajadores de dos industrias (a y b).  Esto para conocer si existían diferencias significativas entre los trabajadores de la industria a y los trabajadores de la industria b. Para esta prueba se utilizo un total de 208.   Tau de Kendall. Con la aplicación del método NASA-TLX el investigador recolecto los niveles de carga de trabajo de los trabajadores industriales. Se utilizo esta prueba para percatarse si existen relaciones significativas entre los seis análisis realizados con el método NASA-TLX (carga mental, carga física, carga temporal, esfuerzo, rendimiento, frustración) y el nivel de índice global de carga de trabajo.


CONCLUSIONES

Se obtuvieron los resultados de las tres pruebas antes mencionadas, se analizaron y esto permitió que se probaran las hipótesis planteadas anteriormente por el investigador. Por lo general, cuando la estadística se usa adecuadamente, hace más eficientes las investigaciones, por lo que es recomendable que todos los investigadores y estudiantes se familiaricen con ella. El papel de la estadística en la investigación representa una muy poderosa herramienta en el análisis de datos y en la obtención de conclusiones a partir de ellos. Durante el verano de investigación se logró adquirir el conocimiento teórico de la estadística no paramétrica y se puso en práctica las diferentes herramientas de esta. Además de esto se aprendió de diferentes softwares y métodos que son utilizados en el campo de la ergonomía. Se sabe que lo aprendido con el investigador será de utilidad para la formación profesional para en un futuro poder desempeñarse en el área de ergonomía. Resulto ser una buena experiencia, la cual pudo ser una mejor pero debido a la contingencia no resulto ser lo esperado.
Montaño Cota Karen Janeth, Universidad de Sonora
Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México

MODELADO MOLECULAR DE 5-CIANO-6-OXO-1,6-DIHIDRO-PIRIMIDINA USANDO EL EDITOR MOLECULAR AVOGADRO Y PAQUETE DE PROGRAMAS DE QUíMICA CUáNTICA AB INITIO ORCA


MODELADO MOLECULAR DE 5-CIANO-6-OXO-1,6-DIHIDRO-PIRIMIDINA USANDO EL EDITOR MOLECULAR AVOGADRO Y PAQUETE DE PROGRAMAS DE QUíMICA CUáNTICA AB INITIO ORCA

Montaño Cota Karen Janeth, Universidad de Sonora. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La química computacional es una disciplina de la química que abarca aspectos de la investigación en química que se benefician de la aplicación de las computadoras. Por lo que  incluye desde la aplicación del cómputo para controlar equipos usados comúnmente en las actividades de la investigación, como espectrómetros o recientemente unidades de síntesis química robóticas; hasta el manejo de bancos o enormes bases de información química de moléculas y compuestas; pasando por las aplicaciones que basadas en la descripción de la estructura de molecular. En este último tópico, la química computacional implica el uso de modelos matemáticos para la predicción de propiedades químicas y físicas de compuestos o moléculas, auxiliándose de computadoras para la resolución de diversos algoritmos. El potencial de la química computacional radica en la posibilidad de poder estudiar, desde la teoría y el modelado molecular; (i) arreglos geométricos de los átomos, acorde a la mínima energética del sistema, esto es, que corresponden a moléculas estables y a sus estados de transición; (ii) energías relativas de moléculas; (iii) Estimación y predicción de propiedades: fisicoquímicas; (iv) predicción de propiedades espectroscópicas; (v) estudios sobre velocidades de reacción; así como (vi) estudiar la dependencia de algunas propiedades, como la estructura molecular en función del tiempo. No obstante lo poderoso que resulta el conjunto de herramientas y métodos desarrollados en la química computacional, y de manera desafortunada, los estudiantes a nivel licenciatura de áreas químico-biológicas no cursan materias, durante su instrucción académica, en donde se introduzcan y se capaciten en algún ámbito de la química computacional, resultando este un problema académico a nivel posgrado así como a nivel profesional debido a que no se vincula o incluso, se desconoce el potencial que posee esta disciplina de la química. Mismo que se aborda en este reporte como parte del problema de investigación. Una estrategia para resolver esta desvinculación entre la química computacional y el desarrollo de nuevos materiales, es introducir, durante las estancias de verano, así como durante la realización de tesis para obtener el grado a nivel licenciatura, a los estudiantes al uso de las herramientas de la química computacional como herramientas de apoyo en la tarea de los investigadores experimentales. Esto puede ser desde las etapas iniciales del desarrollo tecnológico de nuevos materiales, las cuales parten del diseño y concepción molecular de los materiales, hasta las etapas finales que consisten en la interpretación de datos experimentales obtenidos por diversas técnicas de caracterización, pasando por el estudio de posibles rutas de síntesis. Para introducirse al uso de la química computacional, es necesario describir un problema típico de esta disciplina, como la optimización geométrica y energética de una molécula. Esta es una de las primeras habilidades que se debe dominar para poder resolver problemas de mayor envergadura, por lo que resulta ideal, para una estancia corta de investigación. En este sentido, el problema de investigación de la estancia de verano, es encontrar la geometría óptima de la molécula del compuesto 5-Ciano-6-oxo-1,6-dihidro-pirimidina usando los paquetes de programas de química cuántica ab initio ORCA.  



METODOLOGÍA

Se seleccionó la molécula con la cual se trabajó para así obtener los datos requeridos al final. Después procedimos a modelar la molécula en un software computacional Avogadro. Dibujamos la molécula completa, teniendo cuidado de incluir los enlaces y átomos correspondientes. Después dimos clic en Auto optimización para ajustar los átomos seleccionados a una geometría coordinada. Una vez realizado el ajuste, procedimos a Extensiones y seleccionamos la opción de Orca. Revisamos los datos y seleccionamos Generar y lo guardamos con extensión .inp. Una vez terminado, procedimos a correrlo en Orca, para eso seleccionamos Run o Correr. Dimos las indicaciones de buscar la carpeta donde guardamos el archivo de Avogadro. Dimos la orden como a continuación: C:UsersKaren>cd DesktopOrca. Agregamos dir para ver los archivos de la carpeta: C:UsersKarenDesktopOrca>dir. Revisamos si se encuentra nuestro archivo con la extensión que guardamos. Lo siguiente fue introducir el comando escribiendo el nombre del archivo que queríamos correr: C:UsersKarenDesktopOrca>orca molecula.inp > molecula.out Y damos enter. Esperamos un tiempo a que se terminen de hacer los cálculos, una vez que teníamos nuestro resultado, abrimos el archivo guardado en la carpeta de Orca llamado molécula, de ahí nos mostró los datos correspondientes. Después abrimos Avogadro y abrimos nuestro archivo llamado Molécula para observar su geometría.  


CONCLUSIONES

Durante la estancia de verano de investigación, en esta ocasión que fue virtualmente, se logró adquirir conocimientos en el área de química computacional, utilizando los softwares de Avogadro y ORCA, para modelar moléculas y representando cada átomo de ella en un dibujo; lo anterior se logró con el programa Avogadro, y en cambio, el programa ORCA nos ayudó a obtener la geometría de los átomos de la molécula. Sin embargo, solo se logró trabajar solo con lo más básico de los softwares debido a la contingencia y el tiempo.
Montemayor Vasquez Maria Fernanda, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

DESARROLLO E IMPLEMENTACIóN DE UNA ASISTENTE DE VOZ CON APLICACIONES EN LASER CLADDING


DESARROLLO E IMPLEMENTACIóN DE UNA ASISTENTE DE VOZ CON APLICACIONES EN LASER CLADDING

de Jesus Consuelo Cinthia Lizeth, Tecnológico de Estudios Superiores de Valle de Bravo. Jiménez Avila Carlos Alan, Instituto Tecnológico de Querétaro. Montemayor Vasquez Maria Fernanda, Tecnológico de Estudios Superiores de Villa Guerrero. Sol Altúzar Antonio Alejandro, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La manufactura aditiva (MA) es una tecnología disruptiva en México. La impresión volumétrica de componentes metálicos personalizados la vuelve muy atractiva para sectores industriales. Gracias a esto, se pueden concebir aplicaciones tan variadas que pueden abarcar desde el sector metal-mecánico hasta la bioingeniería médica. Hoy en día, el Consorcio Nacional en Manufactura Aditiva (CONMAD) cuenta con diversas tecnologías de la familia de Deposición Directa de Energía, entre ellas la conocida como Laser Cladding, el cual permite añadir material capa por capa hasta construir o reparar un volumen. La tecnología de Laser Cladding requiere una configuración inicial especifica de parámetros de impresión. Dicha configuración está en función del material a imprimir y las características funcionales que se buscan en la pieza (por ejemplo, más resistencia a la corrosión). Es decir, existe un universo de parámetros de configuración, llamados ventanas de proceso, que deben ser conocidos o calculados previamente por el usuario. Por lo cual, surge la necesidad de crear un repositorio digital con toda esta información para que así pueda ser consultada posteriormente por los usuarios. Una idea para dar solución es el uso de un asistente de voz. Este asistente podrá ser consultado previo al depósito garantizar la configuración adecuada de la celda de Cladding. Logrando así mantener condiciones de impresión, repetibilidad y la calidad adecuada de componentes.



METODOLOGÍA

Los asistentes de voz con inteligencia artificial (IA) han experimentado un crecimiento sin precedentes. Centrándose en las interacciones de voz, combinamos los fundamentos teóricos y prácticos de un asistente de voz para lograr una comunicación usuario-asistente. Para la comunicación usuario-asistente se usó una bocina Smart Echo Dot de Amazon de 3 generación y la asistente de voz de Amazon llamada Alexa. Para el entorno MA, se utilizó una estación de celda de Laser Cladding conformada por un Láser TruDisk 6002 de TRUMPF de estado sólido de alto rendimiento para la soldadura, un manipulador ABB IRB6620-120 de 6 GDL, un alimentador de polvos por vibración Medicoat Flowmotion Duo de dos tolvas y un cabezal de impresión coaxial de 3 puertos TRUMPF BEO D70 para Laser Metal Deposition (LMD). Se revisó el estado del arte para familiarizarse con los tópicos relacionados con la Manufactura Aditiva y gracias a esto, se logró tener una mejor compresión de lo que se iba a realizar a lo largo de las siete semanas en el desarrollo del proyecto. La metodología está compuesta por 4 etapas: Base de datos: La base de datos está compuesta por los parámetros que usa una celda de Laser Cladding y los parámetros de distintos materiales que se utilizan en la TruDisk 6002 de acuerdo a los proveedores que maneja CIDESI. Para agilizar el trabajo, decidimos usar los servicios de Amazon Web Services (AWS), por lo cual se revisó el estado del arte del servicio AWS y del lenguaje de programación Python. AWS maneja distintos servicios de base de datos, se realizó una tabla comparativa de los servicios de AWS teniendo en cuenta los pros y contras de cada servicio, se tomó la decisión de usar el servicio Amazon RDS de AWS. En RDS se creó una instancia (entorno en la nube con los recursos informáticos y de almacenamiento que especifique) y una base de datos con el motor de MySQL y se usó el cliente de MySQL Workbench para trabajar en la base de datos hecha en RDS. Amazon Lambda Function Se aprendió y probó el Software Development Kit (SDK) del Alexa Voice Services (AVS) y su integración con AWS Lambda Function para generar el código de programación que permitió enlazar la base de datos con Lambda. De esta manera se estableció la comunicación entre usuario y asistente. El AVS permite añadir control de voz inteligente a cualquier producto usando habilidades diseñadas por terceros en Alexa bajo el nombre de Skill. Modelo de interacción de voz Se diseñó el modelo de interacción de voz en la plataforma de Alexa Developer Console para crear una Skill personalizada con programación en Python usando las API de AVS. Para el funcionamiento de la Skill, se agregaron los siguientes elementos: Intents, utterances, variables, invocation name, slots, endpoint, automatic speech recognition (ASR). Skill de Alexa Se desarrollaron las distintas fases para entablar una comunicación entre AWS Lambda y la Skill de Alexa en donde se evaluó el funcionamiento del modelo, la respuesta del mismo y el tiempo de despliegue. Se usó la función Beta (con duración de 90 dias activa) de la Skill de Alexa para desplegar nuestra Skill a dispositivos inteligentes Echo Dot para realizar la comunicación entre usuario y asistente. La diferencia entre una Skill publicada y una beta es que la beta tiene una etiqueta dev y aún no pasa el proceso de certificación que se requiere para desplegarla a la tienda de Alexa. La certificación de la Skill excede el tiempo establecido para el proyecto, por lo cual se quedó en espera y por el momento la función Beta es la única válida para funcionar en los dispositivos Echo Dot. .


CONCLUSIONES

Se aprendió a crear una Skill en el entorno de Alexa Developer Console y como resultado se obtuvo una Skill para el asistente de voz Alexa para aplicaciones en Laser Cladding. Por otra parte, encontramos limitaciones como: el uso de los servicios de AWS usando la capa gratuita y sus costos fuera de esa capa porque se cotizan en USD, además de que el soporte técnico es muy limitado para usuarios principiantes. Hasta donde se conoce, este es uno de los primeros estudios en el campo de asistentes de voz aplicados en manufactura aditiva puesto que, en la actualidad no existe una aplicación similar en la industria. Para futuras investigaciones, se recomienda obtener más datos generales sobre los diversos materiales que se trabajan dentro del CONMAD y pulir esta aplicación para tener una visión más amplia ya que el entorno de Alexa Developer Console cambia constantemente porque se actualiza constantemente.
Montes de Oca Nava Brandon Osvaldo, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Simon Yobanny Reyes Lopez, Universidad Autónoma de Ciudad Juárez

SÍNTESIS DE NANOPARTÍCULAS DE MATERIALES METÁLICOS, POLIMÉRICOS Y CERÁMICOS.


SÍNTESIS DE NANOPARTÍCULAS DE MATERIALES METÁLICOS, POLIMÉRICOS Y CERÁMICOS.

Montes de Oca Nava Brandon Osvaldo, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Simon Yobanny Reyes Lopez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Actualmente las nanopartículas son un área de intensa investigación científica, debido a una amplia variedad de aplicaciones potenciales. Hay diversos métodos para crear nanopartículas. La síntesis y el ensamblado de nanopartículas permite explotar sus propiedades únicas, encontrando nuevas aplicaciones. Los métodos de síntesis de nanopartículas suelen agruparse en dos categorías: de arriba hacia abajo y de abajo hacia arriba. Los métodos de arriba hacia abajo involucran principalmente métodos físicos-químicos se describen como un método de producción de materiales sólidos a partir de moléculas grandes, a diferencia de los que es a partir desde un átomo a moléculas más grandes. 



METODOLOGÍA

En los métodos de abajo hacia arriba para la síntesis de nanopartículas utilizan procedimientos químicos. Por lo general, inician con la reducción de los iones metálicos a átomos metálicos, seguido por su agregación controlada. El método químico es el más conveniente para la obtención de nanopartículas uniformes y pequeñas. Uno de los métodos más representativos de esta aproximación es el método sol-gel el cual es un proceso químico en fase húmeda ampliamente utilizado en la ciencia de los materiales para la fabricación de nanomateriales cerámicos. Su síntesis parte de una solución química o sol que actúa como precursor de una red integrada ya sea de partículas discretas o de una red de polímeros. Los precursores típicos del proceso sol-gel son alcóxidos, carboxilatos y cloruros metálicos, que sufren varias reacciones de hidrólisis y policondensación para formar una dispersión coloidal, que luego de una polimerización lenta forma un gel. Las aplicaciones de los MONPs (nanopartículas de óxido metálico) se ven en diferentes áreas que van desde cosméticos, pigmentos de color, recubrimientos para pantallas, fotovoltaica, fotocatálisis, suministro de medicamentos, etc. Otra manera de aplicar la nanociencia con la creación de nanofibras, para ello estudiamos el método de electrohilado o electrospinning, en donde una solución generalmente polimérica se ve inducida por una carga electrostática, y da como resultado fibras de diversos tamaños, obteniendo así productos finos de hasta unos cuantos nanómetros de espesor. Una variante de esta técnica es el electrohilado coaxial para producir nanofibras estructuradas núcleo-carcasa, lo que lleva a una funcionalidad avanzada del material. Enfatizando el uso de polímeros naturales se observó que existen cinco áreas principales de interés: biotecnología, alimentos, agua, medio ambiente y energía. La creación de nanofibras trae consigo más aplicaciones por ejemplo en filtración, por ejemplo: en dispositivos hemostáticos. Otra metodología que puede utilizar las nanopartículas para la creación de nuevos materiales es la Colada de Barbotina. La introducción de la cerámica en la industria y el colado de las piezas ha impuesto la técnica de agregar a la barbotina otros componentes para ligar el barro e inducir la dispersión de partículas de la pasta de arcilla formando una emulsión para la obtención de características especiales. En un trabajo se describe la obtención de nanopartículas de óxido de estaño dopado con cobalto para conformar barbotinas estables, donde los productos sinterizados son usados como sensores de gases. La caracterización de las nanopartículas es necesaria para establecer el entendimiento y control de la síntesis y aplicaciones de nanopartículas. La caracterización se lleva a cabo usando diferentes técnicas, principalmente de la ciencia de materiales. Entre las técnicas más comunes está la microscopía de electrones (SEM), espectroscopia de fotoelectrones de rayos x (XPS), difracción de Rayos X (XRD), espectroscopia infrarroja por transformada de Fourier (FTIR). Conocer la microestructura, propiedades físicas y mecánicas de un material   facilitan la búsqueda de su aplicación final, por ejemplo: en catálisis, fotoquímica, microelectrónica y otros medios.


CONCLUSIONES

En la síntesis de nanomateriales podemos aplicar varias técnicas, cada una con características especiales y que depende de la aplicación final del material deseado pues uno de los objetivos centrales de la nanociencia es construir pequeñas estructuras para el diseño de materiales avanzados, nanodispositivos de alto rendimiento y miniaturización de dispositivos electrónicos, se utilizan también varias metodologías para el control y supervisión tanto en su síntesis como en su aplicación.
Montes Ramírez María Luisa, Instituto Tecnológico de Reynosa
Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México

USO DE CONTRATOS INTELIGENTES PARA LA COMPRA - VENTA DE BIENES TANGIBLES


USO DE CONTRATOS INTELIGENTES PARA LA COMPRA - VENTA DE BIENES TANGIBLES

Montes Ramírez María Luisa, Instituto Tecnológico de Reynosa. Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Esta investigación propone describir la tecnología Blockchain en rasgos generales, mostrar cómo puede ser implementada en el uso de contratos inteligentes, ámbito en el cual la confianza juega un papel importante en las partes involucradas de este tipo de acuerdos, así como también exponer cómo esta confianza puede ser cubierta gracias a las propiedades criptográficas intrínsecas de la blockchain, las cuales aseguran la inmutabilidad e integridad de la información contenida en estos contratos. A su vez propone discutir las ventajas y desventajas del uso de contratos inteligentes para la compra-venta de bienes tangibles. Finalmente se propone describir cómo esta tecnología, en combinación de registros abiertos, pagos en línea y notariado digital descentralizado, puede tener un impacto benéfico en la mejora de los sistemas actuales que hacen posible estas transacciones.



METODOLOGÍA

A continuación se plantean los conceptos en torno a los cuales gira el uso de blockchain para un escenario mercantil. Transacciones  El concepto de transacción es muy amplio y puede englobar desde una operación matemática realizada desde un computador para realizar una validación digital, hasta la compra y venta de un bien físico. Por esto es importante hacer una distinción entre las transacciones que ocurren en blockchain y las que ocurren en el mundo real, que si bien sirven para fines similares (la obtención de una salida), en blockchain esta salida es un valor que puede ser escrito y almacenado en una cadena de bloques y en la realidad esta salida puede ser la adquisición de un bien tangible, a cambio de un pago. por mencionar un ejemplo. Transacciones en línea Las transacciones en línea, por su parte, hacen que el mundo digital y el mundo real converjan en un escenario en donde las partes involucradas dentro de una transacción común deban proporcionar sus datos, tanto públicos como sensibles, a un sistema informático, el cual será el encargado de procesar dicha información y hacer el cambio en el estado financiero de las partes involucradas.  El inconveniente de las transacciones en línea es que si bien éstas facilitan el proceso de compra / venta, al no tener que trasladarse físicamente a las tiendas o los bancos en cuestión, esto no asegura la integridad de nuestros datos, ni proporciona la confianza de que el sistema informático no sea corrupto. Debido a estos inconvenientes es por lo que se recurre a organismos centralizados confiables en donde la confianza se deposita en la reputación y trayectoria de los mismos.  Por otro lado, blockchain garantiza que las transacciones sean realizadas sin el uso de intermediarios que compliquen el proceso [1], además de brindar la confianza de que la información será íntegra debido a las propiedades criptográficas intrínsecas con las que cuenta. Por lo cual en lugar de confiar en terceras partes se confía en la evidencia digital que blockchain provee. 


CONCLUSIONES

La blockchain es una herramienta tecnológica que ofrece múltiples ventajas que varían dependiendo del escenario al que se desee implementar. En el caso de la compra / venta de bienes tangibles, promete hacer un ahorro en recursos y garantizar la honestidad de los procesos involucrados en este ámbito. Sin embargo, como se vio anteriormente esta tecnología puede llegar a ser compleja para usuarios sin experiencia previa utilizando blockchain, por lo cual aún hay mucho que hacer en este campo de investigación, tanto para crear plataformas con alto grado de usabilidad, como para facilitar la accesibilidad a estas tecnologías.  El panorama futuro para blockchain es prometedor, ya que además de brindar una alternativa segura para independizarnos de los organismos centralizados, está poniendo a nuestro alcance la posibilidad de manejar y decidir directamente sobre nuestra información y activos sin la intervención de terceros. Esta innovación en la forma de decidir sobre nuestros recursos de tal manera, sin duda será la plataforma inicial que traerá consigo un progreso mayor al área de las tecnologías de la información y la forma en que la sociedad interactúa con ellas.
Morales Castillo Leonardo, Instituto Tecnológico de Culiacán
Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa

ANáLISIS DISEñO Y CONTROL DE SISTEMAS ROBóTICOS PARA FINES EDUCATIVOS Y DE INVESTIGACIóN


ANáLISIS DISEñO Y CONTROL DE SISTEMAS ROBóTICOS PARA FINES EDUCATIVOS Y DE INVESTIGACIóN

Morales Castillo Leonardo, Instituto Tecnológico de Culiacán. Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, los avances tecnológicos nos han permitido desarrollar herramientas que nos facilitan los procesos, los cuales ayudan a tener resultados más favorables en menor tiempo y con menos esfuerzo. El uso de robots se hace cada vez más popular en distintos ámbitos, actualmente sus aplicaciones van desde el campo del entretenimiento hasta grandes proyectos de investigación a nivel mundial. Dentro del análisis y evaluación de movimientos en robots móviles antropomórficos nos encontramos con una gama muy baja de sistemas o plataformas de tecnología propia para investigación y desarrollo, en otros casos no hay robots de arquitectura abierta para entornos de investigación. En este proyecto se desarrollará un manipulador robótico con base en los cálculos de los parámetros de Denavit Hartenberg para obtener su cinemática directa. El tipo de manipulador que se utilizará en este trabajo es un Robot Manipulador articulado (Antropomórfico o RRR), el cual puede realizar movimientos en 3 planos (X, Y, Z) con articulaciones de rodamiento en cada una de sus uniones



METODOLOGÍA

En este proyecto se desarrolló el diseño de un manipulador robótico con base en los cálculos de los parámetros de Denavit Hartenberg para obtener su cinemática directa. El tipo de manipulador es un Robot Manipulador articulado (Antropomórfico o RRR), el cual puede realizar movimientos en 3 planos (X, Y, Z) con articulaciones de tipo revoluta en cada una de sus uniones. Se obtuvo como primer paso la cinemática directa del manipulador, así mismo, se establecieron las distancias entre eslabones y el dimensionamiento del robot. Posteriormente se desarrolló el diseño articulado del robot en CAD, el cual se estableció mediante la cinemática directa, por otra parte, se consideró el uso de servomotores MG995 con engranajes metálicos, uno para q1 en la base, dos para q2 y uno para q3. Finalmente se hicieron las comparaciones del análisis numérico, la cinemática directa y el diseño del robot de forma espacial.


CONCLUSIONES

Una vez finalizado el prototipo y diseño del robot manipulador antropomórfico descrito, y bajo los parámetros de Denavit Hartenberg se logró realizar satisfactoriamente la comprobación de los cálculos necesarios para determinar la cinemática directa del mismo. Además, el uso de herramientas computacionales para el diseño también ayudó a la reducción considerable del tiempo de desarrollo del manipulador, pues permitió realizar simulaciones y variaciones de varias propuestas, hasta llegar al diseño final del robot manipulador. Durante este tiempo, logré adquirir conocimientos teóricos con respecto a la elaboración de diseños asistidos por computadora (CAD), así como también conocer más acerca de la cinemática empleada en manipuladores robóticos haciendo énfasis en los parámetros de Denavit Hartenberg para la elaboración de la cinemática directa de los manipuladores. Al participar en esta actividad y trabajar con un investigador me pareció muy buena experiencia, ya que aprendí nuevas cosas que utilizare más adelante en mi carrera; sin embargo, considero que pudo haber sido diferente y mejor si hubiese tenido la oportunidad de realizarlo de manera presencial.
Morales Elizarraras Jennifer, Universidad Autónoma de Tamaulipas
Asesor: Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla

LAS GRASAS Y ACEITES EN TIEMPOS DE PANDEMIA A TRAVéS DE UNA TRAMPA


LAS GRASAS Y ACEITES EN TIEMPOS DE PANDEMIA A TRAVéS DE UNA TRAMPA

Almaguer Islas Aida Giselle, Universidad de Guadalajara. Morales Elizarraras Jennifer, Universidad Autónoma de Tamaulipas. Asesor: Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Alrededor del mundo, se han implementado muchas políticas para poder detener la contaminación ambiental y vivir de manera sustentable, de esta manera, también se aseguraría el recurso para las futuras generaciones, un gran aporte es dirigido por la ONU. Son los 17 Objetivos de Desarrollo Sostenible (ODS) es el  Garantizar la disponibilidad y la gestión sostenible del agua y el saneamiento para todos. Debido a la importancia que tiene el recurso hídrico en la vida y desarrollo del ser humano, queremos dar visualización a la problemática del vertido de aceites y grasas vegetales y/o  de animal que se hace a nivel doméstico.  En los hogares mexicanos, es común el uso de aceites y grasas vegetales y de animales para la preparación de los alimentos. Al desecharlos, no se tiene mucha consciencia de cuál es la manera más idónea, por lo que se recurre a verterlo directamente en el fregadero provocando un gran impacto ambiental. El aceite, al ser químicamente un compuesto hidrofóbico y menos denso que el agua, va a flotar y formar una especie de película en la superficie del agua, con lo que se va a afectar el intercambio de oxígeno y con ello se perjudica  a los seres vivos del ecosistema, además el aceite una vez frío se endurece y puede obstruir las tuberías, lo que podría provocar derrames e inundaciones.   



METODOLOGÍA

La contingencia de salud cambió la manera de trabajar en el verano de investigación, con lo que se ha propuesto la investigación científica a distancia siendo más didáctica y teórica para resguardar la integridad de los participantes.    Primero se estudiaron los diferentes componentes fisicoquímicos del agua, incluyendo la normatividad legal y técnica del agua. En la NMX-003 se explica de forma detallada el primer paso para el tratamiento del agua, siendo este el muestreo, con el fin de determinar las características fisicoquímicas del agua.    La metodología para un levantamiento técnico en muestreo de agua a partir de la NMX-003 contempla que las muestras serán extraídas de tal forma que sean representativas al efluente total, envasadas en recipientes de material inerte además de estar bien identificadas para que coincidan con la hoja de registro con la mayor cantidad de datos significativos y su análisis en el menor tiempo posible, con la finalidad de poder repetir el muestreo en caso necesario.    Después pasamos a la integración de conocimientos sobre métodos para determinar la alteración del cauce hídrico. La NMX-005 hace referencia a este tema en el análisis de agua para la medición de grasas y aceites recuperables, residuales y residuales tratadas. Además en esta parte se llevó a cabo un caso práctico de determinación de grasas y aceites para hacer una simulación con los datos de los resultados reales obtenidos de la práctica. La determinación se realizó con el método gravimétrico con extracción Soxhlet en una muestra de agua residual. Los datos obtenidos fueron sometidos a cálculos para poder llegar a resultados que pudieran ser sometidos a la simulación en la cual se determinaba si estaba dentro de los diferentes parámetros de los límites máximos permisibles para contaminantes básicos según los lineamientos de la NOM-001-SEMARNAT-1996.    En la parte final se pusieron en práctica todos los conocimientos aprendidos anteriormente para la creación del diseño de una trampa de grasas y aceites, adecuada con las necesidades para el tratamiento de efluentes con alto contenido de contaminantes grasos. El método de separación de grasas y aceites seleccionado fue el de flotación por aireación al sistema a presión atmosférica, por lo que el sistema de separación de grasas debe de contemplar en su diseño la instalación de un sistema de aireación.   Posteriormente, se procedió a la construcción del diseño de la trampa de grasas y aceites en la cual se propone utilizar lámina de polimetacrilato de metilo con una dimensión de 1800mm por 1200 mm de 10 mm de espesor de color transparente. Los accesorios que debe de llevar son: 3 Conectores Hembra de 2 in, 3 Conectores Macho de 2 in, 8 Codos 90° de 2 in, 0.50 m de tubería de 2 in y 6 Sellos.    Para suministrar aire a presión atmosférica a la trampa de grasa es necesario contar con un equipo que permita un suministro constante a presiones bajas de bombeo, por lo tanto se propusieron los accesorios; 1 Bomba de aire Capacidad de bombeo 2,500 cm3/min Consumo de energía 2.5 W/h Presión de operación 20.68 kPa manométricos, cuatro tee de polietileno Diámetro interior 5mm Diámetro exterior 6mm, ocho difusores de madera y un Divisor de flujo con válvula reguladora.


CONCLUSIONES

Durante el tiempo de la investigación pudimos adquirir conocimientos teóricos sobre los lineamientos que se incluyen en las diferentes normas relacionadas con el tratamiento de aguas, sus contaminantes y el muestreo adecuado para su análisis. Debido a las nuevas condiciones del verano virtual, no fue posible realizar análisis reales ya que no se contaba con el equipo ni con el laboratorio para realizar dichas pruebas a las muestras pero pudimos realizar el diseño del prototipo de la trampa de grasas y aceites.   La aplicación de la trampa de grasas y aceites es de una forma sencilla, práctica y económica para poder separar del agua las grasas y aceites usados cotidianamente en hogares mexicanos antes de su vertido directo en el drenaje. Además permite su futuro reciclaje para la elaboración de diferentes materiales y productos cómo: lubricantes, velas, productos cosméticos, pinturas y barnices, biodiesel, abono orgánico y cómo un aditivo para alimento animal. Al reciclar, reducir y reutilizar el aceite comestible mejoramos la calidad de vida acuática y de nuestro medio ambiente, al mismo tiempo esto puede generar ingresos económicos a partir de los productos elaborados. 
Morales Granadillo Juanpablo, Universidad de la Guajira
Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo

MANUAL PARA LA ESTABILIZACION DE TALUDES MEDIANTE LA BIOINGENIERIA DE SUELOS EN EL DEPARTAMENTO DE LA GUAJIRA


MANUAL PARA LA ESTABILIZACION DE TALUDES MEDIANTE LA BIOINGENIERIA DE SUELOS EN EL DEPARTAMENTO DE LA GUAJIRA

Morales Granadillo Juanpablo, Universidad de la Guajira. Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En nuestro país el mapa de susceptibilidad del terreno a los deslizamientos de tierra y el mapa de amenaza por movimientos en masa según el servicio geológico colombiano (SGC) con el Instituto de Hidrología, Meteorología y Estudios Ambientales (IDEAM) clasifican la amenaza desde baja hasta muy alta, así mismo el departamento de la guajira se encuentra desde zona media hasta muy alta con cadenas montañosas tanto en serranías como en distintos puntos, de tal forma que existe la inestabilidad de taludes la cual ocurre cuando encontramos una pendiente muy inclinada donde es muy difícil o imposible evitar que ocurran deslizamientos de las masas de suelos, desniveles, minerías, condiciones naturales como temblores, rellenos o excavaciones, desprendimientos, derrumbes, avalanchas y demás situaciones. Para Braja (2013), ‘A una superficie de suelo expuesto que se sitúa en un ángulo con la horizontal se le llama talud sin restricciones. La pendiente puede ser natural o construida. Si la superficie del suelo no es horizontal, un componente de la gravedad hará que el suelo se mueva hacia abajo. Si la pendiente es lo suficientemente grande, puede ocurrir falla de la pendiente, es decir, la masa de suelo en la zona puede deslizarse hacia abajo. La fuerza motriz supera la resistencia del suelo al corte a lo largo de la superficie de ruptura’ (P. 334). La irregularidad únicamente se produce como consecuencia de la fisura por esfuerzo cortante en una sucesión de puntos que definen una zona, a lo amplio de la cual se produce el desplazamiento.  



METODOLOGÍA

La investigación a realizar es mixta porque se relaciona con 4 tipos investigativos, basándome en autores como palella y martins especifique los siguientes:  Aplicada, porque busca la aplicación o utilización mediante un manual de los conocimientos adquiridos, a la vez que se adquieren otros, después de implementar y sistematizar la práctica basada en investigación.  Explicativa, ya que su interés se centra en explicar el porqué es necesario adquirir una guía para la estabilización de un talud como prevención de desastres naturales relacionándose con varias variables.  De campo y laboratorio, consiste en la recolección de datos directo de la realidad sin manipular las variables, en este caso recolectamos cilindros de muestras de suelo, luego los llevamos al laboratorio donde determinamos diferentes aspectos.  Experimental cuyo objetivo es describir de qué modo y porque causa es necesario la estabilización de taludes por la producción de desastres, buscando predecir el futuro convirtiendo las inclinaciones estables. 2 Población y muestra La Guajira es un departamento colombiano en el mar Caribe, que limita con Venezuela y abarca la mayor parte de la península de La Guajira. Se distingue por sus paisajes desérticos, las dunas de arena gigantes y las haciendas y las villas pesqueras remotas del pueblo indígena wayuu, contamos con un modelo de elevación digital en el cual se generaran curvas para determinar los puntos más altos, es decir las montañas con pendientes de gran inclinación. Este estudio lo realizaremos mediante el software Arcgis 10.3  


CONCLUSIONES

El presente proyecto se realizara con el fin de llevar a cabo un manual para la implementación de estabilización de taludes por medio de la Bioingeniería de suelos considerándolo importante porque a comparación de los métodos tradicionales, usando este método reducimos notablemente el impacto ambiental reconociendo que este método es ecológico, ambiental y más económico que los tradicionales. Lo convertiremos en base de la investigación porque este tema es innovador tanto pedagógico como aplicativo, sabemos que directa o indirectamente salvaguardamos vidas, viviendas, vías, cultivos, y demás campos de la vida diaria.  
Morales Hernández María Alejandra, Universidad de Guadalajara
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

EL BLOCK DE CONCRETO Y PET COMO UN AVANCE EN LA ARQUITECTURA BIOCLIMáTICA


EL BLOCK DE CONCRETO Y PET COMO UN AVANCE EN LA ARQUITECTURA BIOCLIMáTICA

Morales Hernández María Alejandra, Universidad de Guadalajara. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Construcción sostenible es un tema que ha estado incrementando en el ámbito de la construcción, debido a esto, hoy en día se busca crear mejores materiales, disminuir el impacto al ambiente, bajar las emisiones de gases invernaderos, hacer uso de energías renovables y darles un ambiente de confort a los usuarios. La contaminación ha ido incrementando en los últimos años, hay problemas en los mares y ríos, debido a la cantidad de basura que se ha ido acumulando. La producción de plástico es altamente contaminante hacia el medio ambiente y el desecho del mismo también. Es por eso que se propone utilizar el PET como parte de los materiales en la construcción, debido a que es un material flexible y de gran durabilidad. La vivienda de calidad ha ido disminuyendo, es difícil encontrar un terreno dentro de la ciudad y aún más difícil poder construirlo, es necesaria una solución en cuanto a materiales y formas de construir, de tal manera que se vuelva confortable para el usuario y disminuya el impacto al ambiente, que haya eficiencia energética dentro de la vivienda y que opere de una manera ecológica.



METODOLOGÍA

Diseño de investigación. Experimental A causa de que se va a proponer un material para la construcción es necesario que durante la investigación se ponga en práctica lo que se propone y analizar su comportamiento. Pre-experimento Debido a que es una investigación exploratoria se busca hacer los experimentos base para posteriormente en una investigación más profunda hacer los experimentos puros.


CONCLUSIONES

Durante mi estancia en verano delfín, tuve la oportunidad de conocer más a profundidad el proceso de las investigaciones y compartir experiencias con otros compañeros, de más universidades, fue enriquecedor al tener el conocimiento de un investigador con amplia experiencia que nos compartía información científica, aunque debido a la pandemia por COVID-19, no se hayan podido realizar los experimentos propuestos, ha sido una experiencia agradable.
Morales López Marco Antonio, Universidad de Guadalajara
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

IMPLEMENTACIóN DE REDES NEURONALES EN SOFTWARE PARA LA IDENTIFICACIóN Y CLASIFICACIóN DE ROSTROS.


IMPLEMENTACIóN DE REDES NEURONALES EN SOFTWARE PARA LA IDENTIFICACIóN Y CLASIFICACIóN DE ROSTROS.

Morales López Marco Antonio, Universidad de Guadalajara. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con datos de la ONU en el 2019 se tiene un estimado de 703 millones personas mayores de 65 años y para el 2050 se plantea que existan alrededor de 1,549 millones lo cual representaría alrededor del 17% de la población mundial, y el porcentaje de población menor a 20 años sería mucho menor a lo que es actualmente. La Organización Mundial de la salud tiene un estimado que a nivel global existen 285 millones personas con algún tipo de discapacidad visual y 39 millones sufren de ceguera. Se estima que muchas de estas personas tanto de la tercera edad como con algún tipo de discapacidad no tienen o tendrán hijos lo cual a futuro representará un gran problema en diversas tareas muchas de ellas empezando por el hogar. Es muy complicado tanto para las personas de la tercera edad como aquellas con algún padecimiento visual el poder identificar a la persona qué quiere ingresar a su domicilio, lo cual en muchas ocasiones y más cuando viven solos representa una inseguridad y un riesgo para su persona.



METODOLOGÍA

Se realizó el estudio y comprensión de diversas redes neuronales desde las bases hasta la implementación de estas utilizando diversos materiales didácticos proporcionados por el Dr. Juan Humberto Sossa Azuela y algunos recursos de manejo de software en línea de la plataforma Google Colab. Una vez conseguido cierto entendimiento de las redes neuronales se procedió con la implementación de estas para la solución de la problemática. Para ello se tuvo qué primero definir la problemática a resolver, en este caso siendo la clasificación e identificación de los rostros con los cuales se realizaría la implementación del proyecto. Se busca una recopilación de los datos también conocido como dataset en diversas plataformas institucionales una vez se ha determinado esta se empieza con la descarga y selección de los datos a utilizar. Se realiza una categorización de los datos, en este caso de las 327 mil imágenes que contenía la librería se utilizaron 330 imágenes con un tamaño de 178*178 pixeles y 3 canales, dividiéndose así en 10 clases cada una con 30 muestras y subdivisiones en estas (22 de entrenamiento, 4 de validación y 4 de prueba). Una vez concluida la selección de datos a utilizar, se procede a realizar el código que con anterioridad se había aprendido a realizar a lo largo del curso subiendo de esta manera todas las carpetas con cierto orden determinado para poder establecer la ruta que seguiría el programa y de esta manera no hubiera problema con la extracción e implementación de los archivos en este. Con ayuda de la red neuronal se crean modelos y se empiezan a realizar las pruebas con los datos de entrenamiento y de validación, se empieza a trabajar con las épocas y lotes buscando que nuestros valores de validación y exactitud tengan números lo más correcto posibles para de esta manera evitar un sobreentrenamiento y que el programa pueda llegar a tener errores a la hora de realizar las pruebas.


CONCLUSIONES

A lo largo de la estancia en el verano delfín se logró adquirir diversos conocimientos tanto teóricos como prácticos en la programación e implementación de las redes neuronales, a pesar del extenso conocimiento y complejidad de este, personalmente logre una comprensión bastante buena de los temas dados a pesar de qué hay espacio de mejora tanto en mi red neuronal como en mi conocimiento de estas consideró que mi aprendizaje fue más que satisfactorio y definitivamente enriquecedor. Como espacio a mejora en mi programa sería la reducción de parámetros debido a que actualmente la problemática se ve rebasada por la complejidad del programa.
Morales Reyes Alam Natanael, Instituto Tecnológico de Toluca
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

MONITOREO DE ESTACIóN METEOROLóGICA MEDIANTE INTERNET DE LAS COSAS


MONITOREO DE ESTACIóN METEOROLóGICA MEDIANTE INTERNET DE LAS COSAS

Gallardo Sánchez Rubén, Instituto Tecnológico de Toluca. Morales Reyes Alam Natanael, Instituto Tecnológico de Toluca. Villaseñor Garcia Ireri Valeria, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La medición de los cambios meteorológicos ha sido cada vez más importante en los últimos años, la obtención de los datos tales como temperatura, humedad, viento, presión atmosférica, entre otros en un lugar específico es de gran utilidad en la meteorología. El desarrollo de esta estación meteorológica permitirá la medición de datos confiables para realizar una validación, manipulación y análisis de la información recolectada y esta servir como base para futuras predicciones meteorológicas. Presentamos nuestra estación de monitoreo del ambiente utilizando la Raspberry pi y Arduino Uno. Para recopilar y presentar datos medidos, desarrollamos una página web, donde el usuario podrá acceder a la plataforma para observar los datos antes recopilados.



METODOLOGÍA

Se implementó la metodología de cascada, en donde se hace un estudio de los requerimientos técnicos para dar inicio al proyecto, se definió el alcance del proyecto según con los recursos y el tiempo disponibles. Durante el análisis se desarrolló un servidor web basado en Apache2, mariadb, PHP 7.3, MySQL y PHPMyAdmin. Se midieron y registrar variables físicas como la radiación uv, temperatura, humedad, presión atmosférica, latitud y longitud. Posteriormente se diseña el sistema, tanto en cuestión de software y hardware. Base de datos, página web, la conexión y ubicación de la estación de monitoreo con los sensores y los microcontroladores.  Para el diseño electrónico se utilizó la Raspberry Pi 3 B+ y el Arduino UNO, conectados a los sensores, a la Raspberry van conectados el sensor YL-69 y el sensor BME 280 y al Arduino van conectado el modulo GPS NEO-6MV2 y el sensor ML8511. Para el diseño del sitio web se realizaron archivos .PHP, .HTML y .CSS donde se visualiza la información de la base de datos, el sitio web fue implementado también siguiendo un responsive web desing.


CONCLUSIONES

La estación meteorológica desarrollada por este equipo multidisciplinar cumple el objetivo de mostrar información en tiempo real de datos atmosféricos recolectados y procesados por un microprocesador Raspberry Pi a través de una página web responsiva en la que cualquier usuari con acceso a la red que quiera conocer en tiempo real datos meteorológicos de la zona en cuestión, lo pueda hacer. Se mejorará el sistema de respuesta, así como también se incluirán más sensores para distintas mediciones de diferentes variables atmosféricas  
Moreno Arreola Heber Ulises, Instituto Tecnológico de Querétaro
Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México

DISEñO DE UN SISTEMA CONVERSACIONAL BASADO EN PROCESAMIENTO DE LENGUAJE NATURAL HABLADO PARA EL MEJORAMIENTO DE ACTIVIDADES COTIDIANAS.


DISEñO DE UN SISTEMA CONVERSACIONAL BASADO EN PROCESAMIENTO DE LENGUAJE NATURAL HABLADO PARA EL MEJORAMIENTO DE ACTIVIDADES COTIDIANAS.

Moreno Arreola Heber Ulises, Instituto Tecnológico de Querétaro. Pazzi Manzano Efrén, Instituto Tecnológico Superior de Xalapa. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial es uno de los temas que más despiertan la imaginación y preocupación de la sociedad. Aunque no contamos con las maquinas capaces derazonar y mantener una conversación con el usuario como nos la pinta la ciencia ficción, semantiene la investigacióncon ética científicapara llegar algún día a ella. Dentro de este gran campo seencuentran los Chatbots, programas capacesde sostener una conversación lo más natural posible con elusuario. No obstante,el estadoactual de los Chatbot no ha logrado cumplir esto de manera perfecta, ya que la mayoría sonlimitados a simples tareas a resolver, o es necesariauna gran cantidad deprocesamiento dedatos paraenseñar todos los escenarios posibles. La reducción de sus capacidades para uso en entornos controlados, ha brindado la posibilidad de ampliar sus alcances y buscar aplicaciones más cotidianas.



METODOLOGÍA

Para definir el área en la cual nos desarrollamos se utilizó un análisis de valor para encontrar un área específica para trabajar, viendo nuestro producto como un servicio final hacia algún cliente. Se hicieron 25 propuestas de Chatbots y 4 equipos para trabajarlas. Nosotros al definir los alcances y la posibilidad de implementación, decidimos comenzar el Gourmetbot, un Chatbot dedicado a tomar pedidos en restaurantes, de fácil entendimiento y que apoye en estos tiempos de nueva normalidad para reducir el contacto humano en los restaurantes.Para programarlos utilizamos un lenguaje creado en un ambiente de conda, que fuedescargados desde un repositorio en Githubproporcionado por el asesor. Una herramientamuy útil y con la capacidad de evolucionar a nuestra conveniencia. Como está basado enPython su sintaxis fue muy accesible, pero requieretiempo acostumbrarse a loque puede ser programado.Durante la primera semana se dedicó a la elección de los Chatbots e instalación de los programas a utilizar;durante las siguientes semanas se empezó a programar el proyecto.Cabe destacar que el asesor continuamente daba consejos de cómo se podría hacer,y brindabaherramientas para aumentar la complejidad del Chatbot. En la última semana seprobaron los Chatbots.


CONCLUSIONES

Durante la estancia se logró obtener valioso conocimiento teórico sobre Chatbots,procesamiento del lenguaje natural y de redes neuronales. Sobre todo, de los grandesavances que han tenido en estos campos los últimos años.Se cumplieron los objetivos de crear un Chatbot.Aunque el tiempo fue corto y la estancia de manera presencial no fue posible, la oportunidadde ser asesorados por un doctor con grandes conocimientos en el área fue una increíbleexperiencia.Para terminar, agradecemos al comité organizador la oportunidad de participar en este programaque fortalece nuestros conocimientos y nos orienta hacia el mundo de la investigación científica.
Moreno Macias Pablo Cesar, Universidad de Guadalajara
Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia

BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES


BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES

Canales Grimaldo Juan Pablo, Instituto Politécnico Nacional. Loza Aceves Jose de Jesus, Universidad de Guadalajara. Mendoza Garcia Diana Montserrat, Instituto Tecnológico de Tuxtla Gutiérrez. Moreno Macias Pablo Cesar, Universidad de Guadalajara. Obeso Peregrina Andrea, Universidad de Guadalajara. Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la sociedad enfrenta retos importantes en todos los aspectos. Uno de ellos es la integración de grupos minoritarios en actividades cotidianas, para que las personas puedan generar una experiencia que les permita adquirir cualidades como individuos y generar un bienestar individual y/o colectivo. La propuesta desarrollada Bioclimática y espacio público: propuesta de intervención del espacio público asociado a estructuras sustentables e incluyentes.       engloba dos aspectos muy importantes para el desarrollo integral de una persona: educación y recreación



METODOLOGÍA

En los diferentes espacios de este proyecto como son el parque sensorial y la escuela de educación especial, se adaptan e integran diversos elementos arquitectónicos para que el usuario sea capaz de descubrir y desarrollar sus cualidades a través de la experiencia sensorial e intuitiva. Para la realización de este proyecto se usó el método cuantitativo de diseño arquitectónico del Arquitecto Álvaro Sánchez, el cual permite el planteamiento de una solución de proyecto. Finalmente, estos elementos y métodos se concluyen en un objeto arquitectónico apto para el cumplimiento de su objetivo, ofreciendo soluciones técnicas constructivas y sustentables. La desintegración social es un problema con alta incidencia en los grupos de todos los niveles educativos y socioeconómicos de determinada población, en donde se generan diferencias propias de los integrantes, habiendo una marcada deficiencia en los sistemas de organización y regularización para atender los problemas.  Cuando existe, el grupo como tal, no se desarrolla en su máxima plenitud


CONCLUSIONES

Crear el Centro de Recreación e Integración Social supone para el desarrollo humano un paso muy importante en la sana convivencia y bienestar del lugar en donde se encuentre. Esto demuestra la flexibilidad que tiene la arquitectura para crear, así como innovar conceptos e ideas de acuerdo a los nuevos requerimientos sociales, al mismo tiempo se demuestra la responsabilidad que esta rama tiene en ofrecer espacios que den solución a dichos requerimientos. Este proyecto cumple con ellos de manera sustentable, técnica y perceptual, prometiendo convertirse en un referente urbano a nivel local, nacional e internacional, no solo por su diseño, sino también por el origen de su concepción que va más allá de solo mejorar un lugar y construir un objeto arquitectónico.  Ofrecer una oportunidad a todas las personas, especialmente a las que tienen capacidades diferentes para su bienestar y desarrollo, para percibir su entorno de manera distinta y de experimentarla con una mejor calidad de vida emocional y físicamente, es lo que se ha plasmado en este proyecto, generando un cambio positivo en la calidad de vida de nuestra sociedad.
Mosqueda Guillén Cesar Francisco, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Ernesto García Sánchez, Instituto Tecnológico Superior de Guanajuato

PRUEBAS DE DETECCIóN DE DEFECTOS EN ACABADO TEXTURIZADO EN MADERA MEDIANTE EL OPERADOR CCR (COORDINATED CLUSTERS REPRESENTATION)


PRUEBAS DE DETECCIóN DE DEFECTOS EN ACABADO TEXTURIZADO EN MADERA MEDIANTE EL OPERADOR CCR (COORDINATED CLUSTERS REPRESENTATION)

Mosqueda Guillén Cesar Francisco, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Ernesto García Sánchez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En los procesos de fabricación no siempre se tiene un producto final sin desperfectos, estos defectos de vez en cuando ocurren debido a factores externos al proceso, o  por desgaste de la misma maquinaria, en los controles de calidad se debería de implementar un control automático que permita la selección de las piezas que se encuentren con calidad aceptable y separarlas de las piezas que presentan defectos. Esta tarea representa un reto cuando lo que determina la calidad de un producto es su textura visual, como lo son los acabados cuya calidad es determinada por la experiencia de un experto debido a la dificultad que se tiene para cuantificarla, especialmente cuando la estructura visual observada no es homogénea.  En este trabajo se propuso la implementación de un programa de clasificación de textura, basado en software libre, para realizar la inspección de elementos, y reconocer tanto los elementos que se encuentran en buen estado como identificar los elementos que presentan algún defecto.



METODOLOGÍA

Se procedió a conocer el lenguaje de programación Python, así como algunas de sus herramientas que sirvieron para las tareas de procesamiento de imágenes. Para caracterizar las imágenes de textura se implementó la Representación por Cúmulos Coordinados (CCR) de imágenes, para ello se toma una imagen a color, se convierte a escala de grises, y mediante un algoritmo de umbralización global adaptiva se obtiene una imagen binaria. Finalmente, la imagen binaria es usada para obtener la representación CCR de la imagen. La CCR es una herramienta que permite obtener una estadística de las estructuras encontradas en la textura visual y puede usarse como un vector que permite la comparación entre imágenes. Esta representación permitió la creación de un clasificador. El clasificador fue entrenado proporcionándole muestras de imágenes de textura de elementos sin defectos, así como de elementos con defectos, conformando una base de datos almacenada en una matriz. Para las pruebas de clasificación se conformaron dos grupos de imágenes de textura: uno perteneciente a elementos en buen estado y otro perteneciente a elementos con defectos. Cada imagen de prueba fue alimentada al clasificador y éste comparó el vector CCR de la imagen de prueba con cada uno de los vectores de las imágenes conocidas. Finalmente, el clasificador emitió una etiqueta indicando si la imagen de prueba se pareció más a la imagen de un elemento en buen estado, o a la imagen de un elemento que presentó algún defecto.


CONCLUSIONES

Se logró la extracción de la representación CCR imágenes a partir de sus imagenes a color, procesadas a escala de grises y llevadas a blanco y negro. Se programó el clasificador una base de datos de las imágenes de aprendizaje que sirven como muestras de calibración, y finalmente la clasificación satisfactoria de las imágenes de prueba. Los resultados obtenidos muestran que la aplicación de la CCR permite la caracterización de un elemento tan ambiguo como lo es la textura visual, presente en muchos acabados de procesos industriales.
Munguía Aldapa Alejandro, Universidad de Sonora
Asesor: Dr. Diego Camargo Trillos, Universidad Pontificia Bolivariana

IDENTIFICACIóN Y CARACTERIZACIóN DE ARCILLAS: NANOPOROSIDAD


IDENTIFICACIóN Y CARACTERIZACIóN DE ARCILLAS: NANOPOROSIDAD

Munguía Aldapa Alejandro, Universidad de Sonora. Asesor: Dr. Diego Camargo Trillos, Universidad Pontificia Bolivariana



PLANTEAMIENTO DEL PROBLEMA

Los suelos están formados por un conjunto de distintas partículas de diversos tamaños, desde las piedras con tamaños fácilmente apreciables por el ojo humano, hasta las arcillas, que son difícilmente observables sin usar microscopía electrónica. Estás partículas tienen un radio varios ordenes menor que los componentes más grandes.  Construir edificaciones sobre suelos con alto contenido de arcillas, o en lugares donde suele haber mucha humedad o cuerpos acuíferos, ha sido uno de los problemas más recurrentes para la construcción debido a que los suelos se expanden y puede llegar a ser un riesgo importante construir sobre ellos. En la industria de la construcción se suelen hacer pruebas físicas y ensayos para determinar la presencia de arcillas y poder tomar decisiones acertadas para trabajar sobre esos suelos. El problema radica en la fiabilidad y tiempo de los resultados. Nosotros proponemos el uso metódico de técnicas analíticas para medir propiedades de nanoporosidad propias de cada arcilla y poder caracterizar y determinar con rapidez el tipo de arcilla del sistema en cuestión, estas son la Área Superficial Efectiva (SSA) y la DIstribución de Tamaño de Poro (PSD). De esta manera, se obtendrán resultados confiables y se ahorrará esfuerzo y dinero en las construcciones. 



METODOLOGÍA

Se realizó una investigación documental donde revisamos trabajos ya existentes en los cuales se experimentaba con arcillas y materiales nanoporosos con las técnicas que proponemos y otras más que refuerzan la caracterización. Realizamos una monografía que presenta esta investigación documental donde se exponen los resultados esperados para asi en un futuro poder explorar con las técnicas de manera presencial.


CONCLUSIONES

Despúes de haber realizado la investigación documental llegamos a dos conclusiones. Una de ellas es que el comportamiento de las propiedades de nanoporosidad es lineal, con esto se podrán predecir resultados en un futuro. La segunda conclusión personal, es que creo que las técnicas analíticas que proponemos son complementarias, es decir, cuando se efectúen estas pruebas, se deberán hacer también otras estructurales como lo son el FTIR y el XRD.
Muñiz Montero Rafael, Instituto Politécnico Nacional
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

PROTECCIóN CATóDICA POR CORRIENTE IMPRESA.


PROTECCIóN CATóDICA POR CORRIENTE IMPRESA.

Muñiz Montero Rafael, Instituto Politécnico Nacional. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Entre las grandes utilidades que nos ha otorgado la metalurgia en la vida, existe una muy fundamental asociada a la industria de la construcción,hablamos de la varilla de refuerzo en estructuras de concreto armado, dos elementos que han sabido conjugar la resistencia a la compresión del concreto aunado a la resistencia a la tensión de la varilla. Sin embargo, el tiempo y las condiciones ambientales provocan en el concreto reforzado efectos, que pueden llegar a convertirse en un gran problema para la construcción, hablamos de la corrosión, que afecta a la varilla y disminuye su diámetro nominal mermando sus propiedades mecánicas, y apareciendo óxidos de hierro que ocupan mayor volumen y desplazan al concreto, ocasionando agrietamientos y hasta desprendimientos del mismo. Al existir un deterioro en una estructura, se corre el riesgo inminente de fallo, la estructura pierde capacidad de carga para la que fue diseñada, pero sigue sometiéndose a los mismos esfuerzos, mismos que pueden fatigar la estructura y desplomarla. Causando así enormes pérdidas económicas, debido a la gran inversión en todo el proceso, o incluso invaluables pérdidas humanas.



METODOLOGÍA

Para combatir la corrosión, hay que tener en cuenta dos cosas muy importantes: La primera, que es el camino natural de un metal, debido a que termodinámicamente un metal puro posee un exceso de energía adquirido en su procesamiento, por ende busca deshacerse de este exceso y migrar hacia su forma más estable, en forma de óxidos. Cuando combatimos la corrosión, estamos yendo en contra del camino que la naturaleza dicta para los metales. La segunda, que la corrosión es un proceso electroquímico, pues existe un movimiento de electrones y cargas, y hay presencia de reacciones químicas (reducción y oxidación). Y es aquí donde encontramos la base de la corrosión, la celda electroquímica o celda galvánica,Para que la corrosión exista se debe completar la celda galvánica, que consta elementalmente de: Un ánodo (el elemento que pierde electrones y sucede el proceso de oxidación),un cátodo (él cuál gana electrones y hospeda el proceso de reducción),un electrólito mediante el cuál interactúan los iones desprendidos por los anteriores,un conductor eléctrico, o que exista conexión eléctrica entre el ánodo y el cátodo, y una diferencia de potencial entre los mismos. Como el acero se encuentra embebido en concreto, la función de electrólito la cumple el concreto mismo, y los ánodos y cátodos se encuentran localizados en la misma varilla. Lo que se conoce como corrosión por formación de micropilas superficiales. En el caso del acero estos electrodos se pueden formar debido a los granos y en sus bordes, y por las diferentes fases del acero. Cabe aclarar que la corrosión en un principio no sucede debido a una capa pasiva formada por hidróxidos de hierro (Fe(OH)2 y Fe(OH)3) que reaccionaron a los componentes del concreto y se mantienen por su alcalinidad, pero este mecanismo está estrechamente ligado a el espesor del concreto desde la varilla al ambiente y los agentes agresivos del mismo, por lo que en construcciones no es extraño encontrar problemas de corrosión a corto o mediano plazo, estos pueden ser provocados por : carbonatación que disminuye la alcalinidad de la matriz de concreto, y más comúnmente por ataques de cloruros que penetran por la porosidad del concreto, atacando en puntos localizados a la varilla. Ambos con la capacidad de despasivar la película de hidróxidos, donde se empiezan a formar óxidos de hierro. Las reacciones espontáneas del hierro cuando esta embebido en concreto son: 3Fe+4H2O⇒Fe3O4+8H++8e-   2Fe+3H2O⇒Fe2O3+6H++6e- Fe+2H2O⇒HFeO2+3H++2e- Fe⇒Fe2++2e- Donde se puede observar la formación de los óxidos y el flujo de electrones saliendo del hierro (ánodo). Al haber un flujo de electrones, sabemos existe una intensidad de corriente que puede ser calculada con las leyes de electrólisis de Faraday, también sabemos que existe una resistencia eléctrica en el concreto (electrolito) y en el conductor. Al tener una corriente, una resistencia, y un circuito (la celda electroquímica) es posible calcular la diferencia de potencial, y de esta manera tenemos certeza de las magnitudes eléctricas en las que se está oxidando nuestra varilla. Para combatir estos mecanismos y proteger la varilla existe la protección catódica por corriente impresa, que se basa en forzar que el acero cumpla la función de cátodo en la celda, para esto: -Se revierte el mecanismo de corrosión aplicando una corriente capaz de contrarrestar la corriente natural del proceso electroquímico. -Se conecta una fuente de CD con la terminal negativa al electrodo que se quiere proteger y la terminal positiva hacia un electrodo auxiliar (que puede ser chatarra) -De esta manera, como los electrones son carga negativa, viajan hacia las cargas positivas, por lo que se revierte el sentido de flujo de estos electrones, revirtiendo la reacción anódica en el acero de refuerzo en una reacción catódica, y haciendo del electrodo auxiliar el ánodo. -Se lleva el potencial del acero hasta -0.85 V o menos, que es el necesario para llevarlo a su región de inmunidad en el diagrama de Pourbaix.


CONCLUSIONES

Al no existir pruebas tangibles, debido a la modalidad virtual de la investigación, no se pueden comprobar la funcionalidad de este método de protección. Sin embargo, se puede inferir que así será por las fuertes bases teóricas de las que parte, y resultados presentados en veranos pasados, los cuales también fueron objetos de estudio en la investigación. En el verano se obtuvieron conocimientos de análisis de reacciones electroquímicas que son fundamentales en el estudio general de la corrosión, otorgando bases sólidas para futuras investigaciones en esta misma rama. Y también de ensayos en estructuras de concreto, fundamentales para obtener información, indispensable en la toma de decisiones para aplicar o no metodos preventivos o remediales en este tipo de estructuras.
Muñiz Montoya Maria Sabina, Universidad Autónoma de Tamaulipas
Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas

REPRESENTACIóN DE CONOCIMIENTO MEDICO CON LA APLICACIóN “DR. VIRTUAL”.


REPRESENTACIóN DE CONOCIMIENTO MEDICO CON LA APLICACIóN “DR. VIRTUAL”.

Muñiz Montoya Maria Sabina, Universidad Autónoma de Tamaulipas. Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Actualmente vivimos en la era tecnológica específicamente con la aparición de dispositivos móviles como Tablets, y especialmente con los Smartphone, además la disminución de costos de fabricación ante la gran demanda de estos dispositivos ha permitido que estén al alcance de la mayoría de ellos. En el aspecto social este primer estudio y acercamiento a desarrollar una herramienta informática que ayude a los médicos generales a tomar los indicadores generales del paciente y corroborarlos que de igual manera ayudara a crear una base de información actual e histórica acerca de los padecimientos más frecuentes en la región, dicha base contara con la ventaja de estar sistematizada y lista para poder explotarla ya sea en estudios médicos y científicos que requieran información relevante y fidedigna.



METODOLOGÍA

Representación del conocimiento. En la presente investigación se mencionará la técnica para la realización de un sistema experto, mencionando un modelo de Sistema Experto consistente en cuatro etapas: Base de Conocimientos, Máquina de Inferencia, Memoria de Trabajo y la Interfaz de Usuario. Temas avanzados de aplicaciones móviles. Es el diagnóstico, quizás, el más controvertido de los sectores de aplicación de la tecnología en la medicina, por las implicaciones éticas que puede traer. Planeación esquemática de la representación del conocimiento médico. La idea del proyecto se gesta platicando con un médico general donde planteaba el hecho de que las consultas en los hospitales públicos son muy lentas y muchas veces se perdía demasiado tiempo tomando datos al paciente como altura, peso, presión, etcétera; el comentaba que muchas veces esos datos se pasaban de manera equivocada y tenía el médico volver a hacerlo en su consultorio además que de una consulta a otra se perdían de ahí fue como nació primero la idea porque no capturar los datos y que se almacenaran en alguna parte para que estuvieran disponibles, esa fue la idea inicial. Programación de la representación del conocimiento en aplicación móvil. El presente proyecto su lenguaje de programación es Java, trabajado en u software de diseño de aplicaciones exclusivo de Android (Android Studio). Apoyándose en un base de datos para el almacenamiento. Se realizo un extractor de datos para tener almacenadas la sintomatología y preguntas del sistema, y reducir su memoria de datos. Pruebas de aplicación móvil. El sistema experto consiste en cinco etapas las cuales se mencionarán enseguida. - Login y registro del paciente. - Base de Conocimientos, la cual da un diagnóstico posible, está formada por toda la cantidad de información disponible sobre el campo en el que se desarrolla la aplicación. Esta información se obtendrá del apoyo de un médico general de familia y artículos científicos avalados por ONU(Organización Mundial de la Salud).  - Máquina de Inferencia: es la proporción del sistema experto que razona utilizando el contenido de la base del conocimiento en una secuencia determinada. - Base de hechos: Alberga los datos propios correspondientes al problema de las enfermedades por vector memorizando todos los resultados intermedios lo que permitirá conservar el rastro de los razonamientos llevados a cabo en una base de datos. - Interfaz del Usuario: Son las pantallas en las cuales el usuario interactúa con el sistema, teniendo como característica principal ser amigable para él.   Revisiones generales y acabados de la aplicación móvil. Se llevo a cabo la finalización de la aplicación móvil del sistema trabajando la información de datos de prueba de pacientes se realizó satisfactoriamente. Se realizo el algoritmo de prueba para la serie de preguntas dependiente la patología o sintomatología de las enfermedades seleccionadas llegando a conclusión el resultado del diagnóstico presuntivo.


CONCLUSIONES

Con la realización de este proyecto hemos estudiado las tecnologías y herramientas existentes para el desarrollo de aplicaciones. Se ha realizado un estudio de las posibilidades que el mercado actual ofrece para el desarrollo de estas aplicaciones empresariales, y se ha expuesto con más detenimiento aquella que nos ha parecido la más adecuada atendiendo a las ventajas que cada una ofrecía. El sistema experto es útil y ayuda a los médicos para realizar su diagnóstico de una forma rápida y eficaz, ya que esta se realizará desde una aplicación móvil que es lo que se está utilizando hoy en día. El diseño de un sistema para el diagnóstico de enfermedades transmisibles por vector es muy útil, la presente investigación ayudaría a tener un historial clínico de los pacientes y tener estadísticas precisas para futuras estadísticas en estos problemas. Finalmente se ha implementado una aplicación ejemplo mostrando la tecnología seleccionada. Se trata de una aplicación escalable. Posiblemente para nuestra aplicación ejemplo el uso de otra tecnología menos potente pero más fácil de aprender, hubiese supuesto gran ahorro de tiempo y esfuerzo, pero le hubiese restado escalabilidad y mantenibilidad.  Y con esto concluyó un artículo de una investigación científica del Programa Delfín.  
Muñoz Flores José Gilberto Otoniel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana

DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO


DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO

Hernández Casarrubias Natividad, Instituto Tecnológico de Chilpancingo. Jacobo Cuenca Luis David, Instituto Tecnológico de Chilpancingo. Medina Valdes Hector, Instituto Tecnológico Superior de Uruapan. Muñoz Flores José Gilberto Otoniel, Benemérita Universidad Autónoma de Puebla. Rojas Rubio John Rafael, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Históricamente los fenómenos naturales como huracanes, tsunamis, terremotos, etc., han generado desastres de gran magnitud, dejando a su paso una considerable cantidad de estructuras colapsadas, extensas regiones naturales devastadas y aún más, una gran pérdida de vidas humanas. Se calcula que en promedio más de diez mil personas pierden anualmente la vida, debido a este tipo de eventos.   El estudio del comportamiento de las estructuras ante la presencia de cargas generadas por sismos ha sido y es de gran interés en el área de la ingeniería de terremotos y en la dinámica estructural. En los años más recientes, el avance en este campo, con el fin de minimizar la respuesta (aceleración, velocidad y/o desplazamiento) en las estructuras civiles (edificios, puentes, hospitales, escenarios deportivos, etc.), ha sido bastante significativo. Una de las alternativas para mitigar los daños, causados por un sismo, en una estructura es reducir la demanda de la energía absorbida por la estructura. Dentro de esta alternativa, existen los sistemas o equipos de control, los cuales pueden ser pasivos, activos o semiactivos. El disipador de fluido viscoso se cataloga como disipadores pasivos y pueden disminuir considerablemente desplazamientos, y aceleraciones producidas por un sismo. Los dispositivos de fluido viscoso disipan energía forzando el flujo de un fluido a través de un orificio, su comportamiento depende netamente de la velocidad. Los amortiguadores viscosos han sido utilizados con éxito en estructuras civiles, especialmente en áreas geográficas de alta sismicidad. La adición de amortiguadores viscosos a una estructura puede elevar el amortiguamiento de la estructura a un 30 % del amortiguamiento crítico o más. Por consiguiente, esta adición puede reducir las aceleraciones y desplazamientos laterales por un 50% respecto a la estructura sin amortiguadores (Constantinou y Symans, 1992). Ecuación de balance de energía Ei=Ek+Es+Ea+Ed Donde: Ei= Energía de entrada por el sismo Ek= Energía cinética Es= Energía de deformación elástica Ea= Energía de amortiguamiento Ed= Energía de deformación inelástica o ductilidad



METODOLOGÍA

Metodología de la investigación Estudio del estado del arte: Ecuación de movimiento armónico con amortiguamiento Disipación de energía Disipadores viscosos Macheo de acelerogramas Obtención del espectro de diseño símico utilizando el programa SACID de la Ciudad de México. Búsqueda y obtención de 7 acelerogramas de magnitud mayor a 6.5 Diseño de 3 modelos estructurales en el software SAP2000 v22, de 5, 7 y 9 niveles. Revisión de las distorsiones de cada edificio para cada uno de los 7 acelerogramas Diseño del disipador sísmico de fluido viscoso Modelado de los edificios con disipadores en SAP2000 v22 Resultados


CONCLUSIONES

Conclusión Las distorsiones que se presentaron para cada uno de los sismos deben ser controladas por el disipador viscoso que resulte del diseño. Se debe revisar el diseño de los modelos ya que las secciones son robustas. Una vez que tengamos el modelo adecuado se revisarán de nuevo las distorsiones, estas distorsiones deberán ser controladas en un porcentaje por el disipador de fluido viscoso. Las distorsiones obtenidas por medio del análisis dinámico en los modelos, fueron menores a la distorsión máxima que exige la Norma Técnica Complementaria de la Ciudad de México 2017, resultado de un correcto dimensionamiento de las secciones para los elementos estructurales.
Muñoz Hurtado Luis Angel, Universidad Estatal de Sonora
Asesor: Dr. Guillermo César Mondragón Rodriguez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

SENSOR TRIBOLóGICO PARA MATERIALES UHMWPE RECUBIERTO POR DLC EN IMPLANTES DE RODILLAS


SENSOR TRIBOLóGICO PARA MATERIALES UHMWPE RECUBIERTO POR DLC EN IMPLANTES DE RODILLAS

Muñoz Hurtado Luis Angel, Universidad Estatal de Sonora. Asesor: Dr. Guillermo César Mondragón Rodriguez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El factor más importante que afecta el rendimiento y longevidad de los implantes de articulación de cadera y rodilla es la tasa de desgaste del Componente UHMWPE (polietileno de ultra alto peso molecular), que es comúnmente utilizado como material de apoyo en prótesis de remplazo ortopédicos. Los desechos del desgaste del UHMWPE pueden ser perjudiciales para la salud; se han relacionado diversas complicaciones desde desprendimiento del implante, inflamación de tejidos, osteólisis, entre otros. Este problema es especialmente perceptible en implantes de rodilla debido al movimiento particular de deslizamiento, balanceo y presiones de contacto. Se han propuesto diversas alternativas para mejorar el rendimiento de desgaste de los componentes de UHMWPE, una de ellas la investigación de nuevas formulaciones de este componente. Una de las mejores alternativas para mejorar el rendimiento de este material son los tratamientos superficiales al aplicar películas delgadas de diamond-like carbon (DLC), donde se han demostrado que se obtiene una reducción de desgaste de hasta aproximadamente cinco veces en comparación con la muestra de control sin recubrimiento. Se realizó un planteamiento para la detección del deterioro del material UHMWPE con un sensor piezoeléctrico integrado en el componente femoral que permanecerá en constante monitoreo de la calidad del material del implante aprovechando las propiedades piezoeléctricas del recubrimiento diamond-like carbon.



METODOLOGÍA

Se realizó un recubrimiento en esferas de acero Cr100 de alta precisión que simulan la cabeza femoral de un implante Co-Cr (ISO 5834-1, ASTM F-75), con finas capas de diamond-like carbon para realizar distintas pruebas tribológicas. Los recubrimientos se depositaron en un equipo Domino Mini de marca OERLIKON, utilizando una técnica de depósito Magnetron Sputtering reactivo (PVD) utilizando un gas de Acetileno con un target de Ti. Con el material recubierto se realizaron pruebas tribológicas utilizando un equipo de pin-on-disk que simula el desgaste de rodillas con un tipo de movimiento reciprocante con un ángulo de 90 ° correspondiente al movimiento generado al caminar. La carga aplicada fue de 1 N correspondiente a una presión de contacto inicial de algunos MPA, las muestras fueron investigadas en seco a una temperatura de laboratorio de 20±2°C, la prueba de movimiento fue de 2 Hz y la prueba total fue de 400,000 ciclos. Las evaluaciones del desgaste en las placas de UHMWPE se realizaron por las mediciones de pérdida de peso siguiendo la Norma ASTM F732 y también por perfilometría de contacto. Los resultados demuestran que los valores de pérdida de peso fueron muy pequeños en todos los casos entre 0.13 y 3.5 mg, Las peores condiciones de desgaste ocurren en el caso de Co-Cr recubierto de TiN contra UHMWPE. los revestimientos de TiN indujo un desgaste de UHMWPE cinco veces más alto que el material de control y entre 14 y 27 veces mayor que las. implantación de iones, DLC y material cerámico. Pruebas piezoeléctricas. La constante dieléctrica (e) se calculó a partir de los datos de medición de capacitancia-voltaje (C - V) de hetero-estructura de DLC. El diámetro del electrodo superior para hetero-estructuras fabricadas se propone sea de 500 mm. Las propiedades piezo-resistivas de las películas de carbono tipo diamante se medirán mediante una prueba de flexión de cuatro puntos. La resistividad de las películas sintetizadas para todas las densidades de corriente utilizadas se espera se encuentren en el rango de (2.5±0.5) MΩ cm y la permitividad dieléctrica, en el rango de 5.6±0.9 (Meskinis, S., Gudaitis, R., Kopustinskas, V., & Tamulevicius, S. (2008, 1 febrero). Electrical and piezoresistive properties of ion beam deposited DLC films)


CONCLUSIONES

Durante la estancia de verano se logró hacer un análisis comparativo de resultados obtenido con esferas de acero Cr100 recubierto por finas capas de diamond-like carbón los resultados mostraron una pérdida de peso muy baja a comparación de otros recubrimientos además se estudiaron sus propiedades piezoeléctricas, se prevé obtener resultados de una resistencia en rango de los MΩ. Al ser un extenso trabajo aún se encuentra en la fase de desarrollo, se espera con los datos obtenidos poder realizar un sensor que permanecerá en constante monitoreo de la calidad del material del implante aprovechando las propiedades piezoeléctricas del recubrimiento diamond-like carbon.  
Muñoz Olea Evaristo, Instituto Tecnológico Superior de Huetamo
Asesor: Mg. Yohanna Milena Rueda Mahecha, Corporación Universitaria Minuto de Dios

ANáLISIS DE LAS CONDICIONES DE SEGURIDAD Y SALUD EN EL TRABAJO DE LOS TRABAJADORES EN CUATRO PAíSES DE LATINO AMéRICA (COLOMBIA, MéXICO, ARGENTINA Y CHILE)


ANáLISIS DE LAS CONDICIONES DE SEGURIDAD Y SALUD EN EL TRABAJO DE LOS TRABAJADORES EN CUATRO PAíSES DE LATINO AMéRICA (COLOMBIA, MéXICO, ARGENTINA Y CHILE)

Fombona Andaya Paloma Yunnuen, Instituto Tecnológico Superior de Huetamo. Maldonado Santibañez Maria Teresa, Instituto Tecnológico Superior de Huetamo. Muñoz Olea Evaristo, Instituto Tecnológico Superior de Huetamo. Asesor: Mg. Yohanna Milena Rueda Mahecha, Corporación Universitaria Minuto de Dios



PLANTEAMIENTO DEL PROBLEMA

La organización internacional de trabajo, rige que todos los trabajadores deben estar garantizados y resguardados contra cualquier accidente o enfermedad que pueda surgir dentro de la empresa al realizar su trabajo correspondiente ya que es una obligación de cada empresa o institución proteger al trabajador ya que cualquier incidente o accidente que surja causa costes económicos e interrupción de la producción o el trabajo que se realiza. (2017). La seguridad en el trabajo es un método que su objetivo es prevenir los riesgos que surgen dentro de la empresa son medidas necesarias para su prevención de los actos ilícitos que se derivan de su trabajo realizado, con ello se puede cumplir con el objetivo minimizando o eliminando los riesgos que producen accidentes. Según la OIT una empresa o institución es una entidad compuesta por grupos de personas donde llevan a cabo actividades dónde su misión es resguardar normas que puedan prevenir los riesgos de trabajo que puedan estar expuestos los trabajadores y destinan la atención de factores de riesgos. Tener una buena salud en los trabajos y fomentando el bienestar de sus trabajadores lograremos mejorar su calidad de vida, incrementando su productividad, eficiencia y motivación. Con el presente trabajo se quiere dar a conocer las condiciones de salud y seguridad de los siguientes países, Colombia, México, Argentina y Chile y poder darnos cuenta lo que afecta a los trabajadores. Este estudio sirve para corregir las medidas de prevención y protección técnica necesarias para la realización de una obra en las condiciones idóneas de seguridad, salud y protección de riesgos laborales.  



METODOLOGÍA

Esta investigación es de tipo documental ya que la información fue recolectada de diferentes fuentes (libros, artículos, archivos pdf, etc.) Se recabaron datos muy importantes de encuestas de seguridad y salud que se hayan aplicado en los países elegidos, se empleó el método deductivo para rescatar los temas más relevantes de las encuestas consideradas. La concentración de información se colocó en un archivo Excel, donde se desarrollaron aspectos como denominación, principal normatividad, la forma de administración del programa o sistema, exigencias frente a los exámenes médicos ocupacionales de ingreso, periódicos y de retiro, elementos relevantes de la programa o sistema en cada país, si aplican un proceso de mejora continua, determinar cómo evalúan el riesgo. Además de generar datos relacionados con la seguridad y salud de los trabajadores partiendo de las encuestas nacionales de percepción de seguridad y salud en el trabajo.


CONCLUSIONES

Los países a nivel mundial o por lo menos a nivel regional deberían unificar criterios para poder hacer comparativos, de la misma forma que se hace con otros aspectos laborales. Además, es importante que todos los países tengan datos de todos los trabajadores porque de acuerdo a la OMS (2017) el seguimiento de estadística se hace por lo general a empresas grandes, dejando por fuera el sector informal, agrícola y migrantes. El SG-SST debe ser liderado e implantado por el jefe, con la participación de todos los empleados, garantizando la aplicación de las medidas de seguridad y salud en el trabajo, el mejoramiento del comportamiento de los empleados, las condiciones y el medio ambiente laboral, y el control eficaz de los peligros y riesgos en el lugar de trabajo. La SG-SST abarca una disciplina que trata de prevenir las lesiones y las enfermedades causadas por las condiciones de trabajo, además de la protección de la salud de los empleados. Para el caso de Chile se pudo determinar que el 72,1% de los accidentes analizados se realizó atención médica y en un 27,9% no se efectuó. En los casos que recibieron esta atención, la mayor parte requirió realizar reposo con licencia médica. Es importante hace notar que un 9% de los hombres y un 9% de las mujeres debió realizar reposo sin licencia. Los que refieren con mayor frecuencia estos problemas de salud son los trabajadores de servicio doméstico, trabajadores del sector público y aquellos con ingresos entre 181.000 pesos y 350.000 pesos, ver gráfico Nº30. Por otro lado, en los hombres, estos casos se presentan en primer lugar en las ocupaciones de operadores de instalaciones (26,2%) y en las mujeres en las agricultoras y pesqueras (12,6%). Y respecto a la salud en este mismo país se pudo evidenciar que Un 29,5% del total de enfermedades que los trabajadores refirieron sufrir ha sido reconocida como enfermedad profesional y un 6,2% se encuentra en trámite para su reconocimiento. En los hombres las enfermedades reconocidas llegan a un 15,5% y en las mujeres alcanzan a un 13,9%. La mayor parte de las patologías reconocidas se encuentra en el grupo de edad de 45 a 64 años (14,5%); cabe hacer notar que existe un 2,3% de casos reconocidos en el grupo de trabajadores jóvenes. En México se pudo observar que no se ha realizado ninguna encuesta nacional y se recomienda que se haga una ya que es importante conocer la percepción de los trabajadores. Y ver que se puede mejorar en los trabajos para que el trabajador no sufra de mala salud y protección ante todas las actividades que realiza, ya que el trabajador que goza de buena salud tiende a ser más eficiente y productivo. Y así poder hacer una comparación entre países. Por otro lado, en Argentina se encontró que la temperatura del ambiente es la condición de trabajo más mala. La causa más frecuente que ocurran los accidentes es el cansancio. Uno de los aspectos más importantes en base en la salud del trabajador que es fundamental de mayor importancia se recabaron los siguientes datos: Hablando de los datos más relevantes de seguridad en la encuesta que la parte química juega un papel muy importante y tiene un índice alto de riesgo. Y por último en Colombia como datos relevantes en las encuestas nacionales que se han aplicado tanto en el 2003 como en el 2013 se pudo determinar que los accidentes de trabajo se presentaron más en el sector inmobiliario, manufactura y construcción. Y respecto a las enfermedades laborales la tendencia son las lesiones musculo esqueléticas.  
Muñoz Rodríguez Jonathan Eduardo, Universidad de La Salle Bajío
Asesor: Mg. Royer David Estrada Esponda, Universidad del Valle

LA INTERACCIóN HUMANO COMPUTADOR EN EL CURRíCULO DE LAS INSTITUCIONES DE EDUCACIóN SUPERIOR DE MéXICO


LA INTERACCIóN HUMANO COMPUTADOR EN EL CURRíCULO DE LAS INSTITUCIONES DE EDUCACIóN SUPERIOR DE MéXICO

Cabrera Reynaga Gerardo Javier, Universidad de La Salle Bajío. Muñoz Rodríguez Jonathan Eduardo, Universidad de La Salle Bajío. Rodríguez Torres Luis Daniel, Universidad de La Salle Bajío. Sánchez Ramírez Nicolás de Jesús, Universidad de La Salle Bajío. Asesor: Mg. Royer David Estrada Esponda, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Los procesos de interacción que se dan entre los seres humanos y los sistemas informáticos que se desarrollan con el fin de contribuir a la satisfacción de diferentes actividades que dichos humanos realizan, representan un reto desafiante en el ámbito de varias temáticas, por ejemplo, la ergonomía, la accesibilidad y la usabilidad. Un ejemplo de dichos sistemas informativos están en el ámbito de las tecnologías de la información y la comunicación (TIC), que gracias a su aumento significativo han generado que se desarrollen servicios que potencialmente pueden transformar la vida de los usuarios, sin embargo dichos servicios o utilidades generalmente disponibles en internet son complejos y poco usables para un porcentaje de la sociedad. Por lo anterior, una de las áreas de estudio en el contexto de las ciencias de la computación es la Interacción Persona-Ordenador (Human-Computer Interaction o HCI en inglés o IPO en español), y en ese contexto figuran importantes cuerpos de conocimiento que incluyen la IPO/HCI como una arista importante en cualquier proceso en el ámbito de la Ingeniería de Software, este es el caso de SWEBOK, el cuerpo de conocimiento de la ingeniería de software que dedica un capítulo completo relacionado con la HCI. Paralelamente, el informe de ACM/IEEE-CS Joint Curricullum Task Force Computing Curriculla propuso al área de IPO/HCI como una de las nueve áreas de la formación del profesional de informática. También existen syllabus que buscan guiar la enseñanza de conceptos y por tanto la adquisición de habilidades en el contexto de la IPO/HCI. Sin embargo, aún no hay conceso sobre las múltiples temáticas que podrían incluirse en cursos de IPO/HCI y  por tanto lineamientos sobre cómo enseñar esas temáticas.



METODOLOGÍA

Con el propósito de identificar la cantidad de universidades mexicanas con programas que ofrecen asignaturas relacionadas con la IHC/IPO, User Experience, Customer Experience, Usabilidad y Accesibilidad, y que son importantes para que desde la formación de profesionales en ingeniería de sistemas se aborden temas, prácticas y conocimientos que contribuyan con la calidad de sistemas informáticos, su adecuada implementación en sectores productivos y la comodidad de uso para los usuarios finales, la investigación que aquí se presenta inició con un enfoque exploratorio, este tuvo por objeto abordar problemas de investigación poco estudiados o incluso problemas que nunca han sido objeto de estudio en contextos específicos. Adicionalmente, por lo general dicho enfoque contribuye a determinar tendencias e identificar relaciones potenciales entre variables.  


CONCLUSIONES

Una vez revisados los portales institucionales de las universidades mexicanas, se encontró que de las 5.343 universidades activas para el 2019, 1.266 ofrecen programas académicos de licenciatura profesional o tecnológica relacionadas con la Ingeniería de sistemas, Ingeniería informática y en general programas asociados al campo amplio de formación académico Tecnología de la Información y Comunicación. De las 1.266 universidades con oferta de los programas mencionados anteriormente, 539 tienen en sus planes de estudio asignaturas relacionadas con la HCI/IPO, 215 no tienen ninguna relación y en 512 universidades no fue posible realizar la verificación ya que los planes de estudio no estaban disponibles o incluso los portales institucionales de las universidades tampoco lo estaban.  Para complementar la fase de revisión se realizaron consultas en cuatro plataformas tecnológicas relacionadas con la publicación de vacantes, para ello se usaron palabras claves que fueron refinadas gracias a la revisión de los planes de estudio realizada. La Figura 4 refleja los resultados por cada plataforma. Las palabras claves usadas fueron UX, UI, Usabilidad, Diseño de Interacción, entre otras.
Navarrete Moreno Oscar, Instituto Tecnológico de Querétaro
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

VALIDACIóN DE ALGORITMOS DE VISIóN EN AMBIENTES VIRTUALES USANDO AIRSIM Y UNREAL ENGINE


VALIDACIóN DE ALGORITMOS DE VISIóN EN AMBIENTES VIRTUALES USANDO AIRSIM Y UNREAL ENGINE

Navarrete Moreno Oscar, Instituto Tecnológico de Querétaro. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los drones, al pasar de los años, han sido ejemplo de que es posible realizar tareas humanas de alto riesgo y dificultad sin necesidad del humano. Por ejemplo: la guerra, situaciones de emergencia, desastres naturales, control de plagas, planeación en la construcción, realidad virtual y vigilancia [1]. Este último se ha vuelto tema esencial para mantener un orden en la población y que los ciudadanos estén seguros: detectar situaciones de riesgo e inmediatamente tomar cartas en el asunto. A la hora de diseñar un sistema siempre hay que contemplar como punto central y esencial los costos que implican la realización del proyecto. Dependiendo del presupuesto es como podemos visualizar el alcance e incluso el impacto del proyecto. Una solución efectiva a la fuga de capital, es simular los procesos antes de llevarlos al terreno de prototipo físico. La realidad virtual y la potencia que año con año incrementa en los softwares nos permite agilizar y crear ambientes cada vez más reales. Por lo tanto, el uso de simuladores ayudará a validar la aplicación de algoritmos de visión. Es decir, la capacidad de simular todo en un ambiente virtual [2].



METODOLOGÍA

El objetivo es tener un dron virtual que observe una escena con varias personas y probar el funcionamiento de un detector de personas a partir de la imagen capturada por la cámara del dron. Para esta situación decidimos usar herramientas de software libre como el motor Unreal Engine [3] y el simulador AirSim [4] con la API de Python usando Pycharm [5]. La misión a estudiar consiste en que dicho dron vuela alrededor del perímetro de la escena a una velocidad constante con una parada en cada esquina. La cámara del dron siempre apunta al centro de tal manera que nunca deja de capturar la actividad de las personas. Para la detección de personas se usó la paquetería de Pytorch [6] con transfer learning usando la arquitectura que proporciona ResNest-50 [7]. Usando la API de AirSim se programó una rutina en la que mientras el dron navegaba se iban capturando imágenes en formato PNG para posteriormente convertirlas a JPG usando OpenCV [8]. Finalmente se toma la imagen y se introduce a una función para asignarles las coordenadas de su bounding box, proporcionadas por el detector.


CONCLUSIONES

Se pudo validar que el algoritmo de visión implementado con ResNet-50 funcionó correctamente, con una velocidad de procesamiento de 8s usando CPU para procesar cada foto tomada por el dron. A pesar del lento procesamiento, el algoritmo tuvo un 100% de precisión en cuanto a la detección de personas se refiere, pero la sombra causada por algunas personas era tomada como una tabla de skate, esto debido a que se usaron etiquetas de manera innecesaria cuando la mejor opción era limitarse a la detección de personas. Para la mejora de los resultados es necesaria una optimización en la programación, así como también usar un ordenador con una GPU lo suficientemente capaz de simular todo lo necesario y así lograr tener una mayor cantidad de cuadros por segundo. También se busca crear ambientes como ciudades, donde también existan ciclista y automóviles. Se busca en un futuro simular ambiente foto realistas [9] que sean aptos para la aplicación de sistemas donde el dron pueda aprender e implementar aplicaciones robustas que antes solamente se hacían en la vida real, por lo tanto, disminuir costos y riesgos para optimizar el tiempo de ejecución en los proyectos.     [1]        CB Insights Research, HOW DRONES WILL IMPACT SOCIETY: FROM FIGHTING WAR TO FORECASTING WEATHER, UAVS CHANGE EVERYTHING, 2020. https://www.cbinsights.com/research/drone-impact-society-uav/. [2]        A. I. Hentati, L. Krichen, M. Fourati, and L. C. Fourati, Simulation Tools, Environments and Frameworks for UAV Systems Performance Analysis, in 2018 14th International Wireless Communications Mobile Computing Conference (IWCMC), 2018, pp. 1495-1500, doi: 10.1109/IWCMC.2018.8450505. [3]        Epic Games, Unreal Engine. [Online]. Available: https://www.unrealengine.com. [4]        S. Shah, D. Dey, C. Lovett, and A. Kapoor, AirSim: High-Fidelity Visual and Physical Simulation for Autonomous Vehicles, CoRR, vol. abs/1705.0, 2017, [Online]. Available: http://arxiv.org/abs/1705.05065. [5]        JetBrains, PyCharm, JetBrains. 2017, [Online]. Available: https://www.jetbrains.com/pycharm/. [6]        A. Paszke et al., PyTorch: An Imperative Style, High-Performance Deep Learning Library, in Advances in Neural Information Processing Systems 32, H. Wallach, H. Larochelle, A. Beygelzimer, F. d extquotesingle Alché-Buc, E. Fox, and R. Garnett, Eds. Curran Associates, Inc., 2019, pp. 8024-8035. [7]        K. He, X. Zhang, S. Ren, and J. Sun, Deep Residual Learning for Image Recognition, CoRR, vol. abs/1512.0, 2015, [Online]. Available: http://arxiv.org/abs/1512.03385. [8]        G. Bradski, The OpenCV Library, Dr. Dobb’s Journal of Software Tools, 2000. [9]        W. Guerra, E. Tal, V. Murali, G. Ryou, and S. Karaman, FlightGoggles: Photorealistic Sensor Simulation for Perception-driven Robotics using Photogrammetry and Virtual Reality, CoRR, vol. abs/1905.1, 2019, [Online]. Available: http://arxiv.org/abs/1905.11377.    
Navarro Arellano Luis David, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIÓN DEL ACUÍFERO “MORELIA-QUERÉNDARO” Y MODELACIÓN DEL FUNCIONAMIENTO HIDRÁULICO CON MODFLOW


CARACTERIZACIÓN DEL ACUÍFERO “MORELIA-QUERÉNDARO” Y MODELACIÓN DEL FUNCIONAMIENTO HIDRÁULICO CON MODFLOW

Navarro Arellano Luis David, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dra. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La sobreexplotación de los acuíferos ocurre cuando se extrae más agua de la que a este se le infiltra. México extrajo durante el 2017 un total de 34 385 millones de  de agua al año., Estas extracciones excesivas han provocado que de los 653 acuíferos en los que se divide el país 105 ya se encuentren sobre explotados el cual representa casi el 16%. (CONAGUA, 2018) México está compuesto por zonas áridas y semiáridas casi en un 50%, las cuales necesitan del líquido vital que es obtenido mayormente por extracción. El agua subterránea se utiliza principalmente en zonas de riego de las cuales en México se estiman que son alrededor de unas 6.5 millones de hectáreas. El acuífero a analizar es el acuífero con clave 1602 Morelia-Queréndaro el cual se encuentra ubicado en la región hidrológica numero 12 Lerma Santiago y la cuenca lago de Pátzcuaro y lago de Cuitzeo. Como objetivo de la investigacion se tiene planteado caracterizar y generar un modelo hidrológico de simulación subterránea para el acuífero Morelia-Queréndaro, el cual pueda ser utilizado posteriormente en estudios futuros, ya sean de tipo hidrológicos o de gestión de recursos hídricos.  



METODOLOGÍA

Las herramientas informáticas que se usaron son, Sistemas de Información Geográfica (SIG), GESTAD, Hojas de cálculo y Modelación del funcionamiento hidráulico de acuíferos con Modflow, las bases de datos consultadas fueron el Registro Público de Derechos del Agua (REPDA), CLICOM, Instituto Nacional de Estadística y Geografía (INEGI) Y la Comisión Nacional para el Conocimiento y Uso de la Biodiversidad (CONABIO). Para llevar a cabo la investigación se planteó seguir la siguiente metodología. Para hacer la caracterización y modelación de la zona de estudio se generaron diferentes mapas tanto de localización como de división política, escorrentías, uso y tipo de suelo, entre otros. Dentro de la gestión de la información se analizaron 74 estaciones meteorológicas aplicándoles distintas pruebas estadísticas (homogeneidad, tendencia e independencia) de las cuales se obtienen las estaciones principales las cuales deben de estar distribuidas por toda la zona de estudio para esto se utilizó el programa GESTAD el cual analiza las estaciones en conjunto y por medio de diferentes pruebas y criterios arroja las mejores estaciones en estudio.  Para la determinación de la recarga al acuífero, se realizó un balance del acuífero, esto es, una vez seleccionadas las estaciones principales se generaron las series de precipitaciones mensuales, temperaturas promedio y a partir de estas las de evapotranspiración (EVT) usando el método de Thornthwaite con estos datos se elaboraron interpolaciones en el SIG para ver cómo se distribuye la precipitación y la EVT en el acuífero.  Con los mapas de uso y tipo de suelo se obtuvo el mapa K el cual fue utilizado para determinar un mapa de coeficiente de escurrimiento de forma distribuida. Al aplicar la fórmula de Pe=P*Ce se crearon distintos mapas de precipitación que escurre en el acuífero ya que se tenía todo lo necesario se determinaron las infiltraciones en el acuífero usando la siguiente formula Infiltración = Precipitación-Pe-Evtr. Una vez obtenida la infiltración por balance se pasó a la parte subterránea en las que se analizaron las condiciones de contorno en las que se encuentra el acuífero en donde se ubicaron zonas de descarga, así como la relación rio acuífero ya que un rio importante pasa sobre el acuífero que es el Rio Grande. Para determinar el funcionamiento hidráulico, es necesario además de la infiltración catalogar la información siguiente. Para obtener la extracción se consultó la base de datos nacional REPDA. Por último, se elaboraron mapas de geología con los que se propusieron valores estándar de porosidad y conductividad teniendo un total de 4 zonas con geología diferente.


CONCLUSIONES

En la parte superficial se generaron series de precipitación mensuales desde el año 1985 hasta el 2010 para un total de 11 estaciones las cuales presentaron precipitaciones anuales entre los 600 y 1100 mm/anuales por lo que se considera como una zona moderadamente lluviosa, estas series pueden ser utilizadas para estudios futuros ya que están validas con 7 pruebas estadísticas además de que se rellenaron los datos faltantes por medio de regresiones lineales. Se obtuvieron 7 meses de infiltración (mm/anuales) los cuales son enero con una infiltración máxima de 4.01, junio con una máxima de 70.8, julio 149, agosto 152, septiembre 119.5, octubre 33.37 y noviembre 0.7. En la parte subterránea se logró caracterizar toda la zona de estudio se generaron los siguientes mapas: Niveles estáticos, en este se definieron curvas de nivel donde se definen las líneas de piezometría con las que se pudo definir cuáles son las zonas de recarga (montañas divisorias) y las de descarga (el lago de Cuitzeo y la ciudad de Morelia) además se logró observar que el acuífero no tiene relación con el Rio Grande de Morelia ya que los niveles estáticos del acuífero se encuentran entre los 40 y 80m por debajo del rio. Mapas de geología, dentro de estos se lograron definir 4 grupos geológicos predominantes los cuales son: depósitos aluviales, rocas ígneas extrusivas acidas, rocas ígneas extrusivas básicas y en la zona de la ciudad rocas volcanoclásticas con las que se definieron rangos para los valores de porosidad y conductividad hidráulica cabe mencionar que estos valores son los que se hacen variar para así encontrar la calibración correcta del modelo. De la base de datos REPDA se descargaron 1200 concesiones de las cuales se obtuvo el volumen anual concesionado por pozos de extracción del acuífero el cual es de 171.92  /anuales en el que el uso agrícola es el que más impacta representando un poco más del 50% del volumen total. Con toda la información antes mencionada se generó el modelo para el acuífero en Modflow el cual se dejó listo para empezar con una calibración.
Navarro Rodríguez Juan Francisco, Universidad Autónoma de Baja California
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

EVALUACIóN DEL DESEMPEñO DE MéTODOS DE EXTRACCIóN, DE CLASIFICACIóN Y EFECTO DEL TIPO DE ESTíMULO VISUAL EN LA DETECCIóN DE SEñALES P300


EVALUACIóN DEL DESEMPEñO DE MéTODOS DE EXTRACCIóN, DE CLASIFICACIóN Y EFECTO DEL TIPO DE ESTíMULO VISUAL EN LA DETECCIóN DE SEñALES P300

Manrique Santiago Zureyma Quetzaili, Instituto Politécnico Nacional. Navarro Rodríguez Juan Francisco, Universidad Autónoma de Baja California. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Una Interfaz Cerebro-Computador, conocido en inglés como Brain- Computer Interface (BCI) es un sistema de interacción hombre-máquina que utiliza señales cerebrales para proveer un canal de comunicación no muscular. El enfoque de este estudio está dirigido al desarrollo y evaluación de algoritmos de aprendizaje automático, además de diferentes estímulos a partir de la información de la actividad cerebral extraída del participante, para que se garantice que a partir de los datos registrados se realice una decodificación óptima de las intenciones del participante.  



METODOLOGÍA

Utilizar diferentes métodos de extracción y clasificación de esta información para la identificación de señales P300 y evaluarlas para encontrar aquel que demuestre un mejor desempeño para determinar la presencia o ausencia de un estímulo desencadenante de una respuesta P300. A partir de los resultados determinados en el estudio 1, utilizar el método de extracción y clasificación determinado y a partir de ello evaluar qué tipo de estímulo (Happy Face o Flash) favorece la clasificación con respecto a la presencia o ausencia del estímulo (Target y Non-Target respectivamente) y observar si este comportamiento del participante se cumple durante las sesiones establecidas.  


CONCLUSIONES

Logramos encontrar que el método SWLDA en combinación del método CCA tienen un buen desempeño en la detección del potencial evocado P300 durante un ensayo, siendo más preciso (72.2% de exactitud) comparado con los otros modelos. Esto nos brinda una mejor interpretación de la información recolectada. Otro hallazgo de la investigación fue el hecho de que el estímulo Happy Face presentó mayor exactitud (74.12%) en la capacidad del algoritmo de aprender a discernir entre las condiciones Target y Non-Target en contraste con Flash (59.20%).
Navarro Zaragoza Tomás Aarón, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Filiberto Candia Candia, Benemérita Universidad Autónoma de Puebla

DISEÑO Y PROTOTIPADO DE UNA MESA VIBRATORIA DE 1GDL


DISEÑO Y PROTOTIPADO DE UNA MESA VIBRATORIA DE 1GDL

Navarro Zaragoza Tomás Aarón, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Filiberto Candia Candia, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los fenómenos sísmicos en el planeta ocurren de forma natural e inesperada, motivo por el cual, el estudio del comportamiento de las estructuras y la reducción de la energía sísmica en la respuesta dinámica de la estructura, es un tema de investigación de alta relevancia. Para ello, dentro de los laboratorios especializados se encuentran mesas vibratorias, que son ampliamente utilizadas para la emulación y simulación del comportamiento de las estructuras de un grado de libertad. Asimismo, el uso de software CAE (Ingeniería Asistida por Computadora), es también utilizado para comparar parámetros como la frecuencia natural y de trabajo de las estructuras. Que son características de toda estructura, que se somete a una prueba de vibraciones aleatorias y que por su especialización son de alto costo.  



METODOLOGÍA

Para comprender el funcionamiento de las mesas vibratorias de un grado de libertad. Es necesaria la investigación procedimental de:    Un marco teórico donde se identifican las ecuaciones de movimiento respecto al tipo de movimiento.  La simulación virtual donde se utilizó el software NX Siemens 10.0, fue posible obtener valores del comportamiento dinámico de las estructuras. Este apartado incluyo el desarrollo de varias prácticas del tema de la estática.  La comparación de los valores analíticos y de simulación.  Diseño y análisis dinámico de una mesa vibratoria.  Contraste de valores y criterios de diseño de estructuras de 1 gdl.    Al finalizar el proceso se redactó un informe de prácticas, de simulación en NX Siemens 10.0. las cuales al ser reproducidas se obtienen la repetitividad de los resultados esperadas. 


CONCLUSIONES

La importancia hoy en día de los análisis CAE tanto en la industria como en el desarrollo tecnológico son muy importantes, ya que, haciendo una simulación de diseños previamente sometidos a las condiciones requeridas, se puede llegar a las conclusiones que garantizan el comportamiento más aproximado a la realidad. Incluidos los de análisis estructural. Asimismo, es posible emular el comportamiento virtual de mesas de vibraciones antes de llevarlas a la realidad física, prediciendo su funcionalidad y eficacia. 
Nieto Lechuga Marcya Paloma, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Gina Parra Aparicio, Universidad de Santander

ANÁLISIS SENSORIAL DE SALCHICHA AHUMADA A PARTIR DE CARNE DE CODORNIZ COLOMBIANA


ANÁLISIS SENSORIAL DE SALCHICHA AHUMADA A PARTIR DE CARNE DE CODORNIZ COLOMBIANA

Nieto Lechuga Marcya Paloma, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gina Parra Aparicio, Universidad de Santander



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la carne de codorniz no es aprovechada para consumo humano, sino solo se consumen los huevos de codorniz que son muy apetecidos, descuidando la calidad nutricional que esta carne posee. La codorniz es un ave pequeña que mide entre 16 a 20 cm. Desde el punto de vista nutricional, se trata de un alimento especialmente rico en proteínas de alto valor biológico. (Escalante. J. L. 2019) En cuanto a su carne la codorniz posee un alto contenido en aminoácidos esenciales, siendo un tipo de carne magra, es decir muy bajo en cuanto a grasas al igual que en calorías; por lo que cada 100 g de carne aporta 106 kcal, 1,6 g de grasa, proteínas 23 g., colesterol 0,5mg., vitaminas B1, B2, B3, B5, B9, B12, vitamina A, C, D, E, K, minerales como calcio, magnesio, hierro, potasio, yodo, zinc, fósforo. (Orjuela y Rojas, 2007) Gracias a su contenido alto en proteínas, la carne de codorniz es un alimento ideal en personas con desnutrición y en personas que quieren desarrollar músculos, por su rutina deportiva; también es muy aconsejable en niños y en mujeres embarazadas. (Juárez. M. A. 2009) En el presente trabajo de investigación se realiza un análisis sensorial acerca de una salchicha ahumada de codorniz de Colombia con el objetivo de conocer la aceptación que tendría por parte de los consumidores de este país. 



METODOLOGÍA

Se consultaron diversas bibliografías acerca de propiedades de la carne de codorniz, análisis sensoriales de alimentos y análisis microbiológicos de productos embutidos cocidos esto con el fin de conocer los resultados de diferentes pruebas, aceptación de los productos, complicaciones, resultados, entre otros., una vez terminando esto se procedió a crear panel sensorial virtual ciego comparativo. Para realizar el grado de la aceptabilidad por parte de los consumidores se ejecutó un análisis sensorial que es el examen de las propiedades organolépticas de un producto realizable con los sentidos humanos. Dicho de otro modo, es la evaluación de la apariencia, olor, aroma, textura y sabor de un alimento o materia prima. Este tipo de análisis comprende un conjunto de técnicas para la medida precisa de las respuestas humanas a los alimentos y minimiza los potenciales efectos de desviación que la identidad de la marca y otras informaciones pueden ejercer sobre el juicio del consumidor. Se tomaron en cuenta ocho atributos: color, olor, sabor, textura, frecuencia de compra, precio, si ya habían probado antes un producto similar y si le gustaría comprar el producto. También se propusieron siete valores los cuales iban del 1 al 7 con diferentes descripciones: me disgusta mucho, me disgusta moderadamente, me disgusta poco, no me gusta ni me disgusta, me gusta poco, me gusta moderadamente y me gusta mucho según lo contemplado en el estudio estadístico de pruebas sensoriales de harinas compuestas para panificación por Surco Almendras, Juan Carlos, & Alvarado Kirigin, Juan Antonio. (2011). Por la contingencia sanitaria del COVID 19 el panel sensorial fue aplicado en los hogares de las familias consumidoras con todos los protocolos para realizarlo de manera correcta y la encuesta se desarrolló por google formato en línea. El rango entre estas personas era de 7 a 74 años. En cuanto a los resultados, el 91% de los panelistas votaron favorablemente entre los valores me gusta mucho y me gusta moderadamente en los cuatro aspectos que tenían la opción del valor los cuales eran color, olor, sabor y textura.  


CONCLUSIONES

Con base al análisis sensorial se obtuvieron resultados positivos al consumo del embutido de codorniz, tenemos que enfatizar en que el estudio que se hizo ayudó a tener una opinión más sincera de la degustación ya que se dejaron de lado cuestiones como la mercadotecnia que suele tener alta influencia en la compra de un producto, otro punto importante a considerar fue la practicidad de hacerles llegar el producto hasta la comodidad de su hogar para degustarlo tranquilamente. Siendo así la salchicha ahumada de codorniz un producto alto en proteínas, vitaminas y minerales que cumple con los estándares de calidad microbiológica descartando bacterias como salmonella o coliformes S aureus, ECSR, y listeria. Con ayuda del panel sensorial podemos concluir que los consumidores adquirirían los paquetes de salchichas quincenalmente y con un precio entre 5000 y 7000 pesos colombianos, también se puede apreciar que el nivel de aceptación por parte de los panelistas fue del 91% lo que nos ayuda a darnos cuenta de que este producto es una opción diferente para los que buscan un mejor contenido nutricional. De igual manera se promueve la producción y el aprovechamiento de la codorniz de manera completa desde los huevos que es el producto más conocido hasta la carne en diferentes presentaciones logrando apoyar a la economía y las PYMES que se dedican a este rubro.  
Nuñez Alvarez Yael Alexandros, Universidad de Guadalajara
Asesor: Mg. Ángela María Jiménez Gallego, Universidad Católica de Manizales

CINE Y ARQUITECTURA REALIDAD EN EL ARTE


CINE Y ARQUITECTURA REALIDAD EN EL ARTE

Nuñez Alvarez Yael Alexandros, Universidad de Guadalajara. Asesor: Mg. Ángela María Jiménez Gallego, Universidad Católica de Manizales



PLANTEAMIENTO DEL PROBLEMA

La intención principal de la investigación Cine y Arquitectura, Realidad en el Arte va más allá de un análisis superficial del mundo material. Se hace un análisis filosófico, en base a corrientes filosóficas tanto del dualismo como monismo. Existimos en un mundo físico; pero el mundo de las ideas es igual de real y necesario para crear el arte. En el texto expreso mi idea compartida (o infundada) de Ernest Becker en su obra La negación de la muerte donde nos explica que el ser humano es el único ser vivo y consciente de su propia muerte. El único que tiene la capacidad de imaginar un mundo sin él presente, y que esta realización tiene el potencial de volverlo un neurótico si no lo resuelve. Me he enfocado principalmente en aquellas personas dedicadas a el arte, en ese ser creativo que idealiza un legado después de su muerte. Los cineastas y personas encargadas de la realización de filmes, con la intención de transmitir ideas y sentimientos a los espectadores. Se deja en claro en más de una ocasión como el cine es capaz de transmitir mensajes capaces de cambiar a la sociedad. De modificar idealismos basados en narrativas personalizas por nuestros egos. De hacernos ver una realidad que por más que sea ajena a nuestro entorno inmediato sabemos que existe.  



METODOLOGÍA

Primeramente hay una investigación filosófica. Y nos basamos mayormente en tres grandes textos: Henri Lefebvre: Derecho a la ciudad Heidegger: Construir Habitar Pensar Manfred Max Neef: Desarrollo a escala humana Después se hace un análisis de cinco películas latinoamericanas. Las películas que se seleccionaron juegan con los escenarios, con las realidades a la que nos enfrentamos diariamente y los conflictos reales de nuestra sociedad. Cidade de Deus (en español, Ciudad de Dios). Película brasileña dirigida por Kátia Lund y Fernando Meirelles, 2002. Elefante Blanco. Película argentina dirigida por Pablo Trapero, 2012 Machuca. Película chilena escrita y dirigida por Andrés Wood, 2004 Como el gato y el ratón. Película colombiana dirigida por Rodrigo Triana, 2002 Ya no estoy aquí. Película mexicana dirigida y escrita por Fernando Frías de la Parra, 2019 Posteriormente se hace una ficha técnica y un análisis interpretativo de las obras, con la intención de analizar el mensaje de los directores. Al final se hace un análisis arquitectónica y socialmente; el cómo se relacionan todas películas, compartiendo la misma crítica social e intenciones en el fondo.


CONCLUSIONES

Todas las películas que serían analizadas tendrían una cosa en común. La muerte, parece que se ha vuelto una realidad innegable en Latinoamérica, convivimos con ella todos los días, muchos ya indiferentes. La ola de violencia se ha suscitado desde los tiempos de nuestros bisabuelos, hasta ahora con nuestros hermanos más pequeños. Tengo que dejar en claro que; las conclusiones de las películas son mi interpretación y puede ser que me equivoque. Pero enfocándonos de nuevo en el mensaje que se nos quiere hacer llegar, hay otra cosa en común que se capta en todos los filmes y es la famosa tierra de nadie, como arquitecto mis ojos constantemente se dirigían al fondo, a los escenarios y espacios donde se suscitaban las interpretaciones de los actores. En todas las películas el escenario principal es similar, favelas, barrios y colonias abandonadas por el gobierno, espacios ocupados ilegalmente por las clases más bajas del régimen capitalista. El maldito ciclo vicioso de la pobreza y desigualdad, donde no hay oportunidades para la clase trabajadora, sin la posibilidad de ir a la escuela, de superarse y de salir de la vida cruel que sobrellevan todos los días. Espacios y ambientes donde se muy sencillo caer en las tentaciones de la delincuencia, porque todos tenemos hambre y tenemos que comer. Las drogas y el narcomenudeo son sin duda los caminos más fáciles de tomar en situaciones tan complejas donde no parece haber otra solución.  Se ha recurrido tanto a estos caminos que de alguna forma se a incrustado en nuestra cultura, tristemente no se puede hablar de Latinoamérica sin mencionar su conflicto armado, la violencia azota las portadas de los periódicos todos los días. Y ya no nos asombra, nos hemos vuelto insensibles incluso indiferentes. Se ha normalizado tanto el derramamiento de sangre, que no nos duele más. La globalización no solo ha llevado productos a todo el mundo, también ha llevado la indiferencia a cada rincón del planeta tierra, hemos adoptado una postura egoísta y simplista, no nos importa ya nada realmente hasta no vernos afectados personalmente.  No mentiré que dolió ver las películas, que lloré con algunas y me molesté con otras, pero eso era de esperarse, hablamos de cine real, artesanal, la realidad en el arte. Toda la investigación fue un proceso difícil de llevar, muchas veces las palabras no salían para expresar lo que sentía y podía aportar nada a una realidad tan dura. Nunca había consultado corrientes filosóficas ni me había explayado en buscarle un significado más profundo del obvio a las cosas. Ha sido, sin temor a decirlo un punto disruptivo en mi apreciación del mundo, la vida y el arte. Pasé toda mi vida y 4 años de carrera universitaria bajo los cómodos ojos totalitarios donde era o no era, existía o no. Un camino muy simple y mediocre para un arquitecto. Aprendí que todo tiene su razón de ser, y que si nos esforzamos un poco en ver más allá de lo evidente, encontraremos caminos y soluciones a problemas por mucho más complejos. No hablamos de necesidad, hablamos de satisfacer el ego, consumir por consumir, consumimos cine, arte y arquitectura como productos. Hemos perdido el camino, ahora tener un apartamento de lujo te hace mejor persona, ir al cine VIP te da estatus y tener un cuadro valuado en millones te vuelve intelectual.  Estamos contaminados.
Núñez López Lilian Carolina, Universidad de Guadalajara
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE ACTIVIDAD SíSMICA EN LA REPúBLICA MEXICANA


APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE ACTIVIDAD SíSMICA EN LA REPúBLICA MEXICANA

Alcaraz Rivera Francisco, Universidad Autónoma de Baja California. Álvarez Gutiérrez Aldo Aarón, Universidad de Guadalajara. Cruz Calvillo Brandon Alain, Instituto Tecnológico de Reynosa. Núñez López Lilian Carolina, Universidad de Guadalajara. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Los sismos son un fenómeno natural causado por movimientos bruscos producidos en la corteza terrestre los cuales pueden llegar a generar grandes desastres en la superficie de las zonas geográficas afectadas, llegando incluso a provocar muertes y daños irreversibles a la infraestructura de las ciudades. Por ello, es de suma importancia para la humanidad hacer un esfuerzo por comprender mejor estos procesos naturales e intentar idear diferentes técnicas para reducir y lidiar con las consecuencias que conllevan. Una manera eficaz de mantenerse preparados contra los terremotos es la capacidad de anticipar el evento para poder ejecutar con tiempo los protocolos de emergencia. En este proyecto de investigación, se propone implementar algoritmos de machine learning (aprendizaje automático) con el fin de analizar los registros de actividad sísmica en la República Mexicana y así intentar encontrar relaciones dentro del conjunto de datos que permitan predecir de forma certera la magnitud de un nuevo sismo. 



METODOLOGÍA

Con el fin de encontrar fuentes confiables para la obtención de registros sismológicos de la República Mexicana, se contemplaron diferentes fuentes para la obtención de los datos, de entre las cuales se buscaba aquellas que tuvieran el formato y cantidad de eventos suficientes para realizar su análisis. Dichos datos fueron recolectados del Servicio Sismológico Nacional de México, dependencia del Instituto de Geofísica de la Universidad Nacional Autónoma de México, el cual se encarga de monitorear y almacenar los registros sismológicos de la nación. De este sitio se descargó un archivo en formato csv, con los eventos registrados desde el 1 de Enero del 2010 hasta el 1 de Julio del 2020. Una vez que se contaba con los datos, se procedió a preprocesarlos. El procesamiento de datos hace uso de métodos y herramientas que nos permiten arreglar errores puntuales que se dan en el conjunto de datos que estamos tratando y que afectan negativamente pudiendo interferir en el aprendizaje automático. Muchos de los errores provienen de faltantes o huecos en nuestro dataset y de información que tiene poca relación con la variable que queremos predecir. Para evitar lo anterior mencionado, se descartaron las columnas del dataset que no contenían información útil y se emplearon técnicas matemáticas para sustituir la información faltante. Finalmente, se utilizó el nuevo dataset preprocesado para entrenar y probar los algoritmos de predicción. Se experimentó con varios algoritmos de machine learning: Knn, SVM, Árbol de decisión y Árbol de decisión en regresión. Para todos los algoritmos se asignó el 80% del dataset para entrenamiento y el 20% restante para pruebas.


CONCLUSIONES

Por medio de los algoritmos empleados durante el desarrollo de este proyecto se pudo obtener un porcentaje de certeza cercano al 90%, lo cual indica que los algoritmos lograron obtener una relación dentro del dataset que les permitió predecir satisfactoriamente la magnitud de los sismos con base a la ubicación de su origen geográfico. No obstante, la predicción y la ocurrencia de los sismos se considera un fenómeno no lineal altamente aleatorio, y hasta la fecha no se conoce un modelo matemático capaz de predecir con exactitud el instante ni la ubicación en que sucederán. Lo anterior lleva a considerar la posibilidad de que las predicciones de los algoritmos podrían estar sesgadas por las particularidades del dataset empleado. Esto abre nuevas oportunidades para poner a prueba los resultados obtenidos y seguir analizando la efectividad de los algoritmos sometiendolos a distintas condiciones experimentales en investigaciones futuras.
Nuñez Rodriguez Valeria Marbell, Universidad de Sonora
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

TEJA HIDROPóNICA A BASE DE PET


TEJA HIDROPóNICA A BASE DE PET

Ballesteros Zamora Nancy, Instituto Politécnico Nacional. Nuñez Rodriguez Valeria Marbell, Universidad de Sonora. Pérez Bistraín Karen Lizeth, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la sociedad se enfrenta a uno de los mayores retos urbanos, el cual consiste en conseguir ciudades más saludables, que favorezcan la inclusión social y la sostenibilidad del medio ambiente. En la actualidad la industria y el medio ambiente están obligados a entenderse; con la búsqueda de materiales alternativos de construcción se pretende reducir el efecto del deterioro hacia el entorno. De acuerdo a la ODS (Objetivos y metas del desarrollo sostenible- Agenda 2030) el objetivo 9 indica que debemos desarrollar infraestructuras resilientes, donde se promueva la industrialización inclusiva y sostenible, que a su vez sea innovadora. Las edificaciones actuales demandan el empleo de prácticas y materiales de bajo impacto ambiental, por lo que, se propone un prototipo de teja hidropónica diseñada para vegetación o huerto a partir del uso de PET y la inserción de agujeros para el cultivo de semillas.



METODOLOGÍA

El proyecto de investigación se desarrolló de forma teórica y a su vez se propuso un modelo de teja ecológica para futuras investigaciones experimentales. La información recabada se basó a partir de artículos científicos, tesis y documentos expuestos en previas investigaciones alrededor del mundo.   De acuerdo a un estudio de factibilidad del uso de PET reciclado en elementos de cubiertas y envolventes en Costa Rica 2016, muestra que el PET a través del proceso de transformación con calor de forma no industrializada con valores de resistencia mecánicas y térmicas del reglamento de construcción, puede ser considerado un nuevo material de construcción para cubierta o revestimientos. La implementación de plásticos reciclados como materia prima da la posibilidad de reducir acumulaciones masivas de estos, dando una mayor resistencia a la degradación de la teja y un costo accesible. Al suponer estos huertos una nueva plantación de especies vegetales se contribuye favorablemente a la absorción de CO2 atmosférico, mitigando la contaminación, absorbiendo partículas de polvo en suspensión y por ende mejorando la calidad del aire. Además, también se ven reducidas las emisiones, puesto que al generar nuevos espacios verdes de ocio, se reduce la necesidad de desplazarse en su búsqueda. (Escobar, 2017) La función de los materiales complementados con desechos PET consiste: que reduzca la acumulación masiva de residuos plásticos, con una mayor resistencia a la degradación, vida útil a largo plazo, que al término de esta sean 100% reciclables para la arquitectura sustentable, y genere un impacto social. Como propuesta al proyecto de investigación, se plantea lo que es un eco-techo, la cual consiste en generar un huerto en tejados de edificaciones urbanas de construcción factible, que consiste en: -Teja ondulada de fibrocemento, colocadas a una inclinación del 30% permitiendo un mayor flujo de caída de agua pluvial como fuente de riego. -Botella de materiales PET de 3 litros, con orificios de separación mínima de la boquilla de 5 cm, permitiendo espacio para su drenaje. -Conjunto de canales de PVC, que conducen el agua de lluvia al área de captación, con el fin de no utilizar sistemas de riesgo adicionales, junto a llaves de paso para regular la presión y garantizar un suministro homogéneo. -Como segunda propuesta se plantea una teja a base de fibras de PET (para que reduzcan los volúmenes de cemento y agregados), cáscara de arroz, cemento, arena y agua. La idea de cultivar hortalizas, vegetales o plantas en la teja proporciona mejores condiciones de confort térmico dentro de los alojamientos, disminuye la humedad y calor radiante. Estos promueven una imagen ambiental al fomentar soluciones locales con beneficios ambientales, sociales y económicos, potenciales para el desarrollo de la sociedad.


CONCLUSIONES

Basado en el contenido tanto teórico como analógico de la información recabada, se observa un punto en común, en el cual se plantea la posibilidad de reutilizar diversos residuos PET, beneficiándose de sus propiedades de composición y deformarlas al diseño de una teja ecológica para huerto urbano lo que permite determinar que el proyecto tiene altas posibilidades de cumplir con las expectativas de alta calidad y hace que el planteamiento de la propuesta sea realizable y que a su vez promueva la industria ambientalmente sostenible. Considerando lo ya mencionado, se ha generado un nicho de oportunidad para que se adopten nuevos sistemas constructivos y se replanteen los beneficios que un área verde propia puede brindar, como: -Reducción térmica interna de edificaciones. -Atenuación de impacto ambiental. -Adaptabilidad en diversos ecosistemas pensando así en los posibles escenarios de la investigación experimental. - Eficiente utilidad de espacio.    
Obeso Peregrina Andrea, Universidad de Guadalajara
Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia

BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES


BIOCLIMATICA Y ESPACIO PúBLICO: PROPUESTA DE INTERVENCIóN DEL ESPACIO PúBLICO ASOCIADO A ESTRUCTURAS SUSTENTABLES E INCLUYENTES

Canales Grimaldo Juan Pablo, Instituto Politécnico Nacional. Loza Aceves Jose de Jesus, Universidad de Guadalajara. Mendoza Garcia Diana Montserrat, Instituto Tecnológico de Tuxtla Gutiérrez. Moreno Macias Pablo Cesar, Universidad de Guadalajara. Obeso Peregrina Andrea, Universidad de Guadalajara. Asesor: Mg. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la sociedad enfrenta retos importantes en todos los aspectos. Uno de ellos es la integración de grupos minoritarios en actividades cotidianas, para que las personas puedan generar una experiencia que les permita adquirir cualidades como individuos y generar un bienestar individual y/o colectivo. La propuesta desarrollada Bioclimática y espacio público: propuesta de intervención del espacio público asociado a estructuras sustentables e incluyentes.       engloba dos aspectos muy importantes para el desarrollo integral de una persona: educación y recreación



METODOLOGÍA

En los diferentes espacios de este proyecto como son el parque sensorial y la escuela de educación especial, se adaptan e integran diversos elementos arquitectónicos para que el usuario sea capaz de descubrir y desarrollar sus cualidades a través de la experiencia sensorial e intuitiva. Para la realización de este proyecto se usó el método cuantitativo de diseño arquitectónico del Arquitecto Álvaro Sánchez, el cual permite el planteamiento de una solución de proyecto. Finalmente, estos elementos y métodos se concluyen en un objeto arquitectónico apto para el cumplimiento de su objetivo, ofreciendo soluciones técnicas constructivas y sustentables. La desintegración social es un problema con alta incidencia en los grupos de todos los niveles educativos y socioeconómicos de determinada población, en donde se generan diferencias propias de los integrantes, habiendo una marcada deficiencia en los sistemas de organización y regularización para atender los problemas.  Cuando existe, el grupo como tal, no se desarrolla en su máxima plenitud


CONCLUSIONES

Crear el Centro de Recreación e Integración Social supone para el desarrollo humano un paso muy importante en la sana convivencia y bienestar del lugar en donde se encuentre. Esto demuestra la flexibilidad que tiene la arquitectura para crear, así como innovar conceptos e ideas de acuerdo a los nuevos requerimientos sociales, al mismo tiempo se demuestra la responsabilidad que esta rama tiene en ofrecer espacios que den solución a dichos requerimientos. Este proyecto cumple con ellos de manera sustentable, técnica y perceptual, prometiendo convertirse en un referente urbano a nivel local, nacional e internacional, no solo por su diseño, sino también por el origen de su concepción que va más allá de solo mejorar un lugar y construir un objeto arquitectónico.  Ofrecer una oportunidad a todas las personas, especialmente a las que tienen capacidades diferentes para su bienestar y desarrollo, para percibir su entorno de manera distinta y de experimentarla con una mejor calidad de vida emocional y físicamente, es lo que se ha plasmado en este proyecto, generando un cambio positivo en la calidad de vida de nuestra sociedad.
Ocampo Barradas Diana, Universidad Autónoma de Guerrero
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA (AISLAMIENTO TéRMICO Y DISEñO CAPTACIóN DE AGUAS PLUVIALES)


DISEñO DE UNA CASA ECOLóGICA (AISLAMIENTO TéRMICO Y DISEñO CAPTACIóN DE AGUAS PLUVIALES)

Ocampo Barradas Diana, Universidad Autónoma de Guerrero. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

Aislamiento térmico:  Actualmente, existe clara evidencia de los efectos del cambio climático en el mundo, tales como el aumento significativo de la temperatura, el deshielo de los glaciares, el deterioro de los suelos, el aumento de las precipitaciones, entre otros.  Es necesario saber que el aislamiento reducirá las pérdidas de calor en invierno y frío en verano, ahorrando en aire acondicionado y calefacción. Una de las ventajas fundamentales de tener un buen aislante térmico es que se puede llegar ahorrar entre un 30% y un 70% de energía.  Necesitamos saber que un buen aislante térmico determina que consigamos tener una temperatura agradable dentro de la casa, tanto en invierno como en verano, y esto determina el confort. Diseño para agua pluvial:  Se sabe que el agua de lluvia es un recurso que se puede reutilizar para enfrentar el problema de escasez que existe en algunos lugares y de esta manera aprovechar el recurso para la realización de diversas actividades en el hogar. Si aprovechamos la captación de agua pluvial, podríamos solucionar en parte el problema del agua que existe en algunas regiones. De esa manera se evitaría un poco la dependencia del suministro público o asumir un gasto adicional al requerir del servicio de pipas de agua. Con la recolección y reutilización del agua de lluvia estamos contribuyendo con la ecología y los hogares funcionarían de manera sustentable. Hoy en día vivimos el crecimiento de la población acelerada, la demanda de agua es mayor y la oferta no alcanza para abastecer a la población en zonas rurales y urbanas, de ahí que la escasez del agua hoy en día es un problema serio que debemos atender, llevando a cabo en casa prácticas como recolectar el agua de lluvia podemos solucionar en gran medida el desabasto para diferentes actividades, uso doméstico: limpieza de exteriores e interiores, servicio de sanitarios, lavar la ropa, mantener áreas verdes y preservar el medio ambiente, para uso agrícola: riego para el cultivo, abastecer de agua a la ganadería, etc.



METODOLOGÍA

La metodología empleada fue metodología cualitativa, para ello, se utilizó la búsqueda de documentación bibliográfica y de archivos, observación de videos para posteriormente realizar el análisis del contenido. También se consultaron normas y reglamentos de construcción del estado de México. Se comprararon una serie de tablas las cuales ayudaran para analizar la precipitación del Estado. Se conocio los meses con mayor y menor precipitacion pluvial.     


CONCLUSIONES

Los resultaods obtenidos fueron positivos, ya que se diseño una casa autosustentable la cual aprovecha los recursos naturales; el viento, el sol y la lluvia. Esto con el fin de evitar el exceso de contaminación, disminuir el consumo de agua y de energía, tratando de reutilizar el agua, además de aprovechar mejor o darle un uso efectivo a nuestros recursos.  Así como también debemos tomar conciencia y pensar en el futuro sobre lo que podemos llegar a obtener con un buen manejo de los recursos naturales. 
Olivas Mendoza Daniela, Instituto Tecnológico de Ciudad Juárez
Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior

MACHINE LEARNING


MACHINE LEARNING

Mendoza Lozada Jesus Alberto, Instituto Tecnológico de Toluca. Olivas Mendoza Daniela, Instituto Tecnológico de Ciudad Juárez. Reyes Rivera Joel, Instituto Tecnológico de Culiacán. Sanchez Hernandez Iran Armando, Instituto Tecnológico de Zitácuaro. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

El consumo de los recursos naturales es una actividad de la vida cotidiana que ha recibido gran atención a partir del siglo XV. De manera posterior, se hicieron comunes los discursos académicos y empresariales relacionados con el consumo sostenible haciendo énfasis en lo moral, normativo e individualista, pero con mayor énfasis en los últimos 40 años, debido al aporte de ciencias como la sociología, antropología, historia, entre otras. A este modelo, no se le ha prestado la debida atención que realmente requiere en comparación con las connotaciones que podría implicar una crisis ambiental en términos de la escasez hídrica que producen los cambios climáticos. Debido a la negligencia que se le ha dado a este problema han surgido discursos y propuestas del consumo verde, pero realmente no son soluciones a esta problemática, puesto que solo se dedican a la mercadotecnia y no a fomentar los valores humanos. Una alternativa de solución es la aplicación de metodologías matemáticas y de ingeniería, qué, una vez analizando tus patrones de comportamiento y de consumo una población especifica pueda entrenar un módulo automático de reconocimiento a los consumidores del servicio público de agua como herramienta que permite establecer conductas de consumo sostenible en los hogares de la región, así como una conducta de cuidado con el medio ambiente. En el presente trabajo se pre-procesa una base de datos previamente adquirida con información relevante sobre el consumo hábitos, percepciones y realidades de habitantes de la ciudad de Pereira, así como también se desarrolló una herramienta estandarizada que permite clasificar a los consumidores de los servicios públicos de la ciudad de Pereira, basados en la teoría del consumo sostenible y técnicas de aprendizaje de máquina. Específicamente, se realiza un enfoque de aprendizaje supervisado y otro no supervisado para evaluar las ventajas y dificultades de cada metodología. Gracias a la obtención de outliers, clusters y gráficas comparativas relativas a las conductas de consumo actuales entre los habitantes de la ciudad de Pereira, se puede plantear una base sólida para la implementación de un siguiente nivel, el desarrollo de un enfoque de identificación automático de perfiles de consumo basado en aprendizaje de máquina,  una herramienta de mucha utilidad para las empresas de servicios públicos, ya que se contaría con un aplicativo de monitoreo, seguimiento y control a usuarios irresponsables, de modo que se puedan tomar medidas correctivas en casos extremos.



METODOLOGÍA

1. PREPROCESAMIENTO DE LA BASE DE DATOS. En esta etapa se realizó un análisis descriptivo preliminar para descartar respuestas no relevantes, datos atípicos, y su conversión de valores alfabéticos a valores alfanuméricos. Asimismo, se etiquetaron las entradas de la base de datos de acuerdo con la rotulación otorgada por un experto, que comprende tres categorías: consumidor responsable, consumidor medianamente responsable y consumidor no responsable. Una vez procesada la base de datos, se utilizó para el entrenamiento de algoritmos de reconocimiento de patrones. 2. IMPLEMENTACIÓN DE MÓDULO DE APRENDIZAJE SUPERVISADO. Se desarrolló una metodología basada en técnicas de aprendizaje de máquina supervisado para la identificación de perfiles de consumidores de acuerdo con la teoría del consumo sostenible. De esta manera, se implementaron estrategias de aprendizaje supervisado tales como clasificadores simples (Bayesiano lineal, Bayesiano cuadrático, K vecinos más cercanos) y clasificadores complejos (Máquinas de soporte vectorial y Procesos Gaussianos). 3. IMPLEMENTACIÓN DE MÓDULO DE APRENDIZAJE NO SUPERVISADO. Se desarrolló una metodología basada en técnicas de aprendizaje de máquina supervisado y no supervisado para la identificación de perfiles de consumidores de acuerdo con la teoría del consumo sostenible. Puesto que se contó con datos que relacionan distintos tipos de variables, se implementaron estrategias de aprendizaje no supervisado para robustecer la metodología. De esta manera se hallaron patrones a partir de algoritmos de agrupamiento (K medias, mezcla de Gaussiana con inferencia Bayesiana, agrupamiento jerárquico). 4. VALIDACIÓN LOS MÓDULOS DE APRENDIZAJE. Para validar las estrategias implementadas en las etapas anteriores se emplearon métricas de rendimiento como la precisión, la dispersión, curvas ROC, especificidad y sensibilidad sobre los resultados que se obtengan a partir del perfilado de los consumidores.  


CONCLUSIONES

El aprendizaje automático es un campo de la informática que da a las computadoras la capacidad de aprender sin estar programado explícitamente en esta investigación se implementó la base de datos para poder aplicarle un análisis descriptivo de datos no relevantes para posteriormente analizar las diferentes técnicas de aprendizaje máquina(Módulo de aprendizaje supervisado, Módulo de aprendizaje no supervisado) y así desarrollar una metodológica ideal que nos permita realizar la identificación de los perfiles que buscamos de acuerdo con la teoría de consumo sostenible, para validar las estrategias implementadas en las etapas anteriores se emplearon métricas de rendimiento como la precisión, la dispersión, curvas ROC, especificidad y sensibilidad sobre los resultados que se obtengan a partir del perfilado de los consumidores. Se desarrolló un aplicativo en Python que articula los módulos de pre-procesamiento de datos, así como los de aprendizaje. Este aplicativo permite visualizar información respecto a la población de consumidores, relacionándolos en términos de sus hábitos de consumo
Orbe Villegas Hector Daniel, Universidad Autónoma de Baja California
Asesor: Dr. Francisco Ronay Estrada López, Instituto Tecnológico de Tuxtla Gutiérrez

SIMULADOR DE VUELO


SIMULADOR DE VUELO

Orbe Villegas Hector Daniel, Universidad Autónoma de Baja California. Asesor: Dr. Francisco Ronay Estrada López, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Realizar un interfaz que permita controlar a partir de un  PID los ángulos de azimut y elevación de manera interactiva, el prototipo diseñado en solidworks en el que se realizó pertenece a un sistema con característica tipo helicóptero y además cuenta con dos grados de libertad, de tal manera que las mediciones se grafican en tiempo real utilizando un sistema embebido para que almacene los datos del sensor  con la finalidad de que el error se aproxime a cero del sistema en lazo cerrado. Objetivo general: Hacer un simulador de vuelo a partir de un prototipo tipo helicóptero montado en una base. Objetivos específicos: Realizar el ensamble de la base y el cuerpo del helicóptero para la instrumentación electrónica. Hacer una interconexión a partir de un sistema que adquiera los datos de los sensores a un software para obtener lectura gráficamente en tiempo real. Crear un interfaz para la simulación de los ángulos azimut y elevación. 



METODOLOGÍA

Se definieron los materiales a utilizar para el desarrollo del prototipo, los cuales fueron: Motores brushless (1000Kv),Giroscopio IMU (6050), Filamento PLA, Variador de velocidad ESC (OBM 3020), Bateria LiPo 11.1v 2200mah, Arduino Uno, Baleros para carretillas, Tornillos, Tuercas y Rondana. Al realizar el diseño del cuerpo del helicóptero se utilizó solidworks, en donde se tomaron en cuenta las dimensiones de los motores, tamaño de las helices, ESC, el giroscopio y el balero. En el diseño de la instrumentación electrónica se utilizó el microcontrolador Arduino para obtener los datos y asignar las velocidades de los motores.  El MPU contiene un giroscopio y un acelerómetro de tres ejes que permiten medir los componentes en X, Y y Z. El módulo del giroscopio se comunica con arduino a través de la comunicación en serie I2C por medio del reloj serial (SCL) y datos (SDA), los pines del MPU se conectaron de manera que el pin VCC a la salida de 5v, GND a la tierra del arduino, SCL al pin analogico A5 y SDA al pin analogico A4.  Para asignar las velocidades de los motores se utilizaron los pines digitales PWM 9 y 10, en los cuales se conectaron las entradas de datos de los ESC, estos cuentan con 4 cables de un lado (lado A), los cuales son la entrada de alimentación para la batería (1 y 4), la entrada de datos (2) y GND del variador (3), en algunas ocasiones se cuenta con un quinto cable el cual es una salida de 5v de alimentación, y del lado contrario cuenta con 3 cales (lado B), estos van conectados al motor. El ESC se encarga de interpretar la información de control que recibe para así determinar la velocidad y sentido de giro del motor, los ESC son controlados por Modulación por Ancho de Pulsos (PWM) para controlar motores eléctricos el cual recibe la señal PWM de arduino con variaciones de 1 a 2 milisegundos, en donde en 1 milisegundo se encuentra parado y en 2 milisegundos se encuentra en su máxima velocidad, estos variadores generan una corriente alterna trifásica a partir de corriente continua proveniente de una batería, en este caso se utilizó una batería tipo Lipo de 2200 mA y 11.1 v. Uno de los polos genera un voltaje proporcional a la velocidad de giro del motor, con este voltaje el ESC puede determinar que tan rápido y en qué dirección debe girar, de esta manera el ESC puede averiguar cómo mandar la corriente a los electroimanes del motor para que este gire. Los motores utilizados son motores Brushless (sin escobillas) de 1000Kv, donde el valor expresado en KV se refiera a la constante de revoluciones del motor, la cual es el número de revoluciones por minuto que tendrá el motor cuando se aplique 1v de tensión.(rpm=(KV)(tensión)).  Para la programación de arduino se utilizaron las librerías servo, la cual permite crear un objeto de tipo servo, la librería MPU6050 que permite obtener las lecturas del mpu funcionando en conjunto con la librería I2Cdev.h que permite usar el protocolo I2C el cual no utiliza la selección de esclavo sino de direccionamiento. Establecidas las librerías se desarrolló un código el cual permite obtener los datos del MPU para después enviarlos por el puerto serial y controlar los motores. El objetivo de la interfaz es una interfaz capaz de adquirir los datos enviados por el puerto serial, para mostrarlos en tiempo real graficando así los ángulos de azimut y elevación en los cuales se encuentra posicionado el prototipo de forma gráfica, de igual manera permita al usuario seleccionar la posición del prototipo a un ángulo deseado utilizando widgets. Para el diseño de la interfaz se tomó en cuenta que debe poder identificar se está enviando o recibiendo datos y si el dato existente en el puerto serial es una velocidad o un ángulo, debe poder determinar las velocidades adecuadas para los valores de los cada uno de los ángulos, las cuales se obtienen por medio del control PID, permitiendo de esta manera controlar el prototipo desde la interfaz.


CONCLUSIONES

Se lograron obtener resultados de diseño del prototipo ensamblado y su respectiva instrumentación electrónica, el cual se realizaron pruebas del sistema para determinar si el prototipo armado llegara a presentar condiciones óptimas o vibraciones bruscas que sean capaz de introducir ruido por un mal diseño, lo cual puede generar un comportamiento indeseado, por otro lado mediante un programa se ejecutó el sensor con el objetivo de adquirir los datos para obtener las gráficas de la respuesta en lazo abierto de los ángulos azimut y elevación, a partir de un interfaz elaborado desde un código de programación en Python, por tanto, el presente trabajo quedara en posición y alcance para estudiantes que les pueda ser de utilidad para múltiples usos en dirección a un desarrolló tecnológico.
Ornelas Zamorano Jesus Alberto, Universidad Autónoma de Sinaloa
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

ANÁLISIS DE LA FACTIBILIDAD EN LA INCORPORACIÓN DE PET COMO ADICIÓN/REFUERZO EN EL CONCRETO HIDRÁULICO, PARTIENDO DE LA REVISIÓN DEL ESTADO DEL ARTE RESPECTO A LA FORMA DE LAS MUESTRAS Y EL TIPO DE ENSAYO EMPLEADO POR LOS AUTORES.


ANÁLISIS DE LA FACTIBILIDAD EN LA INCORPORACIÓN DE PET COMO ADICIÓN/REFUERZO EN EL CONCRETO HIDRÁULICO, PARTIENDO DE LA REVISIÓN DEL ESTADO DEL ARTE RESPECTO A LA FORMA DE LAS MUESTRAS Y EL TIPO DE ENSAYO EMPLEADO POR LOS AUTORES.

Ornelas Zamorano Jesus Alberto, Universidad Autónoma de Sinaloa. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El estado del arte, es un término que se utiliza en la investigación científica, literaria. En la cual se hace una búsqueda masiva de información, para conocer estado actual del tema que interese abordar. Junto con la búsqueda de información, se realiza un análisis de todo el concentrado que se consulta, para corroborar desde que perspectiva se estudió su tema de interés, de tal manera que, con lo anterior, el investigador obtiene conocimientos brindados por la consulta de información, dándose una idea de cómo abordar su investigación. El tereftalato de polietileno mejor conocido como PET, adicionado en el concreto hidráulico, es un polímero empleado en la producción de envasado de alimentos y también fibras textiles, cuyas características son las de ser un material rígido, con buenas propiedades barrera. A lo largo de la década actual, investigaciones desarrolladas a partir de concreto con PET, han tenido opiniones encontradas a lo largo de sus investigaciones, siendo que varios autores han demostrado que, el agregar PET en sus distintas formas tanto como sustituto o adición, puede alterar sus propiedades mecánicas.A partir de la identificación de todas estas contradicciones que rodean a las investigaciones; se decidió desarrollar un estudio del estado del arte sobre investigaciones realizadas del 2015 a la fecha respecto a la incorporación de PET como adición/sustitución en el concreto hidráulico, específicamente a la forma de las muestras y el tipo de ensayo empleado por los autores, para analizar si es factible o no el desarrollo de nuevas mezclas de concreto en combinación con el PET reciclado.



METODOLOGÍA

La forma en la que se llevó a cabo la metodología fue desarrollando una serie de pasos de investigación y recopilación de información, para encontrar semejanzas y diferencias y de esta manera generar graficas estadísticas que permitieran dar un amplio panorama del estado del arte respecto al tema de estudio. Dicha serie de pasos, fue la siguiente: 1. Participación en 33 ponencias desarrolladas por investigadores del Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil (UMSNH) las cuales ayudaron de manera aleatoria a asentar las bases teóricas respecto al tema de estudio. 2. Una investigación en buscadores académicos (Google académico, conricyt, Redalyc, academia.edu) acerca de artículos de investigación científica relacionados con el uso del PET en el concreto hidráulico, eso de los últimos 5 años (2015 a la fecha). 3. Creación de una tabla de registro, para el vaciado de información de cada uno de los trabajos obtenidos en los buscadores. 4. Se hizo una recopilación de información de artículos, revistas, tesis y libros, y una clasificación de todos los artículos recopilados de acuerdo a temas de investigación como, por ejemplo:  Evaluación de mezclas de concreto modificadas con PET Evaluación de mezclas de concreto con una sustitución del agregado grueso o fino por material de PET El PET adicionado en cualquier otro material de construcción diferente al concreto hidráulico 5. Se procedió a la lectura, revisión y vaciado de la información requerida según las categorías presentadas en la tabla de registro, como son: Resistencia de diseño (f’c) de la mezcla Relación A/C Dosificación de cemento Especímenes elaborados (cubos, cilindros, vigas/prismas) Ensayos mecánicos (r. compresión, r. tensión, r. flexión, tenacidad) Ensayos de durabilidad (ataque por sulfatos, penetración rápida de cloruros, resistencia a la carbonatación, congelamiento y deshielo, porosidad total, absorción capilar) 6. Una vez llenadas las tablas con toda la información se procedió a realizar graficas estadísticas sobre los especímenes elaborados y los ensayos realizados en todas las investigaciones, cuyos resultados fueron los siguientes:


CONCLUSIONES

RESULTADOS El 13% de ellos realizaron especímenes cúbicos. En cuanto a los especímenes cilíndricos el 60% de autores los realizaron dentro de su investigación, mientras que, el 53% de los investigadores realizaron especímenes prismáticos o de vigas. La prueba de resistencia a la compresión, es la más empleada por los investigadores en sus respectivos temas en un 83%. El ensayo de resistencia a la flexión se encontró en el 45% de las investigaciones. Mientras que el ensayo de resistencia a la tensión y tenacidad fueron los que menos realizaban los autores con un 17% y 5.6% respectivamente. Los ensayos de durabilidad fueron un punto bajo dentro de las investigaciones. La mayoría de los autores no tomaban en cuenta hacer pruebas de durabilidad por lo que fueron resultados muy bajos con un 22%. De las pruebas de durabilidad: En la prueba de penetración rápida de cloruros y porosidad total solo el 5.6% de las investigaciones lo realizó. La resistencia a la carbonatación solo lo realizó el 1.8% de las investigaciones consultadas. En el ensayo de congelamiento y deshielo los autores consultados no lo tomaron en cuenta. Siendo el ensayo de absorción capilar el más utilizado en los ensayos de durabilidad con un 17%. Conclusiones De acuerdo a los resultados encontrados, los autores suelen darles más importancia a las pruebas mecánicas, siendo el ensayo de resistencia a la compresión el que más se realiza, mientras que los ensayos de durabilidad se dejaban en segundo plano. A partir de lo anterior, se recomienda en investigaciones futuras, los investigadores no solo deben buscar que su diseño de mezcla de concreto con PET cumpla únicamente con sus propiedades mecánicas, sino también deben buscar pruebas que demuestren, que tan resistente puede llegar a ser, el concreto con PET expuesto al ataque de agentes químicos ambientales. En cuanto a si es factible el incorporar el PET, el análisis del estado del arte nos da a entender que se están dando indicios de que el utilizarlo como una adición puede mejorar las propiedades mecánicas, pero hay que intentar llevar a cabo los ensayos correspondientes de resistencia mecánica y de durabilidad conjuntamente.
Orozco Hernández Carlos Iván, Universidad Autónoma de Ciudad Juárez
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

APLICACIONES DE ROBóTICA CON ARDUINO O RASPBERRY PI, ROBOT RESUELVE LABERINTOS.


APLICACIONES DE ROBóTICA CON ARDUINO O RASPBERRY PI, ROBOT RESUELVE LABERINTOS.

Orozco Hernández Carlos Iván, Universidad Autónoma de Ciudad Juárez. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El uso de Arduino o Raspberry Pi en la actualidad es muy popular, al ser plataformas de desarrollo de bajo costo y con prestaciones bastante útiles, como la posibilidad de integrar dispositivos de entrada y salida en tiempo real a los sistemas. El uso de estos dispositivos de manera didáctica supone un problema para los jovenes ya que pueden pensar que es algo sumamente difícil o que se requieren de conocimientos demasiado técnicos.



METODOLOGÍA

Se comenzó realizando una investigación de los materiales necesarios para la elaboración del proyecto, para esto se utilizaron como referencia proyectos existentes encontrados en repositorios de GitHub. Se decidió utilizar Arduino por su facilidad de manejo y hacer el robot tipo seguidor línea para que fuera más fácil hacer la pista/laberinto, para detectar la pista se utilizó un array de sensores infrarrojos para una mejor detección de las líneas, una vez teniendo los materiales seleccionados y comprados se procedió al armado de este, se consiguió un kit con un chasis y los motores con ruedas para que fuera más sencillo su ensamble, para el sensor de detección de líneas se diseño y fabricó un soporte para poder fijarlo a la distancia recomendada por el fabricante. Se programo el Arduino con el método de mano izquierda, lo que quiere decir que cada vez que el robot detecte que le es posible girar hacia la izquierda lo hará, esto asegura que, al estar todas las líneas de la pista conectadas, el robot no puede perderse y encontrara el final del mismo.


CONCLUSIONES

Durante esta estancia de verano que debido a la pandemia se trabajo de manera virtual a distancia, se lograron adquirir y poner en marcha conocimientos nuevos acerca del funcionamiento del Arduino y su uso de manera didáctica para que las personas más jóvenes y las no tanto se vean atraídos hacia el aprendizaje y el desarrollo de aplicaciones en esta plataforma con tantas ventajas.
Orozco Osuna Yadira Alejandra, Universidad de Guadalajara
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

EVALUACIóN DE LA EXPERIENCIA DEL USUARIO (UX) EN SITIOS ORIENTADOS A LA BIBLIOTECOLOGíA CON USUARIOS CIEGOS


EVALUACIóN DE LA EXPERIENCIA DEL USUARIO (UX) EN SITIOS ORIENTADOS A LA BIBLIOTECOLOGíA CON USUARIOS CIEGOS

Orozco Osuna Yadira Alejandra, Universidad de Guadalajara. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

La tecnología avanza rápidamente, el uso de las TIC resulta algo prácticamente indispensable para la población hoy en día, inevitablemente no se encuentra al alcance de todos por diferentes factores, causando así una desigualdad de oportunidades y reduciendo importantemente la calidad de vida de las personas que no tienen acceso a esta valiosa herramienta. Uno de los sectores poblacionales mayormente afectados por esta delimitación son las personas con algún tipo de discapacidad visual, principalmente los que son totalmente ciegos. La desigualdad tecnológica atenta contra el desenvolvimiento e interacción de la población antes mencionada en el campo de las TIC, que son importantes para el ámbito laboral, académico e incluso de entretenimiento. El acceso a la tecnología y todas sus derivaciones buscan no solo que los usuarios puedan alcanzar el objetivo deseado, sino que también puedan tener una experiencia de buen nivel, es decir, que resulte cómoda y satisfactoria. De esta manera la información también busca estar a la mano de todas las personas, por esta razón muchas bibliotecas cuentan con un catálogo web de los libros disponibles en la misma. Las consultas de existencia de ejemplares son muy convenientes cuando se quiere ahorrar tiempo, pues no es necesario acudir  físicamente a la biblioteca. Por lo tanto resulta aún más útil para las personas con discapacidad visual hacer la consulta sin necesidad de trasladarse por una ciudad que no está bien diseñada para las personas ciegas. En Jalisco existen 23 bibliotecas que cuentan con recursos para personas con discapacidad visual, por lo que parece justo que los sitios web que manejan estas bibliotecas deberían ser accesibles para todos los usuarios a los que su acervo está dirigido Por lo que la problemática identificada es que los catálogos web utilizados por  bibliotecas con recursos dirigidos a personas con discapacidad visual no cumplen con las guías de diseño necesarias para ser accesibles por usuarios ciegos, limitando así aún más su participación en este tipo de establecimientos.



METODOLOGÍA

Este proyecto tiene como objetivo evaluar la experiencia del usuario (UX) en catálogos web de bibliotecas que cuentan con áreas especiales para personas con discapacidad visual en la ciudad de Guadalajara. Para esto se hizo una selección de casos de estudio y se decidió trabajar con los catálogos web de las bibliotecas públicas Central Profesor García Ruiz y la Biblioteca Iberoamericana Octavio Paz. Primeramente se identificaron y analizaron los principales problemas de los sitios web haciendo uso de NVDA (Non Visual Desktop Access por sus siglas en inglés) que es un lector de pantalla libre y gratuito desarrollado por NV Access que permite a las personas ciegas y con discapacidad visual usar ordenadores, para ello lee el texto que se muestra en pantalla mediante una voz sintética. Para identificar dichos problemas en los sitios se aplicó una evaluación heurística que es un método de evaluación de la usabilidad por inspección llevado a cabo por un experto a partir de unos principios heurísticos previamente establecidos, en este caso los diez principios Heurísticos de Jakob Nielsen, estos son generales y se pueden aplicar a cualquier sitio web, tienen como objetivo medir la calidad de la interfaz de cualquier sistema interactivo en relación a su facilidad para ser aprendido y usado por un determinado grupo de usuarios. Una vez identificados los problemas, se diseñaron una serie de tareas para después aplicarlas a usuarios ciegos y así comprobar el impacto en los mismos. Para las pruebas se usó el método de evaluación UX "pensando en voz alta" que es un método que requiere que los participantes verbalicen lo que están haciendo y piensen mientras completan una tarea, revelando aspectos que puedan gustar, confundir o frustrar al usuario.  Durante las pruebas se hicieron anotaciones en una tabla de cumplimiento de tareas, se grabó la pantalla y el audio de los usuarios y además se aplicó un cuestionario post-prueba. Al finalizar las pruebas se analizaron los resultados de la respuesta de los usuarios ciegos, se identificaron los problemas que representaron un reto para los mismos y finalmente se hizo una propuesta de guía de diseño sitios Web enfocados al área de bibliotecología.


CONCLUSIONES

Como se esperaba estos sitios web no cuentan con las pautas de accesibilidad que deberían para atender a personas con discapacidad visual. Los resultados de las pruebas con usuarios ciegos revelaron que en este caso para ambos catálogos web el problema  heurístico que más se destacó por su deficiencia fue el de control y libertad del usuario, esto puede proyectarse sobre todo en el llenado de los formularios de búsqueda. La propuesta de diseño es simple pues incluye generalmente mejor compatibilidad con el lector de pantalla, desplazamiento optimo por medio del teclado, notificaciones verbales o sonidos que te digan que es lo que sucede en la pantalla, opciones para volver en las secciones que lo carezcan y mejoras en el formulario de búsqueda como que se limpie por si solo para realizar nuevas búsquedas cómodamente. La propuesta de mejora es simple, sin embargo los ajustes sugeridos harán una considerable mejora de la experiencia del usuario mientras se desenvuelve por el sitio web.
Ortega Valenica Juan Carlos, Instituto Tecnológico de Colima
Asesor: Dr. Carlos Andrés Cifuentes García, Escuela Colombiana de Ingeniería Julio Garavito

CARACTERIZACIóN Y DISEñO DE SENSOR POF PARA EL MONITOREO DE PRESIONES EN REHABILITADOR DE MARCHA.


CARACTERIZACIóN Y DISEñO DE SENSOR POF PARA EL MONITOREO DE PRESIONES EN REHABILITADOR DE MARCHA.

Ortega Valenica Juan Carlos, Instituto Tecnológico de Colima. Asesor: Dr. Carlos Andrés Cifuentes García, Escuela Colombiana de Ingeniería Julio Garavito



PLANTEAMIENTO DEL PROBLEMA

Actualmente, dentro del campo de la fisioterapia robótica existe la búsqueda constante de monitorear fuerzas y movimientos de interacción hombre-máquina. Esto se debe, a que el monitoreo de estas interacciones permite mejorar los ejercicios de rehabilitación y brinda una retroalimentación cuantitativa de la recuperación del paciente. La mayoría de desarrollos pertenecientes al campo de la salud se han centrado en el uso de sensores eléctricos, sin embargo, recientemente se han aprovechado las tecnologías de censado que emplean óptica pura, permitiendo desarrollar alternativas de bajo costo a los sensores ya existentes. Dichas tecnologías promueven un monitoreo no invasivo para el paciente, ya que los sensores que emplean fibra óptica de polímero (POF) son livianos e inmunes a los campos electromagnéticos. La investigación de la fibra óptica como transmisor de señales se remonta a 1950, sin embargo, fue hasta la década de 1970 que surgió el interés por desarrollar sensores empleando este principio. Con el paso de los años dichas investigaciones fueron conduciendo a sensores de fibra para la detección de deformaciones. En la actualidad muchos de aquellos desarrollos que presentan sensores ópticos, se basan en variaciones de potencia debido a flexión o presión. Respecto al tema de rehabilitación en Latinoamérica, la Organización Mundial de la Salud (OMS), afirma que, en los países de ingresos bajos y medianos, faltan profesionales cualificados para prestar servicios de rehabilitación, pues se estima que hay menos de 10 profesionales cualificados por cada millón de habitantes, apuntando a que la población que precisa de rehabilitación carece de ella o bien, de una buena atención. Estos datos nos permiten visualizar un área de oportunidad para la evolución de la fisioterapia robótica, siendo capaz de brindar una atención eficaz con menor intervención del fisioterapeuta. En general, las aplicaciones de la fibra óptica de polímero (POF) están creciendo en el campo de los sensores portátiles, ya que su mecánica y sus propiedades permiten desarrollar alternativas de poco tamaño y de bajo costo a los sensores ya existentes permitiendo un monitoreo no invasivo de fuerzas y presiones. Por tanto, este proyecto está enfocado en la caracterización, diseño y simulación de sensor POF para el registro de presiones en soportes de antebrazos y empuñaduras de rehabilitador de marcha. Este monitoreo de pensiones pretende identificar intenciones de movimiento del paciente para replicarlos en el caminador, facilitando así la marcha del paciente. Por otra parte, se busca relacionar las presiones ejercidas en el rehabilitador con el nivel de recuperación del paciente, brinda una retroalimentación cuantitativa de los avances obtenidos en cada terapia.



METODOLOGÍA

Este trabajo se realizó en el Centro de Biomecatrónica de la Escuela Colombiana de Ingeniería Julio Garavito en Bogotá, Colombia. A lo largo de este desarrollo se utilizó el software SolidWorks para diseñar las piezas mecánicas. Las ventajas que nos provee este software es la facilidad de ensamblar varías piezas y obtener una visualización final del diseño y una vista explosionada de las piezas empleadas, además de permitir simulaciones básicas de esfuerzos ya sea en piezas o ensamblajes. Por otra parte, se empleó el software de impresión 3D CURA para el ajuste de parámetros estructurales en cada una de las piezas a imprimir. Para lograr los objetivos, se llevó a cabo una recolección de datos en distintos artículos relacionados para posteriormente realizar un modelo 3D de un solo punto de registro de presión . Luego de esto se diseñó la empuñadura y el soporte de antebrazo, piezas que más adelante serían ensambladas de forma virtual para visualizar la distribución y someter a pruebas de esfuerzos.


CONCLUSIONES

En este trabajo se planteó un diseñó mecánico capaz de embeber fibras ópticas y emisores de luz, para así emplear la óptica pura para el monitoreo de presiones tanto en zonas de empuñadura como en soportes de antebrazo. A partir de la recolección de datos en distintos artículos disponible para la construcción y aplicación de sensores POF, se realizó la caracterización del propio sensor donde se establecieron las dimensiones adecuadas, el número y la distribución de los puntos de censado, los materiales óptimos y todos aquellos parámetros de impresión para piezas tridimensionales. Concluyendo con las siguientes características: Circunferencia de 11 cm y largo de 14 cm en empuñadura. Ancho de 12.4 cm, alto de 6.5 cm y un largo de 25 cm en soporte de antebrazo. 21 puntos de registro de presión distribuidos en tres espirales que rodean la empuñadura. 30 puntos de egistro de presión distribuidos en matriz cuadrada a lo largo del soporte de antebrazo. Uso de acrilonitrilo butadieno estireno (ABS) en soportes y poliuretano termoplástico (TPU) para aquellas piezas que estarán en contacto con el paciente. Parámetros para impresión de piezas de ABS: altura de capa de 0.1 mm, grosor de paredes de 1 mm, densidad de relleno del 35%, patrón cúbico de relleno, temperatura de extrusor de 240°C, temperatura de plancha de 60°C y una velocidad de impresión de 50 mm/s. Parámetros para impresión de piezas de TPU: altura de capa de 0.2 mm, grosor de paredes de 3 mm, densidad de relleno del 8%, patrón cúbico de relleno, temperatura de extrusor de 220°C, temperatura de plancha de 40°C y una velocidad de impresión de 30 mm/s.
Ortiz Montero Carlos Andres, Instituto Politécnico Nacional
Asesor: Dr. Gilberto Lorenzo Martínez Luna, Instituto Politécnico Nacional

PATRONES DE USO SIMILAR Y AUTO REGULABLES ENTRE COLONIAS DEL SISTEMA DE BICICLETAS PúBLICAS DE LA CIUDAD DE MéXICO (ECOBICI)


PATRONES DE USO SIMILAR Y AUTO REGULABLES ENTRE COLONIAS DEL SISTEMA DE BICICLETAS PúBLICAS DE LA CIUDAD DE MéXICO (ECOBICI)

Ortiz Montero Carlos Andres, Instituto Politécnico Nacional. Asesor: Dr. Gilberto Lorenzo Martínez Luna, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de transporte individual han recibido una gran cantidad de estudios, por su utilidad que tienen, los problemas o desafíos que tienen que resolver y representan problemas relacionados a Visualización y Minería de Datos. Los datos abiertos que publica el Sistema de Transporte Individual ECOBICI, recibe diferentes tratamientos buscando realizar una utilidad más, además de solo el registro histórico o estadísticas. Por lo que los patrones en el sistema de movilidad individual, conocido como ECOBICI en la CDMX, son muy variables por la gran actividad que existe en la ciudad. Por consecuencia podemos detectar los siguientes comportamientos: En los últimos años, en general, las actividades que se programan en la CDMX son afectados o se interrumpen por fenómenos naturales y sociales, la mayoría aleatorios, casi sin una forma de pronosticar a ellos, por lo que hay que analizar los eventos que afectan a la actividad de ECOBICI. Donde la movilidad en algunos meses es similar (diciembre, enero, marzo o abril con semana santa, mayo y julio), por la existencia de días festivos y la interrupción en escuelas; a diferencia de otros meses con pocos días festivos (febrero, junio, agosto, septiembre, octubre y noviembre). Por lo que se requiere proceso para conocer el estatus de disponibilidad y regulación en base a su comportamiento para planear mejor sus viajes, conocer el comportamiento de las colonias, conocer la auto regularidad de las colonias y planear estrategias para el abastecimiento de las estaciones no autorregulable. OBJETIVO Realizar consultas, reportes y visualizaciones a partir de la base de datos de SAM y PlanBike para soportar los hallazgos en los patrones de similaridad y autorregulables en estaciones de ECOBICI



METODOLOGÍA

Con la espera de que la actividad día por día es diferente (un lunes a un viernes, o al martes o al jueves o al viernes) o en fin de semana; es muy variable por la existencia de eventos en fin de semana de diferentes índoles y en diferentes horarios. La movilidad se puede identificar por año, por mes, en mismo día de semana (lun, mar, mie, jue y vie o fin de semana) en los cuatro o 5 días de semana en un mes (los meses pueden tener 28, 29, 30 o 31 días) y en un horario. Por lo tanto, los parámetros para identificar parámetros son: Año Mes Días de la Semana Horarios (por hora inicio y termino) Se realizo un análisis del comportamiento con los siguientes parámetros: Año 2019. Días de lunes a viernes. Meses de marzo, julio, octubre, diciembre. Horarios: 5-11:59,12-15:59,16-23:59 5-11:59,12-23:59 Se utilizo el año de 2019 para la fácil comprensión de los patrones a causa de que la movilidad de ECOBICI a sido afectada por la pandemia ocasionada por el COVID-19, y será muy diferente a los meses correspondientes de 2019. Donde cabe recalcar que el siguiente procedimiento se hace por cada colonia registrada del sistema de ECOBICI, así como toda la información obtenida se obtiene del mismo. En donde se obtuvo los viajes de origen (cantidad de bicicletas tomadas en esa hora) y los viajes de arribo (bicicletas que se retornaron en esa hora) en esa hora. Y una vez se tiene la cantidad de viajes por hora, se saca la cantidad total de viajes y se obtiene el porcentaje de viajes que aporta cada hora. Cuando se tiene la totalidad de los porcentajes, estos porcentajes se suman en base a los horarios que se establecieron previamente y así obtener el porcentaje de frecuencia de viajes de origen y de arribo de cada horario por colonia. Una vez con los porcentajes por horarios, se establece una desviación deseada para saber las colonias similares en base a el rango de desviación establecido; obteniendo así las colonias similares. Y las colonias autorregulables se obtienes al comparar la suma de porcentajes de determinado horario; donde una estación es autorregulable si el porcentaje de frecuencia de viajes de origen y viajes de arribo no tiene una variación considerable (Mayores al 15%). Donde por ultimo se tienen que ordenar los datos para su fácil visualización, donde en este caso se exportaron los datos a archivos CSV y se ordenaron en un documento de Excel para la fácil manipulación y visualización de los datos de movilidad obtenidos.


CONCLUSIONES

Durante la estancia se obtuvo conocimientos prácticos sobre la detección de patrones con el apoyo de los datos de la movilidad de ECOBICI, se mejoraron las habilidades técnicas de los lenguajes de MySQL y Python. Del objetivo no se cumplió la parte de visualizaciones, porque no se tuvo el tiempo necesario para poder aprender a desarrollar en la herramienta utilizada llamada Tableu. Y se cumplió la parte del objetivo de consultas, reportes; al entregar resultados que se utilizaran como apoyo para una automatización más profunda sobre los patrones de uso similar y autorregulables en actualizaciones futuras del proyecto. COMENTARIOS U OBSERVACIONES La estancia no era lo que esperaba a causa de que no hubo un estándar de documentación de inicio a fin. Ya que no había documentación puntual sobre lo que se tenia y lo que se quería (los objetivos). Por lo que la mayoría de los puntos a realizar y de los cambios que se requerían fueron de manera hablada sin tener una correcta documentación o seguimiento. Me hubiera gustado y como recomendación para el proyecto en el que estuve trabaje que haya mejor documentación sobre lo que se tiene, ya que había en la maquina del laboratorio a la que me conecte muchas cosas sin un orden ni documentación, y sobre lo que se quiere, porque se tuvo que redefinir el ámbito en el cual los patrones estaban centrados de estaciones en primera instancia a colonias. A consecuencia de esto no me pude trabajar de manera eficaz a causa de que me tardaba en entender lo que se tenía, a pesar de preguntar, y lo que se quería, que no estaba bien documentado y parecía que a veces no tenia un rumbo especifico.
Ortiz Ramos Irlanda, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. César Antonio Argüello Rosales, Benemérita Universidad Autónoma de Puebla

APLICACIÓN DEL DESIGN THINKING EN EL DESARROLLO DE MATERIAL EDUCATIVO VIRTUAL (DTDMEV)


APLICACIÓN DEL DESIGN THINKING EN EL DESARROLLO DE MATERIAL EDUCATIVO VIRTUAL (DTDMEV)

Ortiz Ramos Irlanda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. César Antonio Argüello Rosales, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Asesor: Dr. César Antonio Argüello Rosales, Benemérita Universidad Autónoma de Puebla Estudiante: Irlanda Ortiz Ramos, Benemérita Universidad Autónoma de Puebla El continuo cambio en las necesidades de los consumidores a nivel global, ha propiciado el surgimiento del Design Thinking como método de solución rápida y creativa de problemas, teniendo a la innovación como pilar principal para mantener la competitividad. Del mismo modo, sabemos que los profesores requieren nuevas formas de acercarse a sus alumnos que les permitan aprender y poner en práctica los conocimientos, al mismo tiempo que se acerca a las nuevas tecnologías. Es por ello que, a mediano plazo, se pretende desarrollar un manual en donde se guíe paso a paso a los docentes en un taller para crear Material Educativo Virtual a través del Design Thinking. En este resumen se muestra brevemente la información teórica recopilada, que posteriormente será usada como introducción a la metodología.



METODOLOGÍA

Debido a las condiciones en las que se encuentra nuestro país, la investigación realizada este verano fue completamente documental, obteniendo como resultado lo siguiente: Pelta Resano afirma que el design thinking surge en los años cincuenta junto con el desarrollo de las primeras metodologías modernas de diseño, que se enfocaban en la creación de nuevos productos, además de la publicación del libro Wake up your mind: 101 ways to develop creativenes de Alex F. Osborn, quien es considerado el padre del brainstorming. Sin embargo, fue hasta los años setenta con los aportes de Herbert A. Simon en su libro The Sciences of the artificial que surgió el interés en el diseño, tanto científico como de investigación interdisciplinar y con miras a la educación superior, y así, se comenzó a hablar del diseño como una forma de pensar. Posteriormente, en 1987 se publicó el libro Design Thinking por Peter Rowe, quien a través de casos de arquitectura y urbanismo trató de explicar que existían diferentes vertientes para actuar y tomar decisiones, y no un proceso de diseño único. Pero fue Richard Buchanan quien en su artículo Wicked Problems in Design Thinking publicado en 1992, que defendió que era posible aplicar esta metodología a cualquier tipo de objeto tangible o de sistema intangible, ayudando junto a IDEO, una empresa de consultoría estadounidense, a que esta metodología alcanzara popularidad hasta la actualidad. Darbellay, Moody & Lubart lo definen en su libro Creativity, Design Thinking and Interdisciplinarity, como: El pensamiento de diseño es un proceso que se centra en recopilar experiencias de retroalimentación de las necesidades del usuario, generar modelos de prototipos, recopilar retroalimentación y rediseñar de manera cíclica. (p. 17) Del mismo modo, Brown & Wyatt abonan a esta conceptualización mencionando que se trata de la incorporación de conocimientos con la creación de prototipos, de manera optimista, constructiva y experiencial abordando las necesidades de los consumidores y la infraestructura que hace posible brindarles el producto o servicio. (2010) Así mismo, Pelta Resano menciona que el diferenciador entre el design thinking y otros enfoques es que éste se centra en la resolución de problemas, pero no tiene una previa, más bien hace énfasis en desarrollarla en el proceso. Además, encuentra un equilibrio entre la lógica y la creatividad, la primera necesaria cuando se tienen bases de conocimiento sobre las cuales trabajar y, por otro lado, la segunda es ideal para analizar desde una perspectiva diferente el problema, o bien, generar nuevo conocimiento. El DT se compone de cinco fases elementales, que, si bien tienen un orden, la flexibilidad del método permite regresar o avanzar tantas veces como sea necesario entre las etapas, independientemente de si son consecutivas o no. Por lo que, habiendo aclarado esta cuestión, proseguiremos a definir brevemente cada una de ellas: Empatizar: Consiste no solo en escuchar y observar, sino en ponerse en el lugar del usuario para entender su problema, conocer sus comportamientos, ideas, necesidades y deseos. Básicamente, el diseñador aprende del usuario e identifica la problemática a resolver. Definir: Se trata de analizar, sintetizar y crear coherencia entre la información obtenida en la etapa anterior, desechando lo que no aporte valor y haciendo conexiones para descubrir patrones racionales.  Idear: Es donde comienza el proceso de diseño, pues a partir de los conocimientos sintetizados se inicia con la generación de múltiples ideas innovadoras que le den una solución integral al problema, las cuales deben ser tecnológicamente factibles, económicamente viables y centradas en los usuarios. Prototipar: Consiste en crear un Producto Mínimo Viable (PMV), que se pretende solucione el problema, con el que el usuario pueda interactuar sin usar materiales complejos, observar esta interacción entre el producto y el cliente, así como sus fallas puede ahorrarle mucho tiempo al proceso. Testear: Se trata de entregar el producto y crear experiencias de interacción con el usuario, lo ideal es que tenga la oportunidad de comparar prototipos para dar una opinión más realista, además, es importante que el equipo ponga bastante atención al comportamiento del consumidor.


CONCLUSIONES

Por lo tanto, se concluye que el Design thinking, o bien, pensamiento de diseño, es un proceso de creación flexible basado en la forma de pensar de los diseñadores, que permite desarrollar productos, servicios y procesos a través de la interacción y comunicación constante entre consumidor y diseñador, conociendo tanto las experiencias como los deseos de los clientes e integrarlas con el conocimiento de los expertos, para así entregar soluciones acertadas que cumplan con las expectativas, o incluso superarlas, y que, al mismo tiempo sean económicamente viables y tecnológicamente factibles. Cabe mencionar que los conceptos de Design Thinking no son definitivos, y así como han evolucionado a través del tiempo, lo seguirán haciendo conforme las circunstancias y el ambiente lo ameriten, pues se trata de una metodología flexible y de adaptación que integra conocimiento constantemente.
Pablo Mondragon Daycy Rubi, Instituto Tecnológico de Ciudad Altamirano
Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero

ANáLISIS, DISEñO E IMPRESIóN 3D


ANáLISIS, DISEñO E IMPRESIóN 3D

Pablo Mondragon Daycy Rubi, Instituto Tecnológico de Ciudad Altamirano. Santamaría Sánchez Carmen, Instituto Tecnológico de Ciudad Altamirano. Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

Las personas pueden perder todo o parte de un brazo o una pierna por varias razones. Las más comunes incluyen: Problemas de circulación. Estos pueden ser resultado de la ateroesclerosis o la diabetes. Los casos severos pueden requerir una amputación, lesiones; incluyéndolas por accidentes de tráfico y por combate militar, Cáncer o defectos congénitos. Algunos amputados sufren de dolores fantasmas, que es la sensación de dolor en la extremidad ausente. Otros problemas físicos incluyen complicaciones por la cirugía y problemas de la piel, en el caso de que use una extremidad artificial. Muchos amputados utilizan las extremidades artificiales. Aprender a usarlas requiere tiempo. La fisioterapia puede ayudarlo a adaptarse. La recuperación tras perder una extremidad puede ser difícil. Sentir tristeza, rabia y frustración es común. El tratamiento con medicina o con terapia puede ayudar. Durante este verano de investigación se estudiará sobre qué beneficios conlleva el poder recuperar una extremidad pérdida, por amputación o nacimiento, principalmente. Así como la calidad de vida de las personas con pérdida de extremidad puede ser mejor con la ayuda de la innovación e impresión 3D. Es decir, con la información recabada haremos una prótesis así mismo con ayuda de un prospecto que le haga falta una extremidad de su cuerpo. Una prótesis es una extensión que remplaza o provee una extremidad del cuerpo que hace falta por diversas razones.



METODOLOGÍA

En este presente trabajo de investigación, se utilizó el: Análisis, diseño e impresión en 3D. Se analizaron los requerimientos necesarios para iniciar la elaboración de la prótesis de mano, medidas de la extremidad a desarrollar, edad del prospecto, etapa de su desarrollo biológico, características físicas, hábitos personales, tipo de uso de la prótesis; además de otros datos necesarios para poderla crear. Con ayuda de una encuesta y de un prospecto pudimos llevar acabo lo antes mencionado. Quedando en claro que nos otorgó el permiso con la carta de consentimiento informado. Después se llevó la parte del diseño, donde antes de diseñar investigamos el software para el diseño de piezas en 3D. Así que encontramos el software Tinkercad, que es un software en línea super sencillo y eficaz para hacer diseños e imprimir en 3D. Nuestro investigador nos capacitó para realizar un diseño y después poderlo imprimir. Una vez que nos dio la capacitación, elaboramos (diseñamos) piezas nosotros mismos y se lo hicimos llegar a nuestro investigador. Por último, se hicieron ajustes al diseño de las piezas y configuramos las medidas para poderlas imprimir en 3D.


CONCLUSIONES

Durante la estancia de investigación adquirimos conocimientos teóricos de las enfermedades  neurodegenerativas y ponerlo en práctica con las técnicas de análisis morfológico de las neuronas. Además con ayuda del material de trabajo obtuvimos nuevos conocimientos acerca de cómo realizar investigaciones científicas o con el objetivo de un análisis médico. Así mismo, conocimos la vida que llevan las personas que les hace falta alguna extremidad de su cuerpo. Encontramos un prospecto para la realización de este proyecto, aunque no solo es de decidir, si no que le realizamos una encuesta sobre su forma de vida además tomamos las medidas de su mano y de los dedos faltantes, y de acuerdo a los resultados obtenidos además de la capacitación que nos dio nuestro investigador acerca de Diseñar modelos en 3D, llevamos a la práctica lo aprendido en esta investigación. Es decir, realizamos la prótesis de mano a medida del prospecto de manera exitosa. La prótesis es de gran beneficio para el prospecto ya que le permitirá realizar las actividades que antes no podía realizar por falta de sus extremidades. Por último, las características principales de la mano impresa 3D que nos podrían ser útiles para el desarrollo de la prótesis serían: su ajuste en la mano, su poco peso y rigidez.
Pacheco Aguirre Nancy, Instituto Politécnico Nacional
Asesor: Dra. Nancy Tepale Tepale, Benemérita Universidad Autónoma de Puebla

MATERIALES NANOMéTRICOS ENFOCADOS A TERAPIA GéNICA MEDIANTE MéTODOS NO-VIRALES EMPLEANDO áCIDOS NUCLEICOS (U OTROS FáRMACOS DE INTERéS) Y NANOMEDICINA REGENERATIVA (TEJIDO óSEO Y NEURONAL)


MATERIALES NANOMéTRICOS ENFOCADOS A TERAPIA GéNICA MEDIANTE MéTODOS NO-VIRALES EMPLEANDO áCIDOS NUCLEICOS (U OTROS FáRMACOS DE INTERéS) Y NANOMEDICINA REGENERATIVA (TEJIDO óSEO Y NEURONAL)

Pacheco Aguirre Nancy, Instituto Politécnico Nacional. Asesor: Dra. Nancy Tepale Tepale, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los conocimientos sobre nanociencia (NC) y nanotecnología (NT), incluyendo las técnicas de caracterización, son indispensables para comprender, analizar, y emplear los nanomateriales (NMs) en las diferentes áreas de la investigación. Al ser nuevas tecnologías existe un rezago conceptual que ocasiona la existencia de mitos acerca de la NC y NT. En el campo de la nanomedicina (NM), se necesita comprender el comportamiento de las nanoestructuras. En este sentido, se desea implementar medios de difusión sobre esta área de la ciencia mediante recursos tanto escrito como visual, para despertar inquietud y curiosidad por los temas en adolescentes. La presente investigación se realizó sobre nanomedicina regenerativa (NMR) y terapia génica (TG) empleando sistemas no-virales con ácidos nucleicos (ANs). Abreviaciones: ANs, ácidos nucleicos. NC, naciencia. NM, nanomedicina. NMs, nanomateriales. NMR, nanomedicina regenerativa. NPs, nanoparticulas.  NT, nanotecnología. TG, terapia génica. 



METODOLOGÍA

A través de lectura de libros, investigación y lectura de artículos, así como su análisis por medio de videoconferencias, se llevó a cabo la estancia virtual. En una primera etapa se investigó acerca del inicio de la NC y NT, historia, y conceptos generales, con el objetivo de encontrar un campo de interés que se pueda divulgar. En una segunda etapa, se puso principal atención en conceptos generales de la NM, centrándose en la NMR y la TG por métodos no virales empleando ANs. Cuando se relaciona la NT con la medicina surgen nuevas formas de abordar las enfermedades. Se debe prestar atención a las propiedades físicas, químicas, magnéticas y topográficas de las nanopartículas (NPs), así como a la funcionalización que se les quiera otorgar.  El fármaco rivastigmina para regeneración de tejido neuronal en la enfermedad del Alzheimer, empleando nanopartículas de oro (AuNPs) funcionalizadas con el recubrimiento de poly(n butilcianocrilato) (PCBA), eleva tres veces su efectividad, debido a su capacidad de traspasar la barrera hematoencefálica (15 a 50 nm). En cuanto al tejido óseo, se han empleado compósitos de NPs de hidroxiapatita (HAP) incorporadas en un andamio de poly (ácido láctico) (PLA). Estos experimentos se han realizado en animales como conejos y ratones. Comúnmente para implantes óseos se usan materiales como el poliéter cetona (Eslava J. et, al. 2009) pero al ser biológicamente inertes pueden separarse de los tejidos circundantes después de la implantación. El recubrimiento con NMs bioactivos con nanotopografías superficiales óptimas (protuberancias semiesféricas de 60 nm) pueden mejorar la osteointegración y regeneración ósea. (Yang, Y. et, al. 2019) La tercera etapa consistió en visualizar la importancia de la caracterización de NMs. Los diferentes métodos de caracterización fueron presentados mediante videoconferencias con la participación de estudiantes de licenciatura y posgrado. Se pueden caracterizar mediante espectroscopía UV-Vis (UV-Vis), un método de caracterización relativamente fácil y de bajo costo. Las NPs tienen propiedades ópticas que son sensibles al tamaño, forma, concentración, estado de aglomeración e índice de refracción cerca de la superficie, lo que hace que la espectroscopía UV-Vis sea una herramienta importante para caracterizar e investigar estos NMs en soluciones coloidales. (Mourdikoudis, S. et, al. 2018) Abordando ahora la relación existente entre la TG y la NT, se procedió a investigar el empleo de métodos no-virales para transfección de células empleando ANs.  La terapia génica pretende tratar enfermedades hereditarias o adquiridas, a nivel molecular, bien reparando posibles daños en el ácido desoxirribonucleico celular (DNA) mediante la inserción de plásmidos de DNA (p(DNA)) en el citoplasma de las células dañadas o bloqueando (silenciando) la función patogénica de algún gen mediante la inserción de ácidos ribonucleicos pequeños de interferencia (siRNA). (Martínez Negro M. 2017) La NT es usada para que complejos de NPs funjan como vectores no-virales (sin utilización de algún virus modificado para TG), sistemas prometedores debido a su facilidad y bajo costo de elaboración, baja toxicidad, posibilidad de escalamiento, resultando más ventajosos con respecto a los de liberación viral de ANs. Ejemplo de estos son los complejos generados con compuestos catiónicos (lípidos, polímeros, y péptidos catiónicos) y ANs con nanoestructuras funcionalizadas, capaces de transfectar células de interés (comúnmente por endocitosis en la membrana celular de carga negativa), porque contrarrestan la carga neta negativa de los ANs (debido al grupo fosfato en su estructura química). Con base en esta información se difundirán algunos conceptos básicos mayoritariamente a una población de adolescentes en instituciones de educación media superior, a través de un póster y un cuento, que pretenden infundir curiosidad acerca de la NC y NT desde el punto de vista de la NMR y la TG.


CONCLUSIONES

El desarrollo de esta investigación resultó ser un cimiento para encaminar los conocimientos generales adquiridos acerca de NC y NT hacía áreas de interés específico como la NMR y ANs dirigidos para TG. La bibliografía demostró que en NMR y TG se necesitan más estudios porque, aunque se han hecho pruebas clínicas en animales hasta el año 2019, aún no se extrapola a ensayos in vivo en humanos. De igual manera, fue indispensable familiarizarse con los métodos empleados para la caracterización de NPs, con el objetivo de estudiar alguno en específico con más detalle puesto que en la práctica se deberá tomar en cuenta la disponibilidad del método y equipos con los que las instituciones académicas cuentan. Por lo tanto, la divulgación mediante un póster atractivo y un relato relacionado con los temas estudiados pretenden despertar interés en los adolescentes.
Pacheco Gutiérrez Hector, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

HUELLA DE CARBONO; BENEFICIOS DE IMPLEMENTAR PANELES FOTOVOLTAICOS EN ESTABLECIMIENTOS Y SU EFECTO EN LA SALUD


HUELLA DE CARBONO; BENEFICIOS DE IMPLEMENTAR PANELES FOTOVOLTAICOS EN ESTABLECIMIENTOS Y SU EFECTO EN LA SALUD

Pacheco Gutiérrez Hector, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

La huella ecológica es un indicador biofísico de sostenibilidad integra el conjunto de impactos que ejerce una comunidad humana sobre su entorno, considerando tantos los recursos necesarios como los residuos generados para el mantenimiento del modelo de consumo de la comunidad, por lo cual en este proyecto se tomara la energía eléctrica como tema de estudio donde calcularemos la huella de carbono de los paneles solares en el hogar y establecimientos promedios en cuanto a demanda eléctrica. Hoy en día se sabe que una persona necesita 2.8 hectáreas para vivir, mientras que el planeta solo tiene 1.7 hectáreas para proporcionarnos por persona, lo que implica el riesgo del acceso de futuras generaciones a los recursos de los cuales hoy en día disponemos. La generación de electricidad ocupa el 19% global de emisiones de GEI, por consecuente la implementación de paneles solares hace nulo este ya que la generación de electricidad por estos proyectos, no genera contaminación, mientras que cada kWh producido emite alrededor de 0.56 kg de CO2, multiplicado por 300 kWh que se consumen mensualmente promedio en los hogares.



METODOLOGÍA

Se buscó información en revistas, artículos, investigaciones y otras fuentes de información relevantes y enfocadas a la sustentabilidad como antecedentes de las cuales se pudo enriquecer la investigación con el fin de conocer todo el marco teórico de la huella ecológica y profundizar en la huella de carbono para cumplir con el objetivo. Obtuvimos conceptos como Kilogramos equivalentes a petróleo (KEP) y su medición ya que es así como se expresa la huella de carbono además de toda la anatomía de los sistemas de paneles fotovoltaicos y su funcionamiento. Con la información y conceptos anteriores pudimos también determinar la demanda eléctrica en el sector industrial el cual es el 33.4%, el 34.4% para el sector comercial residencial y público y el 22.6 para el sector agropecuario según la SENER con información preliminar 2016. Posteriormente el ICE es el índice de Consumo Eléctrico de grandes consumidores que, son el conjunto de empresas que tienen un consumo eléctrico medio/alto al contar con una potencia contratada superior a 450 kilovatios (kW), con datos de unos 21.300 puntos de más de 13.000 empresas, así como su desglose por sectores de actividad (actividades industriales y de servicios). La exposición a los contaminantes suspendidos en el aire se asocia con diferentes daños a la salud humana. Los principales componentes de la contaminación atmosférica en los países industrializados, y particularmente en las zonas urbanas, son el dióxido de nitrógeno (procedente de la combustión de hidrocarburos), el ozono (como resultado de la reacción fotoquímica entre la luz solar y algunos gases en la tropósfera) y el material partículado (PM), PM2.5, PM10 y PM0.1. Particularmente, el PM es una mezcla compleja de sustancias que permanecen suspendidas en la atmósfera por periodos variables de tiempo y en el que se han reportado metales, y macropartículas asociadas de origen biológico, de hollín, de cristales de sal, productos de la quema de biomasa o a residuos de la agricultura y otras, típicas de fuentes antrópicas (Alves et al., 2015). La exposición a altas concentraciones de contaminantes puede exacerbar los síntomas de enfermedades de las vías respiratorias, tales como el asma, la enfermedad pulmonar obstructiva crónica (EPOC) y desencadenar cáncer de pulmón, debido a que estos contaminantes ingresan al cuerpo, principalmente por la nariz y boca, y se acumulan dentro del organismo. La magnitud de los efectos depende de las concentraciones que se encuentran en el aire, de la dosis que se inhala, del tiempo y la frecuencia de exposición, así como de las características de la población expuesta (Semarnat, 2014). Aunque, en general, existe menos conciencia pública del impacto de la contaminación atmosférica en la incidencia de otras enfermedades, los niveles altos de contaminantes suspendidos en el aire también pueden aumentar el riesgo de desarrollar afección arterial coronaria e infarto agudo al miocardio, entre otras enfermedades cardiovasculares. Una de las evidencias de estos padecimientos se reportó en el año 2004, en áreas metropolitanas de los Estados Unidos; en las cuales un incremento de 10 μg/m3 en la concentración de PM2.5 se relacionó a un incremento del 18% en la mortalidad por enfermedades isquémicas del corazón en adultos mayores de 30 años. En 2015, de acuerdo con el estudio Carga Global de la Enfermedad, la contaminación por partículas suspendidas en el aire se situó como el quinto factor de riesgo a la salud por el número de muertes prematuras que ocasionó en el mundo. Dicho estudio estimó que en México ocurrieron cerca de 29 000 muertes atribuibles a la mala calidad del aire en ese año (IHME, 2016). En 2014, la huella ecológica alcanzó 20 602 millones de hectáreas globales (2.8 ha/hab), mientras que la biocapacidad sumaba 12 221 millones (1.7 ha/hab); esto resultaba en un déficit ecológico de 8 381 millones de hectáreas (1.1 ha/hab). Lo anterior se interpreta como que la humanidad rebasó, en alrededor del 60%, la capacidad del planeta para mantenerla de forma sustentable. En otros términos, sería equivalente a decir que para el año 2014 se necesitaban 1.6 planetas con una biocapacidad como la del nuestro para sostener los patrones de consumo de la sociedad humana en ese año. De los componentes de la huella ecológica per cápita en el mundo en 2014 (2.84 ha/hab), 20.4% correspondía a la superficie para cubrir las necesidades de pesquerías, tierras de pastoreo, madera y asentamientos humanos, y 19% a la superficie para obtener productos agrícolas. El 60.2% restante (1.71 ha/hab) de la huella correspondía a la superficie necesaria para absorber el CO2 emitido principalmente por la quema de combustibles fósiles.


CONCLUSIONES

La huella de carbono es la medida que se utiliza para medir el impacto que se tiene en el aire principalmente y el medio ambiente. La energía eléctrica convencional es una de las principales fuentes de emisiones de CO2, tiene el 19% del total de emisiones que se liberan a la atmosfera las cuales tiene una alta huella de carbono ocasionando problemas como cambio climático, el cual es el principal factor a la limitación de recursos para futuras generaciones, hablando de recursos como agua, tierras fértiles y calidad del aire. Al implementar los paneles fotovoltaicos estamos contribuyendo a la reducción del 19% de emisiones de CO2, lo cual es fundamental para mitigar enfermedades respiratorias como bronquitis y asma. La huella de carbono en el giro empresarial ocupa el 34% de la demanda eléctrica del 19% antes mencionado, un gran campo de oportunidad para la implementación de paneles fotovoltaicos además de que su TIR es de 3.8 años y tienen una vida útil de 25 años con un poco de mantenimiento.
Pacheco Villanueva Esmeralda, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Mg. Mary Alejandra Mendoza Pérez, Universidad Católica de Colombia

TENDENCIAS INVESTIGATIVAS ASOCIADAS A LA INDUSTRIA 4.0


TENDENCIAS INVESTIGATIVAS ASOCIADAS A LA INDUSTRIA 4.0

González Naranjo César Isaac, Instituto Tecnológico de Colima. Pacheco Villanueva Esmeralda, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Mg. Mary Alejandra Mendoza Pérez, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Las pequeñas y medianas empresas enfrentan desafíos en su intento por usar innovaciones tecnológicas. Este artículo argumenta la importancia del diseño de una herramienta para medir  la adaptabilidad de la industria 4.0 en las SME en Latinoamérica, en sus 34 países se vive de diferente manera el desarrollo, por lo que su nivel de adopción es diferente. Las pymes en América Latina constituyen más del 99,5% del total de las empresas,  la gran mayoría son microempresas (88,4% del total), tienen una participación en el producto interno bruto (PIB) regional de tan solo el 25% comparado con el  56% de la Unión Europea y absorben más del 60% del empleo de la región; (Elorza, 2017). La importancia de las mipymes o SME  en América Latina se fundamenta por la cantidad de empresas y su aporte al empleo. Sin embargo, su contribución a la producción es más limitada, dado que el 75% de la misma es generado por las grandes empresas. En promedio la productividad de las microempresas es apenas el 6% de la de las grandes empresas; en el caso de las pequeñas empresas es un 23% y para las medianas un 46%. Si bien esos valores esconden diferencias entre los países de la región, esas brechas son mucho más altas de las registradas en la Unión Europea.  [ 4 ], la aplicación de una herramienta para medir el nivel de adaptabilidad en las tecnologías de la información en la industria y la matriz energética de los países crea oportunidades de diversificación productiva en las Pequeñas y medianas empresas de Latinoamérica. Hacer énfasis en el conocimiento y desarrollo de esta industria 4.0, mejorar el desarrollo de la tecnología e innovación como elemento determinante de cambio estructural en los planes de desarrollo nacional, así como disminuye la brecha tecnológica que se vive entre las distintas regiones, que sin duda es de ayuda para toda Latinoamérica aun cuando la aplicación de cada país depende de la capacidad para absorber conocimiento para su desarrollo, es el trabajo que se mostrará en este artículo.



METODOLOGÍA

La estructura metodológica de la investigación está integrada por tres fases importantes: Estudio sistemático para la revisión de la literatura, así como profundizar el tema, estudio de hipótesis dentro de este estudiar las variables para establecer hipótesis de evaluación y prueba piloto se desarrolla la herramienta para obtener resultados sobre nuestras hipótesis. 1.Estudio sistemático En Latinoamérica tradicionalmente se han manejado los términos de monitoreo, vigilancia o mapeo tecnológico para referirse a las herramientas de gestión de información enfocadas a la tecnología, sin hacer un clara diferenciación entre los alcances que tienen cada una de ellas.La importancia del entorno tecnológico en los contextos productivos y empresariales, así como la necesidad de un enfoque sistemático para la observación y evaluación de tecnologías han sido, sin duda, aspectos reconocidos en los modelos de gestión moderna (Aguilar, 1967; Ansoff, 1975).[1] En este caso, el sistema sistemáticos se orientó en la metodología planteada para la recopilación de información, basada en la obtención de artículos relacionados utilizando la siguiente bitácora de búsqueda en las bases de datos de SCOPUS y ScienceDirect, en la tabla 3 se muestran los resultados de la búsqueda.  La estructura de metodológica desarrollada para la consolidación de la vigilancia tecnológica aplicada a las ecuaciones, observar, analizar y utilizar la información según Palop,Martinez y Bedoa (2012), el análisis de artículos de revisión sobre la identificación del concepto de una herramienta de evaluación de la industria 4.0 en las pequeñas y medianas empresas (SME) de latinoamérica. 2.Estudio de hipótesis Se plantearon 8 hipótesis para la prueba piloto, con el objetivo de medir el nivel de adopción de las tecnologías de la industria 4.0 en las Pequeñas y Medianas empresas de latinoamérica, con esto determinar qué variables de análisis son las que tiene mayor peso en el nivel de adopción. 3.Prueba piloto  Para el desarrollo definición de la industria 4.0 es la integración técnica de sistemas ciber-físicos en la manufactura y la logística y el uso del Internet de las cosas y de los Servicios en los procesos industriales Kagermann, Wahlster & Helbig (2013) [ 20 ], existen 3 usos de la industria 4.0, el uso de las tecnologías, para monitorear continuamente procesos desde logística interna y externa, producción y procesos autónomos dependiendo de los cambios en el ambiente.


CONCLUSIONES

La información encontrada en esta investigación nos llevó a concluir que el tema abordado fue de aportación importante para las SME de latinoamérica para que tengan conocimiento y actualización de estas tecnologías que abarca la industria 4.0. Se encuentra dentro de la prueba piloto, la ausencia de información sobre esta revolución industrial, se reconoce la cultura de los empresarios y sus colaboradores  al resistirse al uso de las tecnologías por miedo a ser reemplazados. La obtención de la herramienta da incapie en el cambio o mejora de la información que las SME pueden obtener para  ser accesibles a adoptar las tecnologías y metodología que brinda la industria 4.0.
Padilla Muñoz Karen Dali, Universidad Autónoma de Sinaloa
Asesor: M.C. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas

MORTERO FUNCIONAL PARA LA CONSTRUCCIóN CON TIERRA: PRUEBAS DE REMOCIóN DE ION CLORURO


MORTERO FUNCIONAL PARA LA CONSTRUCCIóN CON TIERRA: PRUEBAS DE REMOCIóN DE ION CLORURO

Martínez López Carlos Eliel, Instituto Politécnico Nacional. Padilla Muñoz Karen Dali, Universidad Autónoma de Sinaloa. Santin Olivares Daniela Xcanleox, Instituto Politécnico Nacional. Asesor: M.C. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

​La construcción con tierra es una técnica que está tomando relevancia en la época actual debido a las condiciones de contaminación inherentes a la construcción denominada tradicional con concreto y acero. Este tipo de construcciones tienden a aplicar técnicas modernas de estabilización de los materiales para aumentar su vida útil o su resistencia mecánica. Además, se ha buscado cierta funcionalidad en los elementos constructivos, como mejoras en la conductividad térmica, aislamiento sonoro o reducción del crecimiento de microorganismos al interior de las viviendas. Con el fin de hacer prevalecer el uso de materiales orgánicos biodegradables, el reforzamiento y funcionalidad de estos materiales considera el uso de elementos de origen vegetal como fibras de diferentes plantas o la adición de extractos. En este trabajo, se realizó una prueba de interacción roca-fluido con el objetivo de analizar la capacidad de remoción del ion cloruro en núcleos de arena y su comparativo reforzado con cal y cemento, adicionando dos diferentes materiales de origen orgánico. El mucílago de nopal es un material empleado para mejorar la resistencia mecánica de los elementos constructivos con tierra y ha sido ampliamente estudiado en conjunto con otros elementos orgánicos. El extracto de rábano es un material que hasta ahora no ha sido empleado en la construcción pero que ha sido empleado en diferentes aplicaciones sobre todo en el área de la microbiología y uso de antioxidantes. En investigaciones previas se ha demostrado la capacidad del extracto de rábano y las antocianinas contenidas en el, para reducir la materia orgánica en cuerpos de agua, si eficacia como agente antimicrobiano, así como su capacidad de remoción del ion cloruro. El objetivo de esta investigación fue determinar si la adición del extracto de rábano en un mortero de tierra estabilizado con cal y cemento y reforzado con mucilago de nopal, logra tener interacción con los iones cloruro en medio acuoso.



METODOLOGÍA

En este trabajo, se empleó el sistema Home Lab(laboratorio en casa) para realizar pruebas de remoción de ion cloruro en medio acuoso a partir de mezclas salinas con cloruro de sodio en hasta 3500 ppm. El medio solido representativo constó de núcleos conformados como sigue: arena, arena + cal, arena + cemento y arena + cal + cemento. Adicionalmente se obtuvieron extractos de rábano y de mucilago de nopal. El mucílago de nopal se obtuvo por tratamiento térmico y licuefacción de nopal de consumo y el extracto de rábano se obtuvo por tratamiento ácido y licuefacción. El mucílago de nopal fue empleado como aglutinante en las mezclas y se variaron las adiciones de extracto de rábano para determinar su efecto en la interacción sólido-líquido. Los núcleos se prepararon con adiciones de 10, 20 y 30 mL de extracto de rábano y las pruebas de interacción se realizaron con agua destilada (como blanco) y mezclas salinas preparadas con 3500 ppm teóricas de cloruro de sodio (NaCl). Las pruebas de interacción se siguieron cada 10 minutos por periodos de 1 h y se determinó el contenido de sólidos disueltos totales (SDT) con sensor TDS portátil. El objetivo fue observar una disminución de las partes por millón de SDT a través del tiempo, con la hipótesis que la presencia del extracto de rábano y la porosidad del material promovería este efecto. Los resultados arrojaron que la presencia de cal y/o cemento en la mezcla promueve la adición de sólidos disueltos en la mezcla salina, que es lo contrario al efecto buscado. Además, en las pruebas de blanco, sin la presencia de ion cloruro, el efecto de interacción fue menor que en presencia de este ion, es decir, en agua sin NaCl la cantidad de SDT fue mucho menor que en el resto de las pruebas.


CONCLUSIONES

La idea original del proyecto era trazar la presencia del ion cloruro en el medio acuoso empleando el método de Mohr de titulación. Sin embargo, por las condiciones de pandemia, lo más viable fue dar seguimiento a los sólidos disueltos totales (ppm) presentes en dicho medio. Aunque los resultados no comprueban la hipótesis y no se logra el objetivo buscado, se puede concluir que efectivamente el material adicionado con mucilago de nopal y extracto de rábano presenta cierta interacción con los iones disueltos en el agua y que además, existe un comportamiento muy especifico que hasta el momento no puede referirse a la no remoción del ion cloruro, si no a la aparición de sólidos disueltos en el agua, que bien pueden deberse a la presencia de los materiales orgánicos o a la presencia misma de los agregados. Este trabajo debe concluirse aplicando la metodología del método de Mohr para verificar el comportamiento de la presencia de los iones cloruros y observar que es lo ocurre con estos iones presentes en el agua. Además, se debe completar la prueba realizando el análisis microbiológico para determinar si la propiedad antimicrobiana también se aprecia en este tipo de muestras y concretar la factibilidad del uso del extracto de rábano en morteros para interiores de vivienda. La idea principal del trabajo fue poder desarrollar evidencia de la capacidad de estos materiales para la remoción del ion cloruro y poder emplearlos en sistemas constructivos que se encuentran sometidos a ambientes salinos. Hasta ahora se puede abordar una idea general a partir de los resultados obtenidos: la presencia de agregados finos reduce la porosidad del material y por lo tanto reduce su capacidad de interacción por reducción de área superficial activa, sin embargo, la presencia de los agregados finos produce una evolución de los sólidos disueltos, lo que significa que puede existir un intercambio iónico fuerte que promueve la reducción y entrampamiento del ion cloruro en el material. Durante esta estancia de verano, los estudiantes fueron capaces de aplicar sus conocimientos en el área profesional para el desarrollo de elementos constructivos, desarrollaron además habilidades científico-tecnológicas para subsanar la necesidad de un laboratorio para el desarrollo de pruebas, lo cual es ideal para su extrapolación en la solución de problemas cotidianos en el área de la investigación.
Palacio Hernández Jair David, Corporación Universitaria Rafael Núñez
Asesor: Dr. Víctor Manuel Rubalcava Domínguez, Universidad Autónoma de Tamaulipas

CAPACITACIóN: SU APLICACIóN PARA LA COMPETITIVIDAD DE LA MICRO, PEQUEñA Y MEDIANA EMPRESA (MIPYME) METALMECáNICA


CAPACITACIóN: SU APLICACIóN PARA LA COMPETITIVIDAD DE LA MICRO, PEQUEñA Y MEDIANA EMPRESA (MIPYME) METALMECáNICA

Palacio Hernández Jair David, Corporación Universitaria Rafael Núñez. Asesor: Dr. Víctor Manuel Rubalcava Domínguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La meta de esta investigación es conocer y analizar la importancia que tiene la capacitación en las Micro, Pequeñas y Medianas Empresas (MiPyME) metalmecánicas de Cartagena, Colombia para lograr ser competitivas en los mercados a nivel nacional e internacional. El ámbito correspondiente al estudio de las empresas que cuentan con extensión y características menores a los grandes consorcios de producción, ha evolucionado en las últimas décadas a nivel mundial. Estudios como los de Neck (1978), Pickle y Abrahamson (1988), Kirby (1990) y Pardo, Salle y Spencer (1995) demuestran la importancia generada por las empresas pequeñas y medianas, en las últimas décadas del siglo XX. Diferentes investigadores, como Lim (1987), García de León (1988) y Rodríguez (1989), aportaron sus trabajos desde una perspectiva de economías en vías de desarrollo como lo son Asía y Latinoamérica, donde prevalece la figura de la PyME en el nuevo entorno económico globalizador. De acuerdo con la información obtenida en el portal web de Economía Aplicada. En Colombia en el año de 2019 existían alrededor de 1 millón 620 mil empresas, 6793 grandes, 109 mil pymes y 1.5 millones de microempresas. La estructura y evolución del número de empresas por sectores muestra que, aunque la dinámica reciente registra un menor ritmo si se compara con el período 2011-2015, el número de empresas nuevas crece en actividades como energía o economía naranja. A Cartagena en Colombia se le considera con una de las ciudades con mayor desarrollo, cuenta con una buena línea costera, con formaciones insulares y algunas bahías, su situación económica es fuerte y heterogénea, contiene una amplia gama de sectores destacando la industria, el comercio y los servicios turísticos, una buena parte de sus actividades se realizan vía marítima por su ubicación con el Mar Caribe. En Cartagena, según la página web del Sistema Estadístico Nacional (SEN) en junio de 2019, existían 133 empresas, distribuidas de la siguiente forma: Pequeñas (124 Empresas) Medianas (6 Empresas) Grandes (2 Empresas) Corporativas (1 Empresas) La metalmecánica La metalmecánica es el sector que comprende las maquinarias industriales y las herramientas, siendo proveedoras de las demás industrias metálicas que conforman las actividades productivas colombianas. De esta manera, el metal y las aleaciones de hierro son el insumo básico para la utilización de bienes en el capital productivo. De acuerdo con Metal Mind (2020), la importancia de la metalmecánica, radica en la relación que tiene con otras industrias, de hecho, se considera como una de las pioneras, ya que provee de material e insumos a la industria manufacturera, automotriz, agrícola y minera, por esta razón los países mejor desarrollados industrialmente tienen un excelente sector metálico. En este mismo sitio web, Este sector metalmecánico ofrece diferentes tipos de servicios, entre ellos se encuentran: – Fabricación y montaje de productos tales como: repuestos y autopartes de vehículos, refrigeradores, aires acondicionados industriales, congeladores y receptores de radio para aparatos de telefonía. – Soluciones metalmecánicas para las industrias del petróleo, térmicas y cementeras. – Reconstrucción de maquinarias pesadas por medio de la reconstrucción de motores, barras cromadas, reparación de hidráulicos y rectificación de maquinarias en general. – Provee de maquinarias e insumos a la mayoría de las actividades económicas para su reproducción, entre ellas, la industria manufacturera, construcción, complejo automotriz, minería y agricultura. De acuerdo al Sistema Estadístico Nacional (SEN), Cartagena cuenta aproximadamente con 230 empresas de tamaño mediano, pequeño y micro del sector metalmecánico. Para Álvarez y González (2018), dentro de la actividad manufacturera en Colombia, la cadena metalmecánica ocupa un renglón muy importante. Este subsector está compuesto en gran parte por PyMEs dedicadas a diferentes etapas de la cadena con diferentes productos. Su papel en la industria en general es fundamental como proveedor de productos y servicios para otros encadenamientos industriales como la construcción, la petroquímica, entre otros. Esta cadena es la más diversificada de la manufactura en el país en cuanto a los procesos productivos y productos finales, los cuales van desde la manufactura metálica simple hasta bienes de alto diseño y tecnología demandados por otros sectores de la economía nacional. Hablando actualmente la cantidad de empresas existentes en la ciudad de Cartagena en la industria metalmecánica es de 34 empresas, las cuales están distribuidas de la siguiente forma en distintas localidades: TURBACO (17 Empresas) MAGANGUE (6 Empresas) CICUCO (2 Empresas) SAN JUAN NEPOMUCENO (2 Empresas) BARCELONA (1 Empresa) BARRANCO DE LOBA (1 Empresa) BOLIVAR (1 Empresa) SANTA CRUZ MOMPOX (1 Empresa) SANTA ROSA DEL SUR BOLIVAR (1 Empresa) SANTA ROSA (1 Empresa) TURBANA (1 Empresa)



METODOLOGÍA

En este estudio se utiliza una metodología descriptiva simple, a través de la búsqueda de información correspondiente a los temas de; capacitación, micro, pequeña y mediana empresa, competitividad y a la evaluación de variables como: - Datos generales de la empresa - Perfil del empresario - Tecnología utilizada en la empresa - Capacitación ofrecida por la empresa - Nivel de competitividad en la empresa Para elaborar este trabajo de investigación, se determinó un muestreo simple aleatorio consistente en: - Población de empresas micro, pequeñas y medianas del ramo manufacturero en la Zona de Cartagena, Colombia. 920 - Población de empresas micro, pequeñas y medianas pertenecientes a la actividad de metalmecánica en la ciudad de Cartagena: 34. - Población de empresas micro, pequeñas y medianas pertenecientes a la actividad de metalmecánica, que han participado en la aplicación y promoción de procesos y programas de capacitación en los últimos tres años: 52. Con estas procederemos a calcular la muestra para saber a cuántas empresas se debe entrevistar. Aplicamos muestreo probabilístico simple: N= 4PqN/E^2(N-1)+4pq Con el fin de determinar la confiabilidad del cuestionario que se aplicó a las empresas se procedió a realizar el análisis de confiabilidad utilizando la Prueba Alfa de Cronbach, con la ayuda del paquete estadístico SPSS.


CONCLUSIONES

Debido a la pandemia por la que atraviesa el mundo, Cartagena no es la excepción, por lo que a la fecha nos es imposible completar el trabajo de campo, por lo que se está buscando entablar comunicación vía internet con las Cámaras Empresariales y ñas empresas mismas para que permitan a sus directivos y empleados responder por este medio los cuestionarios con la finalidad de obtener las conclusiones.
Palafox Méndez Marcela Guadalupe, Instituto Tecnológico Superior de Los Reyes
Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica

ESTIMACIóN DE PRODUCTOS FINALES A TRAVéS DE REGRESIóN NO LINEAL COMO HERRAMIENTA DE TOMA DE DECISIóN EN LA PRODUCCIóN DE CARNE DE CANGREJO PRECOCIDA (CALLINECTES SAPIDUS).


ESTIMACIóN DE PRODUCTOS FINALES A TRAVéS DE REGRESIóN NO LINEAL COMO HERRAMIENTA DE TOMA DE DECISIóN EN LA PRODUCCIóN DE CARNE DE CANGREJO PRECOCIDA (CALLINECTES SAPIDUS).

Carranza Guillermo Miriam, Tecnológico de Estudios Superiores de Valle de Bravo. Palafox Méndez Marcela Guadalupe, Instituto Tecnológico Superior de Los Reyes. Vian Arcos Joselin, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El lago de Maracaibo está conectado al mar Caribe del que recibe agua salada, lo que le otorga su condición de estuario, en él habitan seis especies de cangrejos del género Callinectes, pero es C. sapidus la especie dominante en las capturas con más del 90% del total, tiene importancia económica en América, especialmente en México y en Estados Unidos, el cual es considerado como el primer productor mundial.  Una planta industrial ubicada en el occidente de Venezuela, comercializa este cangrejo en cuatro presentaciones distintas; Jumbo; Lump; Claw y Cocktail claw. Resulta difícil para la empresa precisar la cantidad final que se obtendrá de cada producto y presenta dificultades a la hora de las estimaciones de costos y tiempos tanto de producción y logística así como tiempo de vida en anaquel. Es por ello que durante el verano de investigación se trabaja con el objeto de establecer ecuaciones de predicción para cada uno de los productos de esta empresa, que permitan con suficiente antelación adelantar estimaciones sobre las necesidades antes mencionadas.



METODOLOGÍA

Para la recopilación de datos se tomaron 22 días como prueba piloto, tomando en cuenta la trazabilidad entre el producto recibido y el terminado, se garantizo la validez de las estimaciones para que ambos valores estuvieran dentro del mismo código de lote. Respecto a la selección de variables resultaron más evidentes como predictoras los kg de cangrejo recibido y el aceptado. Mediante una prueba de correlación de Pearson (r), se logró establecer que la variable independiente ideal para realizar la predicción es los kg de cangrejo aceptados. Se tabularon los datos en una hoja de cálculo electrónica, y fueron analizados con el uso de la herramienta de selección de modelo de regresión de STATGRAPHIC V.18.a través del valor del coeficiente de determinación (>R2).  La variable independiente se determina durante la recepción, lo cual permite su uso de forma oportuna para la predicción de los productos con una antelación de 12-16 horas.Los valores de relación observada entre los kg de cangrejo aceptado y los productos resultaron ser muy fuerte, positiva y altamente significativa (P<0,01). Tabla 1. Tabla 1. Ecuaciones de regresión y parámetros de bondad de ajuste Producto   Coef. de correlación (r)      Significancia JUMBO                0,99                                     ** LUMP                   0,97                                     ** CLAW                   0,98                                    ** COCKTAIL            0,99                                    ** ** Altamente significativo (P<0,01). Las ecuaciones ajustadas para la estimación de los productos se describen en la tabla 2. Tabla 2. Ecuaciones de regresión Producto                               Ecuación                         Significancia JUMBO      JUMBO=(5,011935+0,00417352*ACEPTADO)2         ** LUMP         LUMP= (1195,52+0,00401348* ACEPTADO2)           ** CLAW         CLAW= (-727,679+0,0027282* ACEPTADO2)            ** COCKTAIL  COCKTAIL= (-0,49883+0,198647* ACEPTADO )2     ** ** Altamente significativo (P<0,01). Se obtuvieron cuatro ecuaciones de regresión no lineal, pasando por ecuaciones de tipo raíz cuadrada de Y (Y = (a + b*X) 2: Jumbo), doble cuadrado (Y = sqrt(a + b*X2: Lump y Claw) y raíz cuadrada doble: Y = (a + b*sqrt(X))2: Cocktail). Todos los modelos ajustados resultaron altamente significativos (P<0,01), y con alto coeficiente de determinación (R2). Y la igualdad entre los valores observados y los valores predichos a través de las ecuaciones descritas se contrastó mediante la prueba de T de Student para muestras independientes, resultando no haber diferencia significativa. Se realizaron pruebas de normalidad para datos no censurados, optando por la prueba de Anderson-Darling (A2), una prueba muy potente estadísticamente para muestras de tamaño =< 30, ya que el tamaño muestral de los datos analizados fue de 22. Los parámetros de bondad de ajuste para las ecuaciones determinadas se pueden observar en la tabla 3. Tabla 3. Parámetros de bondad de ajuste Producto   Coef de determinación (R2)        RSSa             TSSb JUMBO                         0,98                              7,011            436,22 LUMP                            0,96                           1,450*E-8      3,347*E-9 CLAW                            0,98                           5,435*E-7     2,240*E-9 COCKTAIL                     0,95                              6,50            135,75 a. RSS: suma de cuadrados de residuales. b. TSS: suma de cuadrados totales. Los resultados obtenidos de la prueba de Anderson-Darling sugieren que los residuos obtenidos de las estimaciones realizadas no se desvían una distribución normal, de igual forma puede corroborarse que los valores de la suma de cuadrados de residuales (RSS) representa una fracción muy pequeña de la variabilidad total (TSS), lo cual consolida la habilidad de las ecuaciones descritas para explicar la variabilidad de los datos estudiados. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de estadística y ponerlos en práctica con las técnicas de análisis y el uso del programa de selección de modelos de regresión de STATGRAPHIC (V.16).  Para la selección del mejor modelo en cada producto se utilizaron como parámetros de bondad de ajuste el coeficiente de determinación (R2) y la suma de cuadrados residual (RSS). Se obtuvieron ecuaciones de regresión no lineales altamente significativas (P<0,001), que permitieron la estimación de los productos con elevados niveles de determinación (0,95-0,98 R2) y bajas sumas de cuadrados de residuales. Pruebas de t de Student verificaron la diferencia no significativa entre los valores observados y los valores estimados a través de las ecuaciones determinadas, igualmente se estableció la normalidad de la distribución de los residuales de las estimaciones. Por lo que se concluye que la técnica de regresión no lineal provee importantes elementos para la toma de decisiones oportunas en el proceso de producción de carne de cangrejo precocida.
Pantoja García David Antonio, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Horacio Gómez Rodríguez, Universidad de Guadalajara

ROBóTICA, INTERNET DE LAS COSAS Y DIFUSIóN DEL INTERéS POR LA TECNOLOGíA EN ESTUDIANTES DE EDUCACIóN BáSICA.


ROBóTICA, INTERNET DE LAS COSAS Y DIFUSIóN DEL INTERéS POR LA TECNOLOGíA EN ESTUDIANTES DE EDUCACIóN BáSICA.

Pantoja García David Antonio, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En un mundo interconectado, complejo y tecnológicamente imparable como en el que habitamos, las tecnologías que implementan el Internet de las Cosas cobran una relevancia aún mayor, volviéndose indispensables para la Industria 4.0, la domotización, ciudades y dispositivos inteligentes -citando a los vehículos autónomos-. Esta creciente tendencia se encuentra fuertemente presente en países del primer mundo; sin embargo, en México sigue siendo ignorada por la mayoría del grueso poblacional y el gobierno mismo, carente de estrategias adecuadas y viables para promover la cultura de la investigación científica/tecnológica en niños de educación básica, lo cual agravará eventualmente la brecha educativa, cultural, económica y tecnológica entre las naciones. Por esto, se torna imperativo no solo ofrecer proyectos que impliquen robótica e Internet de las Cosas aplicables al panorama nacional, sino también poseer estrategias realistas que acerquen a los más jóvenes a la tecnología para fomentar el interés en la continuación de sus estudios, la innovación y las ciencias.



METODOLOGÍA

Los tópicos medulares en los cuales se centró la estancia Delfín fueron: Robótica simplificada para niños y jóvenes. Internet de las Cosas. Xbee y Zigbee. Por ello, en la primera mitad de la estancia se comenzó trabajando con dispositivos Mbot, Mblock y -en menor medida- Scratch, indagando especificaciones físicas y técnicas de las piezas componentes del primero, así como realizando algunas prácticas sencillas en los últimos dos que, complementando con diapositivas apropiadas que incentiven el interés, tienen por objetivo ser mostradas a estudiantes de primarias delos alrededores de Tepatitlán de Morelos, Jalisco (ubicación del campus de la Universidad de Guadalajara) en los meses próximos. Dichas diapositivas fueron revisadas y adecuadas para garantizar la comprensión de los individuos especificados, quienes tendrán la posibilidad de emplear los Mbots adquiridos por el Cuepo Academico para adquirir conocimientos prácticos y reforzar la teoría abarcada en la presentación. Para propiciar la síntesis de la información en cuanto a programación en los jóvenes -potencialmente novatos en el ámbito-, se planea además ofrecer fundamentos en el entorno Scratch, software sobre el cual se basa Mblock, (Programación con bloques), que presenta la significativa ventaja de ser un lenguaje gráfico y altamente intuitivo, y que es útil para desarrollar la lógica y comprender las estructuras básicas de programación aplicables a otros lenguajes, tales como C, Python, Java, C#, y Arduino, por nombrar algunos. El plan de trabajo para aproximar la juventud a la robótica ya ha sido trazado internamente en la Universidad, y se espera implementarlo apenas sea autorizado por las primarias seleccionadas y sea permitida la impartición de cursos presenciales. La segunda mitad de la estancia Delfín se centró en el Xbee, Zigbee y el Internet de las Cosas 2.0, un curso ofrecido por la Universidad de Guadalajara a través de la plataforma Cisco Networking Academy. El módulo Xbee, que a su vez emplea el protocolo de comunicación Zigbee, ha tomado popularidad en los últimos años gracias a la facilidad con la que es instalado en diversidad de proyectos, la versatilidad para configurarlo según conveniencia y su impresionante aplicación en la creación de masivas redes de sensores con respuesta en tiempo real. Si bien Zigbee no ha sido tan reconocido como Bluetooth, las ventajas que presenta pueden beneficiar a desarrolladores de prototipos de diversas áreas que requieran monitores extensos. En la estancia se planeó emplearlos en un proyecto de invernadero automatizado, aunque por limitantes de recursos, tiempo y entornos no pudo concretarse. Con respecto al Internet de las Cosas (IoT), cabe señalar que guarda estrecha relación con el Xbee y la automatización, llevando a éstos al siguiente nivel al interconectar multitud de dispositivos coordinados para crear entornos inteligentes, tales como automóviles, casas, e incluso ciudades enteras. Comprender la relevancia, utilidad y aplicaciones del IoT en la vida cotidiana, y más específicamente, en la carrera de electrónica, cobra importancia al observar el mundo en constante innovación y el papel de los ingenieros, investigadores y desarrolladores en la evolución exponencial de las tecnologías. Sin embargo, también es preciso atender a las vulnerabilidades inherentes a los dispositivos inteligentes y sensores conectados a una red que, de no administrarse adecuadamente, representan un potencial riesgo a la privacidad de los usuarios. La aplicación del IoT en el campo de la electrónica es extenso, muy probablemente ilimitado, y al tratarse de una tendencia en actual desarrollo es conveniente comprenderla e inculcarla en los futuros ingenieros (factor por el cual guarda relación con la introducción de los niños a los Mbot y la robótica).


CONCLUSIONES

En la estancia virtual de la edición 2020 del Programa Delfín se logró la introducción a la tecnología Mbot y los entornos Mblock y Scratch, los cuales desconocía por completo anteriormente, y se concretó el contenido que le será mostrado a los alumnos de educación básica tan pronto como las condiciones lo permitan, estando ya adecuado para su correcta comprensión y esperando que, lo que se aborde durante los cursos, logre despertar en ellos el interés por la tecnología -llámese robótica, electrónica, programación o redes-. Desde una perspectiva más personal, el curso de IoT 2.0 será crucial en el desarrollo de mi carrera (ingeniería electrónica), especialmente en los proyectos de domotización y automatización que hay planeados, siendo además benéfico para el enfoque en energías renovables que tiene actualmente el Tecnológico de Uruapan.
Paredes Alarcón Gabriel, Instituto Politécnico Nacional
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

CONCRETOS RECICLADOS EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL EN ZACATECAS.


CONCRETOS RECICLADOS EN LA REGIóN OCCIDENTE DE MéXICO. SITUACIóN ACTUAL EN ZACATECAS.

Paredes Alarcón Gabriel, Instituto Politécnico Nacional. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, la gestión de residuos sólidos ha sido un tema alarmante, ya que trae consigo diversos problemas ambientales en diversas partes del mundo, esto debido a un acelerado crecimiento de la población y con ello la demanda de bienes y servicios, así como la generación de residuos. Diversos países  han presentado gran cantidad de investigaciones acerca del uso de agregados de concreto reciclado (RCA) en la construcción, obteniendo como resultado un posible implemento de estos RCD como agregado grueso para un concreto reciclado (CR), pudiendo ser totalmente comparado con un concreto tradicional con  grandes ventajas ambientales con respecto a su uso. Dentro de México, la generación de desechos es un tema de suma importancia, y nos encontramos en una situación que se debe atender. Sin embargo en este presente documento nos enfocaremos en la generación de residuos de construcción y demolición (RCD) dentro del estado de Zacatecas, debido a que la industria de la construcción es responsable de un 25 % de desechos, (principalmente RCD), desechos que tienen una mala administración en cuanto a su manejo o disposición, dejándolo sin utilidad.



METODOLOGÍA

Este tipo de investigación es del tipo descriptivo, ya que se pretende conocer a detalle la situación del concreto reciclado en el estado de  Zacatecas, debido a que Zacatecas cuenta con 146 147 habitantes repartidos entre sus 58 municipios, se decidió llevar el estudio dentro de la capital de Zacatecas (Zacatecas) ya que presenta una mayor cantidad de población  y un significativo desarrollo con respecto a la industria de la construcción. En cuanto a la búsqueda de información, se aplicaron diferentes estrategias  para este propósito, las cuales se explicaran a continuación. Búsqueda de literatura especializada internacional, nacional y local De primera instancia, se realizó una búsqueda de información especializada de forma internacional, nacional y local (consultada en tesis o artículos) acerca del uso de concretos reciclados, para esto se elaboró una ficha cuyos campos principales son: título, tipo de documento (artículo, tesis), año de publicación, lugar del estudio, tipo de estudio (ambiental, técnico, económico), uso de RCA en RAC ( agregado pétreo, cementante ), Tratamiento de RCA (triturado, fragmentación eléctrica, no especificado ), % de sustitución de RCA y sus principales hallazgos. Ficha para bancos de materiales El estudio de bancos de agregados naturales que se utilizan en la construcción de obras en la zona de estudio, se hizo basándose en una ficha que contempla los siguientes datos: número de banco y nombre, ubicación, fecha de estudio y fecha de actualización, tipo de propietario, tipo de material, tratamiento, volumen x 1000 m3, usos probables, uso de explosivos, restricciones ecológicas, aspecto económico, croquis de localización y su distancia al área de estudio y finalmente información adicional con respecto procesos de producción, tipo de materiales, así como sus costos. Estos datos fueron obtenidos del inventario de bancos de materiales, de la Secretaria de Comunicaciones y Transporte (SCT) en Zacatecas. Se identificaron 15 bancos de materiales en la periferia de la ciudad. Solicitud de información a dependencias ambientales municipales y estatales La solicitud fue enviada a la Secretaría de Obras Públicas y a la Secretaria de Agua y Medio Ambiente. La información solicitada es sobre el número sitios de disposición autorizados, centros de acopio y reciclado para RCD en Zacatecas, así como la ubicación de éstos. Encuesta sobre RCD y Encuesta a la población sobre uso de CR Para tener un panorama más amplio acerca de la generación de RCD y las prácticas que se implementan para la gestión de éstos en cualquier tipo de obra civil, por lo que se realizó una encuesta  de forma electrónica a las empresas constructoras más influyentes dentro de Zacatecas, mandando esta encuesta a 15 empresas. La encuesta constó de 6 secciones: datos de la empresa, generación de Residuos de la Construcción y Demolición (RCD), reutilización y reciclaje, disposición final y transporte.  Secciones que tenían como finalidad conocer acerca de la generación, manejo, transporte y costos asociados a los RCD que llevaban las empresas. En cuanto a la encuesta a la población está en línea y su objetivo es conocer la opinión de la población de Zacatecas acerca de la utilización de concretos reciclados en obras civiles. Se solicitó  datos con fines estadísticos de los participantes para después se recopilar información acerca de patrones respecto al reciclaje de productos y los aspectos que toman en cuenta al comprar o consumir un producto y finalmente saber la opinión de los encuestados  acerca del implemento de concretos reciclados en las obras de construcción. Los resultados de esta encuesta son a sólo 6 días de su publicación, pero se pretende extender el periodo de aplicación.


CONCLUSIONES

Con este estudio se logró adquirir un conocimiento teórico con respecto al implemento de concretos reciclados dentro de Zacatecas, estudiando diversos factores que puedan participar en el uso de RCD en la construcción, existen algunos documentos y leyes que sustentan el uso de concretos reciclados, pero que de alguna manera, no se ha contado con un implemento correspondiente. En cuanto los resultados de la encuesta aplicada a los residentes de Zacatecas, se indica que el 100% de encuestados realiza actividades relacionados con el sector de la construcción y vive en zonas urbanas, el 75 % considera que el reciclaje es una medida de gestión ambiental que debería implementarse en cualquier tipo de industria y además conoce qué es el concreto reciclado. El 100% de los que conocen lo que es el concreto reciclado consideran que es una buena alternativa y que debería utilizarse en obras de construcción en México,  de los cuales 40% considera que deberían implementarse en obras de urbanización y edificación residencial y sólo el 20% de obras de infraestructura.
Paredes Velarde Irene, Universidad de Guadalajara
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

DISEñO CONCEPTUAL DE UN SISTEMA GENERADOR POR COMBUSTIóN DE BIOMASA VEGETAL Y ALGAL ACOPLADO A MICRO TURBINA CON COLECTOR SOLAR.


DISEñO CONCEPTUAL DE UN SISTEMA GENERADOR POR COMBUSTIóN DE BIOMASA VEGETAL Y ALGAL ACOPLADO A MICRO TURBINA CON COLECTOR SOLAR.

Paredes Velarde Irene, Universidad de Guadalajara. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

·Planteamiento del problema Hoy en día, la creación de energía mediante la biomasa sigue es un tema de importancia en puesto que es un medio que tiene una particularidad en la similitud de la composición química con los combustibles fósiles es por eso que se contempla como un recurso idóneo en la sustitución de hidrocarburos y convertirse en una principal fuente de bioenergía, siendo como resultado del aumento en la demanda de energía.  Este aumento energético sigue siendo cada vez mayor, sin embargo, aunque se trate de mantener un precio constante dentro de los combustibles fósiles sin importar la oferta -demanda de que existe en este sector y sin importar la necesidad de disminuir los daños que generan las emisiones de gases de efecto invernadero [3] [4]  La solución más adaptable a la sustitución actual sobre la producción de  combustibles fósiles los cuales forman parte importante del desarrollo energético actual, es generar bioenergéticas    



METODOLOGÍA

Marco metodológico ·1-Selección de la biomasa. -Selección de los residuos de acuerdo a la cantidad de producción de los productos agrícolas. -Determinación de las propiedades termoquímicas 2- Descripción del proceso de conversión de energía   -Identificación de los pretratamientos -Selección del proceso termoquímico 3-Preparacion para la producción de los biocombustibles 4-Selección del tipo de horno para cada biomasa 5-Seleccionar el tipo de microturbina 6-Seleccionar el tipo de colector solar 7-Modelado del diseño teórico 8-Modelo económico del sistema generador 9-Diseño propuesto del diagrama del sistema hibrido generador de energía


CONCLUSIONES

  Análisis y Resultados Referente a este proyecto se puede concluir que aún queda mucho por investigar, así como crear avances en innovación y desarrollo tecnológico, ya que aún no se logra desarrollar un sistema generador de energía que pueda ser 100% eficiente y a demás pueda ser rentable para su aplicación en los países productores de biomasa residual o algal.  
Partida Pérez Rauel, Universidad Tecnológica de Nayarit
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL


IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL

Aguilar Ordaz Ramiro, Instituto Politécnico Nacional. Cruz Garcia Ivan Alberto, Instituto Politécnico Nacional. Gálvez Parra Kevin, Instituto Tecnológico de Culiacán. Gutiérrez Zazueta Héctor Manuel, Instituto Tecnológico de Culiacán. Partida Pérez Rauel, Universidad Tecnológica de Nayarit. Pérez Rios Yotziri Paloma, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

Se plantea como objetivo general la identificación de personas desaparecidas mediante inteligencia artificial. Coadyubando con técnicas de bases de datos y programación.



METODOLOGÍA

La metodología aplicada consta de seis puntos fundamentales descritos a continuación:  El experto en seguridad ingresará la información de la persona en cuestión dentro del sistema. El sistema procesa la información lo que hará que se eliminen elementos no deseados. El sistema clasificará la información en función de sus puntos de referencia, por ejemplo, la longitud de la línea de la mandíbula y la distancia entre los ojos con una precisión de por lo menos 95%. El sistema realizará una búsqueda coincidente a través de la base de datos. El sistema envía la alerta a autoridades. El sistema guarda registro de evento en base de datos.


CONCLUSIONES

Como parte de los resultados del Verano Cientifíco 2020, se enlistan los siguientes: Se construyó y entrenó el modelo inteligente. Montar un servidor que contenga la base de conocimiento y el modelo inteligente. Se construyó un sistema de notificaciones. Se realizaron las pruebas que garantizan la correcta funcionalidad del sistema.
Pascuales Figueroa Sasha Marcela, Universidad Antonio Nariño
Asesor: M.C. Ricardo Ramón Martinez Molina, Instituto Tecnológico Superior de Cintalapa

LA CREATIVIDAD Y LA INNOVACIÓN, UN BINOMIO DETONANTE EN EL PROCESO DE DESARROLLO DE PRODUCTOS INNOVADORES EN LA INDUSTRIA ALIMENTARIA


LA CREATIVIDAD Y LA INNOVACIÓN, UN BINOMIO DETONANTE EN EL PROCESO DE DESARROLLO DE PRODUCTOS INNOVADORES EN LA INDUSTRIA ALIMENTARIA

Pascuales Figueroa Sasha Marcela, Universidad Antonio Nariño. Asesor: M.C. Ricardo Ramón Martinez Molina, Instituto Tecnológico Superior de Cintalapa



PLANTEAMIENTO DEL PROBLEMA

La industria alimentaria en México no ha tenido el apoyo del estado pues este tan solo destina inversiones del 0.4% del PIB en ciencia y tecnología cuando en realidad la Ley de Ciencia y Tecnología marca como mínimo el 1% del PIB, su importancia no ha sido vista correctamente porque el estado desde la década de 1980 dejó de considerar prioritario el apoyo al campo y la seguridad alimentaria basada en la producción nacional, por esto, tiene que operar bajo las fuerzas del mercado con la mínima intervención del estado, otro gran factor para la caída de esta industria son los grandes colapsos de la economía mexicana como se presentó en diciembre de 1994 y también en 2008.  A pesar de esto la industria es relevante para el país ya que proporciona productos a una población creciente como lo son: la industria avícola, la cual es la productora de la carne de pollo que es la más consumida y representa el 35% de la producción pecuaria, la industria de alimentos procesados, la cual es la más competitiva del país y es generadora de empleo como el grupo Herdez en donde laboran más de 6,100 personas, atendiendo a más de 12,000 clientes y la industria de alimentos preparados y refrigerados, la cual tenía un crecimiento del 10% anual entre el 2004 y 2007 pero por la falta de innovaciones tecnológicas y recursos ha descendido a tan solo un crecimiento de 2% anual.



METODOLOGÍA

Para la realización de esta investigación se ejecutó un estudio exploratorio de tipo deductivo en el que, a partir de una exploración bibliográfica sobre la innovación y creatividad en la industria alimentaria, se pretende obtener los elementos que permitan determinar una percepción más objetiva de la función de innovación y creatividad en el contexto sectorial. Por ello, en una primera parte, se realizó un estado del arte para averiguar las diferentes investigaciones que se han realizado en esta industria, posteriormente, se realizó una monografía donde se desarrollaron los diferentes temas que se necesitaban analizar para obtener el conocimiento adecuado de esta industria y su importancia para México, gracias a esto se pudo establecer la posición del país frente a otros en temas de innovación, creatividad y las tecnologías dando a conocer el estado crítico que posee el país por el descuido del estado y con el fin de que los datos recopilados se compartan fácilmente se realizó un poster científico donde se resumen todos los factores que se dieron a conocer en este trabajo.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos de la importancia de la innovación y creatividad que en conjunto con las nuevas tecnologías establecen nuevos factores que permiten que los diversos análisis sean más comprensibles, como también de criterios y características que logren satisfacer las necesidades y expectativas para que estos sean considerados como un producto innovador en la industria alimentaria mexicana.
Patiño Pérez María Teresa, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mg. Lewin Andrés López López, Universidad del Valle

DESARROLLO DE EQUIPO INDUSTRIAL A ESCALA CON IMPRESIóN 3D.


DESARROLLO DE EQUIPO INDUSTRIAL A ESCALA CON IMPRESIóN 3D.

Luna Cástulo Juan Manuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Patiño Pérez María Teresa, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mg. Lewin Andrés López López, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

El déficit de ingreso a carreras de tecnologías o ingenierías trae consecuencias negativas comunes a países latinos como Colombia y México, teniendo presente que estamos en la era de la robótica, la inteligencia artificial, la biotecnología y los vehículos autónomos. Una situación particular en la Universidad del Valle sede Yumbo indica que hay solamente un 65% de inscripciones a las carreras tecnológicas ofrecidas, y debido a la pandemia por el COVID-19, la ONU estima que en México se reducirá un 15,55% de la población escolar en el 2021. A futuro, se tendrá posiblemente una deficiencia de graduados en profesiones como los ingenieros, matemáticos, químicos, físico-matemático, entre otros; por lo cual se tendrá una dependencia de los avances y personal humano tecnológicamente preparado en otras partes del mundo, además de retrasarse en los desarrollos de la Industria 4.0. El impacto social que tiene la reducción de población estudiantil afecta las estadísticas de pobreza y desarrollo sostenible por la falta de educación, por lo cual es necesario crear herramientas que permitan rescatar la motivación por las actividades académicas y estimular los estudios de educación media superior. Una posible solución basada en la industria 4.0 consiste en apropiar tecnología de impresión 3D en los contenidos académicos para la realización de prácticas tanto de forma presencial como virtual. El presente proyecto de investigación está enmarcado dentro de uno de los objetivos del proyecto de investigación aprobado por convocatoria interna de la Universidad del Valle llamado Aplicación de la impresión 3D en la construcción de plataformas modulares para educación STEM en ejecución por parte del asesor y posee un enfoque dirigido al campo de la robótica educativa. Se plantea una plataforma modular de una banda transportadora, basándose en la idea de la reproducibilidad de sistemas a escala mediante la impresión 3D, la cual se pretende que sea de libre acceso y entendible para las personas que no tengan conocimientos técnicos o específicos de una ingeniería.



METODOLOGÍA

Etapa 1 Revisión. Se elabora una revisión de la estructura en general de la plataforma modular, así como el dimensionamiento de sus elementos físicos y los requerimientos para la operación de dicha plataforma. Se identifica la conformación de cada pieza por separado, su estructura, puntos críticos en donde pueden producirse fracturas, posteriormente se plantean posibles mejoras como rediseños de las piezas que favorezcan su integridad individual. Cabe resaltar que esto se realiza mediante visualización en software CAD (SolidWorks). Etapa 2 Validación. Se realiza la validación de las piezas mecánicas e identificación de mejoras operativas mediante simulaciones en software CAD (SolidWorks). Para tener una previsualización de su funcionamiento, se ensambla todo el módulo tal como debería construirse físicamente y así identificar puntos críticos de toda la Banda Transportadora. Muy importante resaltar que en este punto se puede interactuar virtualmente con el módulo, previo a la impresión 3D. Etapa 3 Impresión y ajustes. Una vez se tienen los diseños validados, se realiza la Impresión con los ajustes necesarios en los parámetros de la impresora y las pruebas necesarias para obtener una mejor calidad. En este punto se requieren numerosas pruebas con diferentes parámetros de impresión (temperatura de extrusor, temperatura de cama, velocidad de impresión, soportes, entre otros), usando diferentes materiales para imprimir (ABS y PLA), de tal manera que mediante estas pruebas se logre configurar óptimamente la máquina para obtener piezas de mejor calidad. Se obtiene una forma de reproducibilidad posible de implementar por personas que tengan conocimientos básicos de impresión 3D, haciendo que la experiencia sea positiva.  Etapa 4. Optimización. Una vez que se tenga la impresión de las piezas con la mejor calidad, se procede con la optimización de las piezas mecánicas, realizando las modificaciones necesarias para poderlas acoplar entre sí, y de la misma manera acoplar el actuador para esta plataforma modular que en este caso es un motor a pasos 28BYJ-48. El motor es controlado mediante el IDE de Arduino, el cual está basado en hardware y software libre, flexible y fácil de utilizar.


CONCLUSIONES

Durante el desarrollo del proyecto se logran adquirir conocimientos acerca de la impresión 3D con la reproducibilidad de la banda transportadora como parte de una plataforma modular, llegando a la conclusión que se necesita un ajuste correcto de los parámetros de impresión en los elementos físicos de la plataforma modular para evitar que se genere una ruptura o juego en las piezas al momento de acoplarlas, que conlleve a la impresión de las piezas a una mejor calidad. Por otra parte, se espera que dicha plataforma modular sea la creación de una herramienta innovadora para motivar y generar competitividad a nivel educativo. Se pretende que sea de libre acceso por medio de comunidades maker o sitios en la web, garantizando una educación de calidad inclusiva y equitativa, y promoviendo las oportunidades de aprendizaje permanente para todos.
Pazzi Manzano Efrén, Instituto Tecnológico Superior de Xalapa
Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México

DISEñO DE UN SISTEMA CONVERSACIONAL BASADO EN PROCESAMIENTO DE LENGUAJE NATURAL HABLADO PARA EL MEJORAMIENTO DE ACTIVIDADES COTIDIANAS.


DISEñO DE UN SISTEMA CONVERSACIONAL BASADO EN PROCESAMIENTO DE LENGUAJE NATURAL HABLADO PARA EL MEJORAMIENTO DE ACTIVIDADES COTIDIANAS.

Moreno Arreola Heber Ulises, Instituto Tecnológico de Querétaro. Pazzi Manzano Efrén, Instituto Tecnológico Superior de Xalapa. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial es uno de los temas que más despiertan la imaginación y preocupación de la sociedad. Aunque no contamos con las maquinas capaces derazonar y mantener una conversación con el usuario como nos la pinta la ciencia ficción, semantiene la investigacióncon ética científicapara llegar algún día a ella. Dentro de este gran campo seencuentran los Chatbots, programas capacesde sostener una conversación lo más natural posible con elusuario. No obstante,el estadoactual de los Chatbot no ha logrado cumplir esto de manera perfecta, ya que la mayoría sonlimitados a simples tareas a resolver, o es necesariauna gran cantidad deprocesamiento dedatos paraenseñar todos los escenarios posibles. La reducción de sus capacidades para uso en entornos controlados, ha brindado la posibilidad de ampliar sus alcances y buscar aplicaciones más cotidianas.



METODOLOGÍA

Para definir el área en la cual nos desarrollamos se utilizó un análisis de valor para encontrar un área específica para trabajar, viendo nuestro producto como un servicio final hacia algún cliente. Se hicieron 25 propuestas de Chatbots y 4 equipos para trabajarlas. Nosotros al definir los alcances y la posibilidad de implementación, decidimos comenzar el Gourmetbot, un Chatbot dedicado a tomar pedidos en restaurantes, de fácil entendimiento y que apoye en estos tiempos de nueva normalidad para reducir el contacto humano en los restaurantes.Para programarlos utilizamos un lenguaje creado en un ambiente de conda, que fuedescargados desde un repositorio en Githubproporcionado por el asesor. Una herramientamuy útil y con la capacidad de evolucionar a nuestra conveniencia. Como está basado enPython su sintaxis fue muy accesible, pero requieretiempo acostumbrarse a loque puede ser programado.Durante la primera semana se dedicó a la elección de los Chatbots e instalación de los programas a utilizar;durante las siguientes semanas se empezó a programar el proyecto.Cabe destacar que el asesor continuamente daba consejos de cómo se podría hacer,y brindabaherramientas para aumentar la complejidad del Chatbot. En la última semana seprobaron los Chatbots.


CONCLUSIONES

Durante la estancia se logró obtener valioso conocimiento teórico sobre Chatbots,procesamiento del lenguaje natural y de redes neuronales. Sobre todo, de los grandesavances que han tenido en estos campos los últimos años.Se cumplieron los objetivos de crear un Chatbot.Aunque el tiempo fue corto y la estancia de manera presencial no fue posible, la oportunidadde ser asesorados por un doctor con grandes conocimientos en el área fue una increíbleexperiencia.Para terminar, agradecemos al comité organizador la oportunidad de participar en este programaque fortalece nuestros conocimientos y nos orienta hacia el mundo de la investigación científica.
Pelayo Soltero Diego, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

USO DE SOFTWARE DE CóDIGO ABIERTO EN LA INGENIERíA DE PROCESOS QUíMICOS


USO DE SOFTWARE DE CóDIGO ABIERTO EN LA INGENIERíA DE PROCESOS QUíMICOS

Pelayo Soltero Diego, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Existen industrias químicas que utilizan simuladores de procesos químicos para la automatización de sus diagramas de flujo de procesos, debido a que es una herramienta eficaz de diseño y análisis por las interfaces de interactividad que se presentan; en donde se reúne la información indispensable para el desarrollo de sus operaciones tal como modelos de los flujos de materia y energía para efectuar coherentemente la contabilidad de los balances de materia y energía en la ingeniería de procesos. Por otro lado, hay un gran número de pequeñas y medianas empresas químicas que producen por lotes, si desean controlar el proceso de forma automatizada se requerirá la adaptación y ejecución de simuladores. Por esta razón, siendo un factor determinante en el perfil del ingeniero químico para su campo laboral, se persigue obtener un proyecto de capacitación destinado a estudiantes de pregrado en la tecnología de un simulador de procesos químicos de código abierto, a causa de que se complica la implementación de los software comerciales en la educación superior en México por cuestiones de economía.



METODOLOGÍA

Se utilizó el simulador de procesos químicos multiplataforma DWSIM (dwsim.inforside.com.br/), compatible con Windows, Linux, Android, macOS e iOS cubriendo los sistemas operativos más frecuentes por estudiantes de licenciatura, con motivo de su fácil interfaz gráfica y constitución de rigurosos modelos termodinámicos y operaciones unitarias sin ningún costo de inversión más que tener el ordenador. Dentro del trabajo desarrollado en la estancia, se formaron diagramas de flujo de procesos en estado estable de situaciones apegadas y con visión a un panorama práctico a pesar que el programa informático posee la oportunidad de modelar de forma dinámica. Por lo tanto, las simulaciones elaboradas fueron la de un balance sobre un compresor de gas, un balance sobre un intercambiador de calor, cálculos de los puntos de burbuja y de rocío, operación de una turbina de vapor y por último, la operatividad de un ejemplo más complejo de una planta de cogeneración donde se incluyó tres o más de las operaciones unitarias antes mencionadas. No obstante, el software es más robusto porque tiene características sobresalientes como los modelos termodinámicos que tiene a disposición (CoolProp, Peng-Robinson, Soave-Redlich-Kwong, Lee-Kesler, etc.) y las utilidades (regresión de datos, análisis de sensibilidad, elementos de optimización, etc.); incluso más elementos de operaciones unitarias como válvulas, segmento de tubería, columnas de destilación y absorción, reactores, separadores de líquido y vapor, etc., contemplando las más esenciales que se enseñarán en la licenciatura en ingeniería química y que sus egresados coincidirán en el campo laboral. Dicho esto, lo más significativo de manipular este sistema es el beneficio competitivo de análisis, control y diseño que ofrece al usuario al presentar una visualización del proceso y qué resultados se obtendrían bajo las condiciones que se establezcan en los flujos y equipos para la toma de decisiones. Por consiguiente, en la simulación del compresor de gas lo revelador fue observar los parámetros resultantes, examinarlos y realizar modificaciones pertinentes siempre con un enfoque de dar soluciones a situaciones de industria. En cambio, en la del intercambiador de calor, fue determinar las variables macroscópicas de operación al observar el comportamiento de las corrientes, siendo éstas la temperatura de salida y el flujo másico de un fluido, lo que abona a incrementar un pensamiento crítico ingenieril en cuestión de segundos por su respuesta instantánea del programa, caso contrario, si se evaluara esto a mano el tiempo de respuesta sería enorme considerándose como punto de comparación. Con respecto a los puntos de burbuja y de rocío, se expone el mismo objetivo que en el anterior caso porque la esencia de estos cálculos es generar diagramas de equilibrio de las fases líquido-vapor, en donde son específicos y únicos para un compuesto o mezcla (con composición definida) a una temperatura o presión fija y perturbando la otra variable para obtener su comportamiento gráfico. Si se desea investigar estos puntos a otra temperatura o presión toda la función matemática sufrirá cambio, pero gracias a que el DWSIM tiene cargado las propiedades termodinámicas de los compuestos y los procedimientos los ejecuta de forma automática, de inmediato se tienen los diagramas.  Por último, en el proceso de la planta de cogeneración se obtuvo una simulación más completa por la inclusión de varias operaciones unitarias unitarias (turbina de vapor, condensador, intercambiador de calor, bombas centrífugas, caldera y mezclador), transformándose en un problema integrador que demostró realmente la virtud de la automatización satisfaciendo el beneficio competitivo descrito con antelación.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos prácticos de un simulador de procesos químicos de código abierto aplicando los saberes teóricos correspondientes, y se obtuvo la generación de simulaciones de procesos para su empleo posterior en la capacitación de estudiantes de pregrado de la carrera de ingeniería química. Además, se demostró la ventaja competitiva de manipular un programa informático de este estilo a nivel licenciatura, en el desarrollo de un pensamiento crítico ingenieril, y a nivel laboral, en la optimización de la ingeniería de procesos en análisis, diseño, control y toma decisiones.
Pérez Alejandre Steven, Instituto Tecnológico Superior de Uruapan
Asesor: Mtra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

ESTANDARIZACIóN DE PROCESOS ENFOCADOS A LA CALIDAD EN EMPRESA METAL-MECáNICA


ESTANDARIZACIóN DE PROCESOS ENFOCADOS A LA CALIDAD EN EMPRESA METAL-MECáNICA

Pérez Alejandre Steven, Instituto Tecnológico Superior de Uruapan. Asesor: Mtra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Riper Industrial Quality S.A. de C.V. es una empresa uruapense  dedicada [BCSE1] al diseño, fabricación y comercialización de máquinas clasificadoras y etiquetadoras de aguacate, la cual, ante la demanda de sus clientes se vio en la necesidad de reubicarse por cuestiones de espacio insuficiente., y por esta razón, la empresa decidió reubicar la empresa en un espacio más grande, dónde actualmente se llevan a cabo las operaciones normales, para que el personal labore en un espacio con mejores condiciones. Al momento de realizar el cambio de ubicación del taller, los materiales, equipos y herramientas fueron reubicados sin seguir un orden, y es por esto que el personal realiza tiempos no productivos asociados a la  búsqueda de  herramientas, materiales y equipos  que necesita en el momento, y además, cuando no se hace una correcta planificación de los materiales que se deben surtir, se pierde bastante tiempo en ir con los diferentes proveedores y es por esta misma causante que  los procesos que se llevan a cabo se realizan desorganizadamente sin seguir algún indicador o  estándar.  



METODOLOGÍA

Método científico 1. Concebir la idea a investigar 2. Planear el problema de investigación 3. Elaborar el marco teórico 4. Definir si la investigación se inicia como: exploratoria, descriptiva, correlacional, explicativa, otra. 5. Establecer hipótesis y definir variables 6. Selección de la población y la muestra 7. Recolección de datos 8. Análisis de los datos 9. Presentar los resultados


CONCLUSIONES

En este proyecto se realizó una matriz FODA, en donde se destaca que algunas de las fortalezas de la empresa es que cuenta con los recursos suficientes para implementar mejoras y con personal experto en programación y diseño. Las principales debilidades de la empresa son los retrasos en la entrega del producto y no contar con un SGC. Las oportunidades de la empresa son estandarizar los procesos y realizar una correcta distribución de planta para generar condiciones seguras de trabajo. Finalmente, las amenazas presentes son la alta competencia dentro de la región y las cuestiones sociales de la región.   Para el análisis de las causas raíz se realizó un diagrama de Ishikawa, en dónde se destacan la falta de orden y organización del personal, lo que genera que los trabajadores pierdan tiempo en buscar el material y herramientas que necesite en el momento. Otro aspecto que influye de manera negativa en la empresa es la falta de capacitación a los empleados, ya que no todos tienen los mismos conocimientos en cuanto a algunos procesos o actividades.   En este diagnóstico para la estandarización de procesos en la empresa Riper Industrial Quality S.A. de C.V. se pudo observar que se  cuenta con un grado de cumplimiento general de los requisitos de ISO 9001:2015 en un 43%, por lo que se llevará a cabo un Sistema de Gestión de Calidad para tener un mayor orden y organización interna, para que exista una mayor eficiencia dentro de los procesos internos y por consiguiente se asegure la calidad en los productos. Esta estancia semivirtual del verano de investigación DELFIN 2020 me ha permitido personalmente observar las deficiencias internas al estar presente en la mayoría de las actividades y procesos llevados a cabo en la empresa, en donde destaco que el personal que labora es eficiente, pero la falta de orden, organización, limpieza, la falta de conocimiento y la condiciones de seguridad deficientes impiden un progreso y mejora continua de la empresa, por lo que se sugiere diseñar indicadores de desempeño, realizar  auditorías internas,   realizar un lay Out de la empresa separando e identificando las áreas y procesos así como la maquinara existente,  diseñar un programa de seguridad e higiene y diseñar los procedimientos para la el diseño y desarrollo de productos y servicios
Pérez Bistraín Karen Lizeth, Instituto Politécnico Nacional
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

TEJA HIDROPóNICA A BASE DE PET


TEJA HIDROPóNICA A BASE DE PET

Ballesteros Zamora Nancy, Instituto Politécnico Nacional. Nuñez Rodriguez Valeria Marbell, Universidad de Sonora. Pérez Bistraín Karen Lizeth, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la sociedad se enfrenta a uno de los mayores retos urbanos, el cual consiste en conseguir ciudades más saludables, que favorezcan la inclusión social y la sostenibilidad del medio ambiente. En la actualidad la industria y el medio ambiente están obligados a entenderse; con la búsqueda de materiales alternativos de construcción se pretende reducir el efecto del deterioro hacia el entorno. De acuerdo a la ODS (Objetivos y metas del desarrollo sostenible- Agenda 2030) el objetivo 9 indica que debemos desarrollar infraestructuras resilientes, donde se promueva la industrialización inclusiva y sostenible, que a su vez sea innovadora. Las edificaciones actuales demandan el empleo de prácticas y materiales de bajo impacto ambiental, por lo que, se propone un prototipo de teja hidropónica diseñada para vegetación o huerto a partir del uso de PET y la inserción de agujeros para el cultivo de semillas.



METODOLOGÍA

El proyecto de investigación se desarrolló de forma teórica y a su vez se propuso un modelo de teja ecológica para futuras investigaciones experimentales. La información recabada se basó a partir de artículos científicos, tesis y documentos expuestos en previas investigaciones alrededor del mundo.   De acuerdo a un estudio de factibilidad del uso de PET reciclado en elementos de cubiertas y envolventes en Costa Rica 2016, muestra que el PET a través del proceso de transformación con calor de forma no industrializada con valores de resistencia mecánicas y térmicas del reglamento de construcción, puede ser considerado un nuevo material de construcción para cubierta o revestimientos. La implementación de plásticos reciclados como materia prima da la posibilidad de reducir acumulaciones masivas de estos, dando una mayor resistencia a la degradación de la teja y un costo accesible. Al suponer estos huertos una nueva plantación de especies vegetales se contribuye favorablemente a la absorción de CO2 atmosférico, mitigando la contaminación, absorbiendo partículas de polvo en suspensión y por ende mejorando la calidad del aire. Además, también se ven reducidas las emisiones, puesto que al generar nuevos espacios verdes de ocio, se reduce la necesidad de desplazarse en su búsqueda. (Escobar, 2017) La función de los materiales complementados con desechos PET consiste: que reduzca la acumulación masiva de residuos plásticos, con una mayor resistencia a la degradación, vida útil a largo plazo, que al término de esta sean 100% reciclables para la arquitectura sustentable, y genere un impacto social. Como propuesta al proyecto de investigación, se plantea lo que es un eco-techo, la cual consiste en generar un huerto en tejados de edificaciones urbanas de construcción factible, que consiste en: -Teja ondulada de fibrocemento, colocadas a una inclinación del 30% permitiendo un mayor flujo de caída de agua pluvial como fuente de riego. -Botella de materiales PET de 3 litros, con orificios de separación mínima de la boquilla de 5 cm, permitiendo espacio para su drenaje. -Conjunto de canales de PVC, que conducen el agua de lluvia al área de captación, con el fin de no utilizar sistemas de riesgo adicionales, junto a llaves de paso para regular la presión y garantizar un suministro homogéneo. -Como segunda propuesta se plantea una teja a base de fibras de PET (para que reduzcan los volúmenes de cemento y agregados), cáscara de arroz, cemento, arena y agua. La idea de cultivar hortalizas, vegetales o plantas en la teja proporciona mejores condiciones de confort térmico dentro de los alojamientos, disminuye la humedad y calor radiante. Estos promueven una imagen ambiental al fomentar soluciones locales con beneficios ambientales, sociales y económicos, potenciales para el desarrollo de la sociedad.


CONCLUSIONES

Basado en el contenido tanto teórico como analógico de la información recabada, se observa un punto en común, en el cual se plantea la posibilidad de reutilizar diversos residuos PET, beneficiándose de sus propiedades de composición y deformarlas al diseño de una teja ecológica para huerto urbano lo que permite determinar que el proyecto tiene altas posibilidades de cumplir con las expectativas de alta calidad y hace que el planteamiento de la propuesta sea realizable y que a su vez promueva la industria ambientalmente sostenible. Considerando lo ya mencionado, se ha generado un nicho de oportunidad para que se adopten nuevos sistemas constructivos y se replanteen los beneficios que un área verde propia puede brindar, como: -Reducción térmica interna de edificaciones. -Atenuación de impacto ambiental. -Adaptabilidad en diversos ecosistemas pensando así en los posibles escenarios de la investigación experimental. - Eficiente utilidad de espacio.    
Pérez Blanco Vazni, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

SIMULACIóN DEL COMPORTAMIENTO DE UN ROBOT CARTESIANO DE 3GDL A PARTIR DE SU MODELO DINáMICO.


SIMULACIóN DEL COMPORTAMIENTO DE UN ROBOT CARTESIANO DE 3GDL A PARTIR DE SU MODELO DINáMICO.

Pérez Blanco Vazni, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los robots manipuladores cuentan con una gran variante de aplicaciones tanto a nivel industrial como a nivel académico, muchos de esos modelos ya implementados en el mercado se encuentran fuera de los rangos de adquisición para un estudiante promedio con el fin de utilizarlos como herramientas de aprendizaje, ya que estos robots por sus vertientes representan un gran material de apoyo en el desarrollo de proyectos y conocimientos estudiantiles, sin embargo, los precios de estas herramientas pueden elevarse hasta decenas de miles de pesos, por lo que en su mayoría, contar con uno de estos robots no se ve como una herramienta sino como un lujo, uno que no todos pueden costear. El objetivo principal de esta investigación es analizar y aplicar un modelo dinámico que describa de manera eficiente y repetible el comportamiento de un robot manipulador de 3 GDL como lo es un robot cartesiano (PPP), dicho modelo será implementado en un diseño CAD sencillo, brindando alternativas que el estudiante o profesionista pueda utilizar sin exagerar en la compra de un PPP que pueda o no adecuarse a las necesidades del interesado.



METODOLOGÍA

I. MODELO DINÁMICO DEL SISTEMA Para este ejercicio se consideró una estructura cartesiana de 3GDL, la cual provee movimiento de solo traslación, lo que quiere decir que la energía de rotación es cero. Se procede a calcular el Lagrangiano restando la energía potencial a la energía cinética. Después se resuelve por partes la ecuación de Lagrange para un sistema conservativo: Se resuelve la derivada parcial del Lagrangiano con respecto a la velocidad articular (derivada de la posición vectorial). Posteriormente se deriva toda la expresión respecto al tiempo. Luego se resuelve el término independiente, el cual queda en función del eje z. Finalmente se obtiene el modelo dinámico del robot cartesiano que es igual a la suma de los resultados de los incisos b y c, y en caso de existir, se suman también los efectos de fricción que afectan al sistema.   II. DISEÑO CAD Y ENLAZAMIENTO DE SOFTWARES El objetivo de realizar un ensamblaje del robot de 3GDL en este software CAD es poder visualizar mejor su estructura y sus características, así como exportarlo a MATLAB para continuar con la simulación del sistema Una vez que se modelaron todas las piezas que componen el robot se procede a ensamblarlas para posteriormente realizar la exportación a MATLAB/SIMULINK, lo que generará el archivo con extensión .xml. Es necesario que todos los archivos (piezas, ensamblaje, archivo .xml y simulaciones) se encuentren en la misma carpeta. III. SIMULACIÓN MATLAB/SIMULINK Se prosigue con la implementación del diagrama a bloques en el software MATLAB/SIMULINK R2020a. Se debe proceder escribir la siguiente instrucción “smimport(‘NOMBRE DEL ARCHIVO.xml’)” en Command Window de MATLAB. Primero se deben definir las entradas y salidas de cada articulación: dando doble clic en la articulación a modificar, en el apartado de ACTUATION>TORQUE seleccionar la opción PROVIDED BY INPUT; posteriormente en el apartado de SENSING seleccionamos POSITION. Aplicamos y aceptamos, esto para cada una de las articulaciones. Continuando con la creación de la planta, en nuestro archivo SIMULINK se agregan tres bloques entrada Simulink-PS Converter, cada bloque agregado es conectado a la entrada de cada uno de los bloques articulación modificados con anterioridad; de igual forma se agregan tres bloques salida PS-Simulink Converter y éstas son conectadas a las salidas de cada bloque articulación. Posteriormente se agregan tres bloques de entrada (Tau1, Tau2 y Tau3) que serán conectados a los bloques entrada Simulink-PS Converter y tres bloques salida (q1, q2 y q3) mismos que se conectan a los bloques PS-Simulink Converter. Finalizando la creación de la planta, se selecciona todos los elementos del archivo SIMULINK y se crea un subsistema Planta. Dicho subsistema deberá ser conectado con un bloque DEMUX, cuyas salidas se conectan a las entradas de Planta (Tau1, Tau2 y Tau3) y un bloque MUX, cuyas salidas de Planta (q1, q2 y q3) se conectan a las entradas de este bloque. Para este método de control por bloques independientes es necesario el bloque Planta, el bloque qd, cuatro puntos suma, dos bloques GAIN (kp1 y kp2), dos bloques GAIN (kv1 y kv2), un bloque DEMUX y dos bloques de derivación. Las conexiones para este método de control por bloques independientes se realizan de la siguiente manera: La salida del bloque qd se conecta a la entrada del bloque DEMUX. Una de las salidas del bloque DEMUX es conectada a la entrada positiva de un punto suma, la salida del punto suma es conectada al bloque GAIN kp1, la salida de este bloque GAIN es conectada a la entrada positiva de un segundo bloque suma, para finalizar esta rama, la salida del bloque suma es conectada a la entrada TAU1 de Planta. La segunda salida del bloque DEMUX es conectada a la entrada positiva de un tercer punto suma, la salida de este punto suma es conectada al bloque GAIN kp2, la salida de este bloque GAIN es conectada a la entrada positiva de un cuarto bloque suma, para finalizar esta rama, la salida del bloque suma es conectada a la entrada TAU2 de Planta. Del bloque Planta, la salida q1 es conectada a la entrada de un bloque de derivación, la salida de este bloque de derivación es conectada a un bloque GAIN kv1, la salida de este bloque GAIN es conectada a la entrada negativa del segundo bloque punto suma. Del bloque Planta, la salida q2 es conectada a la entrada de un segundo bloque de derivación, la salida de este bloque de derivación es conectada a un bloque GAIN kv2, la salida de este bloque GAIN es conectada a la entrada negativa del cuarto bloque punto suma. De la salida q1 de Planta se toma una bifurcación hacia la entrada negativa del primer punto suma. De la salida q2 de Planta se toma una bifurcación hacia la entrada negativa del tercer punto suma. Para visualizar el comportamiento articular de las salidas q1 y q2 comparadas es necesario conectar un bloque SCOPE de dos entradas (uno conectado a q1 y otro a q2). Hay que acomodar la visualización del robot para poder apreciar los resultados.


CONCLUSIONES

Al realizar la simulación del diagrama en SIMULINK se lograron obtener las gráficas cuya representación articular muestra la posición de las salidas de Planta, así como la trayectoria deseada del bloque qd, un helicocicoidal.
Perez Gomez Edith del Carmen, Instituto Tecnológico de Piedras Negras
Asesor: Dra. Maria del Rosario Cota Yañez, Universidad de Guadalajara

COMPARACIóN RESPECTO A INDUSTRIAS CREATIVAS Y CULTURALES DE GUADALAJARA JALISCO Y PIEDRAS NEGRAS COAHUILA 2018.


COMPARACIóN RESPECTO A INDUSTRIAS CREATIVAS Y CULTURALES DE GUADALAJARA JALISCO Y PIEDRAS NEGRAS COAHUILA 2018.

Perez Gomez Edith del Carmen, Instituto Tecnológico de Piedras Negras. Asesor: Dra. Maria del Rosario Cota Yañez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las industrias creativas y culturales su importancia en el personal ocupado, generan un crecimiento económico a las localidad de Guadalajara Jalisco.,  y Piedras Negras Coah.  Estudios posteriores respecto al tema de industrias creativas y culturales buscan enfatizarlas como una oportunidad de economía flexible y de recursos ilimitados  aplicados en servicios y productos. Esto debido a que las industrias creativas y culturales son basadas en el patrimonio cultural, innovación y creatividad, estos términos son aplicados en la creación de un producto, presentación o brindar un servicio. Son un sistema de producción de economías internas cuya motricidad depende del capital humano especialización, consumo y variedad. Este tipo de industrias son caracterizadas por ser unidas creando conglomerados llamados clúster culturales. Son beneficiadas y tiene como ventaja el  intercambio de la información entre proveedores socios o consumidores. La finalidad de estas industrias basadas en la creatividad y cultura es ser propulsoras de la economía dando a demás a conocer lo representativo de la localidad o región por ejemplo sus conocimientos, ideas, tradiciones y costumbres etc. Su concepto ha evolucionado con el tiempo, en donde ahora en la actualidad hacen uso de la tecnología, para la creatividad e innovación. La tecnología se vuelve uno de los principales componentes  para una industria creativa y cultural, es aplicada en los procesos, publicidad o comunicación interna de cada una de las empresas que forma la industria. La evolución de una industria creativa o cultural en una localidad, toma el nombre de economía creativa local. La implementación de industrias creativas y culturas en una localidad crea la oportunidad de ventajas competitivas a los negocios y a la localidad. Ya que se crea una relación en red de los diferentes participantes teniendo como base la identidad de la localidad en donde se sitúan los negocios o empresas.  



METODOLOGÍA

Se recapitularon artículos respecto al tema de industrias creativas, culturales y clúster. Estos fueron obtenidos en base de datos de libre acceso como clase redalyc y Scielo. En los buscadores de las tres páginas se ingresaron palabras y frases claves como: industrias creativas y culturales, clúster, economía creativa etc., En buscador de la página Clase,  se excluyeron aquellos artículos que no tenían enlace al documento, también fueron excluidos artículos de bibliat debido a que no eran de acceso libre. Su rango de búsqueda fue de 2004 a 2020.  En el buscador de Redalyc se filtró por un rango de 2011 a 2020 ya que existían más variedad de artículos en la base de datos. En la página Scielo se eliminaron artículos repetidos que fueron encontrados en Redalyc el rango de búsqueda fue 2009 a 2020. Los artículos seleccionados fueron colocados en una tabla de Excel y Minitab para realizar un análisis descriptivo.  Los datos a tomar en cuenta de cada artículo fueron: DOI o enlace del documento, título del artículo, idioma, nombre de la revista, palabras claves, año de publicación, autor, e institución procedente. Se obtuvieron 51 artículos de las tres bases de datos usados (clase redalyc y scielo.) Se crearon análisis estadísticos para las palabras claves más usadas en los artículos (buscador de palabras de Excel), Para el análisis de los años con mayor concentración se sacaron los porcentajes: total de artículos entre el número de frecuencia de años de publicación multiplicado por cien.  De la misma manera se aplicó para los idiomas, número de autores e instituciones procedentes. A partir de la información se generaron gráficas.  De los 51 artículos se seleccionaron algunos para crear un análisis de conceptos  que contenía: Ficha de autor, concepto, objetivo, hipótesis marco teórico, metodología y conclusiones. El criterio para ser seleccionados fue su contenido, información que ayudaría a crear una base para saber que son las industrias creativas y culturales, su evolución y elementos que la conforman. Cuando se tuvo una base del concepto de las industrias creativas y culturales, se procedió a usar la base de datos de INEGI, SAICA (Sistema Automatizado de Información Censal). Las variables seleccionadas fueron: Año censal 2018, el área geográfica Piedras Negras Coahuila y Guadalajara Jalisco, actividad económica la cual comprende cinco niveles de agregación, cada categoría de actividad tiene un código numérico. El número de dígitos varía según el nivel: sector (2), subsector (3), rama (4), subrama (5) y clase de actividad económica (6). Se seleccionó Variable censal, en este caso unidad económica y personal ocupado total por cada actividad económica. Se procedió a descargar los archivos en formato Excel. Teniendo los datos necesarios se realizaron gráficos para presentar la participación del personal ocupado por actividad económica. Por último se utilizo  la herramienta cociente de localización.


CONCLUSIONES

Durante el período virtual del programa delfín se logró realizar una investigación respecto a las industrias creativas y culturales se inició con un ensayo bibliométrico que permitió conocer artículos y trabajos respecto al tema y así tener una base de lo que son las industrias creativas y culturales.  Se conoció el manejo de las bases de datos de Redalyc Scielo y clase  para una información más confiable. Se logró utilizar la base de datos de INEGI (SAIC) para conocer las actividades económicas de las regiones. Se puede apreciar las industrias culturales y creativas de diferentes perspectivas pero aquí se utilizó en total de personal ocupado y contribución a la actividad económica correspondiente. Es interesante conocer el término de industrias creativas y culturales puesto que en un futuro se pueden fomentar e implementar con mayor  importancia.  
Pérez Hernández Nazareth Martín, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato

DISEñO DE EXPERIMENTOS DENTRO DEL PROCESO DE PRODUCCIóN DE PIMIENTOS DE LA AGRICULTURA PROTEGIDA EN MéXICO


DISEñO DE EXPERIMENTOS DENTRO DEL PROCESO DE PRODUCCIóN DE PIMIENTOS DE LA AGRICULTURA PROTEGIDA EN MéXICO

Castro Rivas Luis Orlando, Instituto Tecnológico Superior de Guanajuato. Lozano Retana María Azucena, Instituto Tecnológico Superior de Guanajuato. Pérez Hernández Nazareth Martín, Instituto Tecnológico Superior de Guanajuato. Rodríguez Medina Cristina, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una empresa grande del sector agrícola dedicada a la agricultura protegida realiza la siembra, cosecha y venta de sus productos, entre estos frutas y hortalizas. La empresa presenta problemas en el área de empaque; genera gran cantidad de desperdicio por deficiencias en el proceso de producción de pimientos. Se procedió a realizar un diagrama de Ishikawa para analizar los factores involucrados en el proceso y se identificó la causa principal de los desperdicios, concluyendo que los desperdicios se generan en la máquina de embolsado de pimiento. 



METODOLOGÍA

En el área de empaque de pimiento se detectaron factores causantes de gran cantidad de desperdicios por deficiencias del proceso en la máquina de embolsado. Por tal motivo se implementó la metodología Diseño de experimentos (DOE), la cual permite analizar las variables o factores independientes que intervienen en el proceso e influyen en la variable de respuesta de este, permitiendo obtener un mejor nivel de optimización (Hernández, De la Paz y García, 2015). Para realizar el estudio sobre DOE (Montgomery, 2004; Hernández 2014), se aplicaron los siguientes pasos: 1. Identificación y exposición del problema Se determinó que en la máquina de empaque se encuentra el mayor número de causas posibles de desperdicio, porque es en la maquina donde se tienen mayor número de factores que podrían ser más difícil de combinar correctamente. La máquina dos de embolsado se encarga de realizar el empaquetado del pimiento en cantidades de tres unidades por bolsa, en repetidas ocasiones provoca fisuras y aplasta el producto al sellar las bolsas, generando una considerable cantidad de producto dañado (Garza, 2014 ; López, Quiroga, Gómez y Barrando, 2012) 2. Elección de factores, niveles y rangos Las variables seleccionadas para el análisis estadístico deben ser variables que influyen directamente en el proceso y deben ser controlables (Abate, Deferrari y Martinez, 2017) por lo tanto se determinó que las variables de interés son, la velocidad de la maquina en un rango de acciona de 70 a 85% y la altura de las brochas de empuje de 2.9 hasta 3.4 pulgadas, estas son las variables que tienen la posibilidad de ser modificadas y controladas en el proceso y sus respectivos rangos de acción que serán utilizadas para el diseño. 3. Selección de la variable de respuesta Se determino como variable de respuesta o dependiente a la cantidad de producción de bolsas (Rendon, Gutiérrez y Duque, 2010), esta variable es afectada al modificar las variables de velocidad de la maquina y la distancia de las brochas de empuje del pimiento. 4. Elección del diseño experimental Se requiere de la aplicación de diseños de experimentos mediante la técnica de cuadros latinos, en la maquina dos de embolsado al momento de empacar pimientos de 3 pulgadas, ya que estos se producen en mayor volumen, se realizará con una matriz de 4 por 4 factores lo que conlleva cuatro tratamientos de la variable velocidad de la maquina y cuatro tratamientos de la variable altura de las brochas de empuje, con un total de 16 muestras. Estas corresponden a velocidad de la maquina 70, 75, 80 y 85 y la altura de la brocha de empuje 2.9 pulgadas, 3.0 pulgadas, 3,2 pulgadas y 3,4 pulgadas. Se debe de comenzar con la medida más baja y la velocidad más baja que es la altura de 70 y 2.9 pulgadas de altura de la brocha de empuje (Aguilar, Benzadon, De Leon, Sánchez, Cedeño, 2019), se debe de medir cantidad de productos embolsados con estas variables durante dos minutos lo que corresponderá a nuestra variable de respuesta, así sucesivamente se van aumentando las variables del diseño y tomando las variables de respuesta correspondientes a las combinaciones de las variables y se va realizando el registro de los resultados de las distintas combinaciones. 5. Realización del experimento. Se confirmo que las personas quienes intervienen en el proceso estuvieran perfectamente capacitados para la objetividad de los resultados y se realizó la recolección de datos (Diaz, 2009) con base en las combinaciones establecidas, posteriormente se desarrolló la metodología mediante cuadros latinos comenzando con la asociación de datos a letras de manera ordenada, se realizó una diferencia de estos datos con respecto a la media del total y se suman las filas y columnas para obtener Y que en este caso equivale a 19, se procedió a calcular las sumatorias correspondientes a cada una de las letras para obtener Yj donde se pudo comprobar que el valor de Y era el correcto al ser igual que Yj. Para realizar el análisis de varianza (Durakovic, 2017) se desarrolló una ecuación, para calcular la suma total de los cuadrados, que corresponde a la suma de la suma de cuadrados de regresión y la suma de cuadrados del error, como resultado de esta sumatoria, se obtuvo lo siguiente: SST=9448.4375, SSR= 49.1875, SSc=6443.6875, SSt=1109.1875, SSE=1846.375


CONCLUSIONES

Como resultado del diseño de experimentos se obtiene un ANOVA (analysis of variance), donde se evaluó si la variación de cada una de las variables analizadas afecta de manera considerable en nuestra variable de respuesta (Montgomery, 2017); para que una variable no afecte la variable de respuesta su valor de F debe de ser menor que el valor de Fisher correspondiente a los grados de libertad, que para este experimento corresponde a 4.76 y se observó que la variable de velocidad es donde se genera variación en el diseño debido el valor de F es igual a 6.979 y mayor que el valor Fisher este valor de 6.979 corresponde a la velocidad de la máquina, es decir que la velocidad de la maquina afecta de manera considerable en nuestro proceso de producción. Se realizó un gráfico radial donde se muestra el comportamiento de la producción con respecto a distintas combinaciones de variables mostrando cuál de ellas genera mayor eficiencia, las cuales corresponden a las velocidades de 80 y 85, se establece un objetivo de 210 bolsas por minuto y la mayor efectividad se genera a una velocidad de 85, independiente a la altura de la brocha manteniendo la producción constante y cercana al objetivo.  
Perez Miranda Esther Itzel, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

ESTUDIO DE SIMULACIóN EN SIMIO® AL áREA DE CAJAS DE UNA TIENDA DE AUTOSERVICIO


ESTUDIO DE SIMULACIóN EN SIMIO® AL áREA DE CAJAS DE UNA TIENDA DE AUTOSERVICIO

Bernal Venegas Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo. Perez Miranda Esther Itzel, Instituto Tecnológico Superior de Ciudad Hidalgo. Ramírez Alanís Gladis Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

El origen de los supermercados tiene lugar y fecha en el estado de Tennessee, Estados Unidos, un 16 de septiembre de 1916, cuando Clarence Saunders abrió el primer supermercado King Piggly Wiggly, la primera cadena de supermercados del mundo. Se considera que el señor Saunders no pensó en la comodidad de los clientes, sino en el ahorro de tiempo que suponía para el vendedor: se le ocurrió poner las mercancías al alcance de los consumidores, y así el comerciante solo tendría que cobrar y reponer productos de vez en cuando. El cambio fue radical pues se observó que un solo empleado podría atender un volumen de ventas tres o cuatro veces superior. Actualmente, la atención al cliente es un factor primordial para cualquier establecimiento, sin embargo, la atención brindada no es siempre la adecuada. Un sistema que no cuente con una correcta atención a clientes suele tener pérdidas en diversos aspectos: económicos, de clientes o de personal. En el supermercado Merza se tiene que el tiempo que llega a esperar un cliente para realizar el pago de sus compras al menudeo asciende a 03:21 minutos, mientras que los clientes de compras al mayoreo esperan hasta 11:45 minutos para realizar su pago. Los tiempos de espera suelen ser molestos para los clientes, ocasionando disgusto que puede ocasionar desde malas conductas hasta dejar de frecuentar la tienda, por lo que está en riesgo la pérdida de clientes.



METODOLOGÍA

Para la elaboración y evaluación del sistema se realizó un estudio de simulación bajo la metodología de Law y Kelton (2000), la cual consta de 10 pasos. Formulación del problema El supermercado merza es un establecimiento que se dedica a la venta de productos de abarrote, la cual labora en un horario de 07:00 a.m. a 10:00 p.m. y atienden clientes tanto de menudeo, como de mayoreo; tiene tres cajas, dos de ellas operan bajo una política de cajas que establece que, si la cola en caja1 es mayor a tres personas, la caja2 deberá abrirse al público, mientras que la caja3 funciona únicamente para clientes de mayoreo. El objetivo de la simulación es: Conocer el funcionamiento del sistema actual en un supermercado local llamado Merza para proponer mejoras Recolección de datos y definición del modelo Se identificaron seis variables representativas del sistema: Tiempo entre llegadas Tiempo de selección de artículos Tiempo de pago Tanto para compras a menudeo como mayoreo. Para la recolección de datos se elaboró un instrumento en el que se fueron vaciando las observaciones. El tiempo de recolección fue de dos días. Una vez obtenidos los datos, se realizó un tratamiento estadístico el cual incluye las pruebas de bondad de ajuste, para conocer el comportamiento de las variables y ver si se ajustan a distribuciones teóricas conocidas. Se utilizó el software Stat::Fit para la realización de las pruebas (Kolmogorov Sminorv y Anderson Darling). Del tratamiento estadístico realizado, se obtuvo que todas las variables se ajustaron a distribuciones teóricas conocidas. Para ilustrar el proceso que un cliente sigue dentro de la tienda, se elaboró el diagrama de flujo. Verificación del modelo El diagrama de flujo fue presentado a la encargada, quien verificó dicho proceso. Construcción del modelo Para la construcción del modelo en Simio fue necesario programar cada uno de los elementos arriba mencionados. Una de los grandes atractivos del simulador es la de ofrecer una animación en 3D muy atractiva. Pruebas piloto Se corrió el modelo un total de 10 veces para corroborar que la animación estuviera correcta. Esto también ayudó para la obtención de los datos necesarios para el paso posterior. Validación del modelo La validación verifica la precisión de la representación del modelo del sistema real. La validación del modelo se define como la justificación de que un modelo computarizado posee un rango de precisión satisfactorio referente a la aplicación prevista del modelo. Para realizar la validación de un modelo se utiliza la prueba t-pareada en dónde la hipótesis nula sustenta que los datos simulados son iguales a los del sistema real contra la hipótesis alterna de que no lo son. Todas las variables fueron sometidas al proceso de validación. Diseño de experimentos Se realizó el diseño de experimentos al 95% con ayuda del procedimiento de estimación de la media μ=E(x) con un error específico, una vez que el modelo había sido validado. Para evitar el problema de tomar decisiones en la primera corrida se determinó el mínimo número de ellas. Con un β=0.030, el número mínimo de corridas para tomar decisiones respecto al sistema es de 111. Corrida del programa Se corrió el modelo un total de 111 veces, en la figura 7 se observa el diseño de experimentos con 111 corridas en el simulador simio®. Análisis de resultados En la tabla 3 se muestran los valores correspondientes a los datos obtenidos en el sistema real.


CONCLUSIONES

Durante la estancia en el verano virtual se lograron adquirir conocimientos teóricos acerca de los modelos de simulación. Gracias al programa simio® la simulación realizada en esta investigación resultó de mucha ayuda para la obtención de datos, además de mostrar una animación muy realista, la programación resultó sencilla y fácil de emplear por lo que este simulador es ampliamente recomendable. Además, se lograron obtener diversos conocimientos sobre el área de la simulación y de la ingeniería industrial, la cual es la carrera a la que pertenecemos. Esperamos llevar a la práctica más proyectos de este tipo, pues estamos seguros, nos serán de mucha utilidad en nuestra formación profesional.
Pérez Monzón David, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

ANáLISIS DE DINáMICA DE FLUIDOS COMPUTACIONALES EN UN AEROGENERADOR VERTICAL DAERRIUS TIPO H


ANáLISIS DE DINáMICA DE FLUIDOS COMPUTACIONALES EN UN AEROGENERADOR VERTICAL DAERRIUS TIPO H

Pérez Monzón David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El cambio climático ha sido provocado, en su gran mayoría, por el uso de combustibles fósiles, por lo que se propuso desarrollar un proyecto que ayude a minimizar el uso de energía que provoca los gases de efecto invernadero. El uso de energía eólica es una alternativa para generar energía limpia, una manera de aprovecharla es haciendo uso de aerogeneradores. Las turbinas de viento de eje vertical (VAWT) tienen la ventaja de poder generar energía con cualquier dirección de viento esto es ventaja en comparación a las turbinas eólicas de eje horizontal (HAWT), sin embargo, es por esta cualidad que surge en ellas también una desventaja en términos de la eficiencia y la potencia generada. Los modelos de VAWT más usuales son: Darrieus Savonius El rendimiento aerodinámico de la turbina Darrieus, la perdida aerodinámica del álabe y su efecto en potencia de salida han sido el objetivo de varios autores en la última década utilizando la dinámica de fluidos computacional (CFD), (Mohamend et al, 2019). La dinámica de fluidos computacional es el análisis de sistemas que involucran flujo de fluidos, transferencia de calor y fenómenos asociados mediante simulación computarizada. Este método es muy eficaz y es utilizado en amplia variedad de áreas de aplicación industrial y no industrial (Versteeg & Malalasekera, 2007). Durante el verano de investigación se analiza una microturbina eólica de eje vertical Darrieus tipo H, con la cual nos ayudara a proponer un modelo que pueda desempeñarse de manera eficiente en zonas urbanas.



METODOLOGÍA

El método numérico más utilizado para desarrollar CFD es el método de volumen finito. Moukalled et al. (2016) explica que el método de volumen finito (FVM) es una técnica numérica que transforma las ecuaciones diferenciales parciales que representan las ecuaciones de conservación sobre volúmenes diferenciales en ecuaciones algebraicas discretas sobre volúmenes finitos. El primer paso en el proceso de solución es la discretización del dominio geométrico en volúmenes finitos. Después, las ecuaciones diferenciales parciales se transforman en ecuaciones algebraicas integrándolas sobre cada elemento discreto. Finalmente, el sistema de ecuaciones algebraicas se resuelve para calcular los valores de la variable dependiente para cada uno de los elementos. Por ello para nuestro análisis CFD se realizó en tres pasos principales y cada uno de ellos cuenta con sus propios subporcesos: Preproceso Definición de la geometría del área a estudiar Generación del mallado Selección de las físicas y reacciones químicas a modelar Definición de las propiedades del fluido Especificación de las condiciones de frontera Solución Integración de las ecuaciones que rigen el flujo de fluidos sobre todos los volúmenes de control (finitos) del dominio Discretización: conversión de las ecuaciones integrales resultantes en un sistema de ecuaciones algebraicas Solución de las ecuaciones algebraicas por un método iterativo Postproceso Visualización de resultados de manera gráfica. Análisis de resultados. Es importante recalcar que para el desarrollo de un análisis CFD eficaz depende en gran parte de los conocimientos en teoría de mecánica de fluidos, transferencia de calor, métodos numéricos, programación y capacidad de análisis de quien lo realice.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos tanto de turbinas eólicas verticales como de dinámica de fluidos computacional y ponerlos en práctica con programas computacional para el desarrollo de estos análisis, sin embargo, al ser un extenso trabajo aún se encuentra en la fase de solución y no se pueden mostrar los datos obtenidos. Se esperan que la potencia generada por la turbina en simulaciones a 4, 6 y 12 metros por segundo sea aproximadamente 120 Watts.
Pérez Pérez Lizbeth, Instituto Tecnológico de Tlalnepantla
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA, UN ANáLISIS DE PRIORIDAD ESTRATéGICA DE REACTIVACIóN DE LA CADENA DE SUMINISTRO.


LOGíSTICA, UN ANáLISIS DE PRIORIDAD ESTRATéGICA DE REACTIVACIóN DE LA CADENA DE SUMINISTRO.

Pérez Pérez Lizbeth, Instituto Tecnológico de Tlalnepantla. Vázquez Romero Cyntia, Instituto Tecnológico de Tlalnepantla. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Derivado de las afectaciones de COVID-19, la cual pone a prueba la fortaleza humana, así también al sector logístico y transporte, pues si bien las cadenas de suministro no se infectan, sí padecen el contagio que se vive a nivel mundial y genera estragos en las economías, durante esta crisis la cadena de suministro sigue funcionando navieras, ferrocarriles, autotransporte y aeronáutica de carga, entre las industrias que redujeron o detuvieron sus operaciones destacan la del giro de transformación y servicios turísticos, ante un escenario de reapertura escalonada, nos vemos en la necesidad de identificar los elementos esenciales de reactivación en sus modelos de negocio de la cadena de suministro del sector industria y sector servicio en empresas del municipio de Mazatlán Sinaloa.



METODOLOGÍA

La metodología empleada fue cualitativa, mediante entrevista estructurada, con una guía de entrevista estandarizada, su objetivo de estudio es caracterizado y consiste en proporcionar un número fijo de preguntas predeterminadas en su formulación y secuencia, lo que permite administrar y analizar por ser más objetiva, es más técnica que arte, se tiene un modelo intermedio entre cualitativa y cuantitativa.      


CONCLUSIONES

En relación a lo antes expuesto, podemos deducir que diversas  áreas de oportunidad necesitan una mejora inmediata, puesto que debido a la situación presente por la pandemia, si se han visto afectadas las empresas, en cuanto a los elementos esenciales de reactivación en sus modelos de negocio de la cadena de suministro del sector industria y sector servicio en empresas del municipio de Mazatlán Sinaloa, por ende, y de acuerdo a los datos arrojados, se concluye que se debe comenzar lo antes posible con futuras mejoras, cambios e implementaciones de estrategias que eviten perdidas futuras y de más afectación. Para concluir con la investigación realizada en este Verano, se puede apreciar que en la mayoría de los porcentajes el que tiene mayor frecuencia es Prioritario, lo que nos indica que hay que establecer mejoras en estas 7 áreas que se encuentran marcadas, puesto que así podemos disminuir las perdidas, si se implementan las mejoras correspondientes, de igual manera se aprecia que el área de Mantenimiento cuenta con  el 64 % que es el porcentaje más alto entre las áreas y lo tiene la respuesta No sé lo que indica que la gran mayoría de las personas que laboran en esta empresa no saben si Mantenimiento necesita de mejoras, por lo que hay que informarlos más, para que tengan un conocimiento de esta área. Velasco F. (2017), cita la importancia de la actividad logística como aquella que: involucra todo el flujo de materiales  desde el proveedor hasta el cliente final, e incluye las compras nacionales o del extranjero, su transporte, su almacenamiento, su procesamiento, su distribución, su comercialización y su entrega al cliente final, en el momento preciso García y Pacheco (2018), indican que los procesos de gestión, organización, planificación, direc­ción, control y buenas prácticas empresariales, permiten alcanzar las metas de entrada y salida de las mercaderías en una empresa, así que dependiendo de cómo se realice cada actividad es como se verá reflejado el desarrollo que vaya teniendo la empresa.  
Pérez Rios Yotziri Paloma, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL


IDENTIFICACIóN DE PERSONAS DESAPARECIDAS MEDIANTE INTELIGENCIA ARTIFICIAL

Aguilar Ordaz Ramiro, Instituto Politécnico Nacional. Cruz Garcia Ivan Alberto, Instituto Politécnico Nacional. Gálvez Parra Kevin, Instituto Tecnológico de Culiacán. Gutiérrez Zazueta Héctor Manuel, Instituto Tecnológico de Culiacán. Partida Pérez Rauel, Universidad Tecnológica de Nayarit. Pérez Rios Yotziri Paloma, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

Se plantea como objetivo general la identificación de personas desaparecidas mediante inteligencia artificial. Coadyubando con técnicas de bases de datos y programación.



METODOLOGÍA

La metodología aplicada consta de seis puntos fundamentales descritos a continuación:  El experto en seguridad ingresará la información de la persona en cuestión dentro del sistema. El sistema procesa la información lo que hará que se eliminen elementos no deseados. El sistema clasificará la información en función de sus puntos de referencia, por ejemplo, la longitud de la línea de la mandíbula y la distancia entre los ojos con una precisión de por lo menos 95%. El sistema realizará una búsqueda coincidente a través de la base de datos. El sistema envía la alerta a autoridades. El sistema guarda registro de evento en base de datos.


CONCLUSIONES

Como parte de los resultados del Verano Cientifíco 2020, se enlistan los siguientes: Se construyó y entrenó el modelo inteligente. Montar un servidor que contenga la base de conocimiento y el modelo inteligente. Se construyó un sistema de notificaciones. Se realizaron las pruebas que garantizan la correcta funcionalidad del sistema.
Pérez Salazar Tania, Instituto Politécnico Nacional
Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México

ANáLISIS DE LA RELACIóN ENTRE EL COSTO COMPUTACIONAL Y REPRODUCIBILIDAD DE LOS MéTODOS DE MODELADO Y OPTIMIZACIóN GEOMéTRICA DEL L-áCIDO GLUTáMICO EN EL EDITOR MOLECULAR AVOGADRO Y SOFTWARE AB INITIO ORCA


ANáLISIS DE LA RELACIóN ENTRE EL COSTO COMPUTACIONAL Y REPRODUCIBILIDAD DE LOS MéTODOS DE MODELADO Y OPTIMIZACIóN GEOMéTRICA DEL L-áCIDO GLUTáMICO EN EL EDITOR MOLECULAR AVOGADRO Y SOFTWARE AB INITIO ORCA

Pérez Salazar Tania, Instituto Politécnico Nacional. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La química computacional permite -como un primer acercamiento al diseño de materiales para biosensores- modelar y optimizar una molécula de L-ácido glutámico, molécula derivada del neurotransmisor glutamato que cuando se encuentra en altas concentraciones, produce daños en el nervio óptico, provocando glaucoma. Esta neuropatía es detectada mediante métodos diagnósticos dependientes de la IOP o del área del nervio óptico, a pesar de que una tercera parte de las personas con glaucoma presentan una IOP normal. Sin embargo, la concentración de glutamato es independiente de la IOP, por lo que el análisis de la concentración o interacción del glutamato en la retina, puede servir como medio para medir el deterioro de las células neuronales retinianas y así detectar si existe un glaucoma inicial en un paciente, antes de que los métodos de imagenología lo detecten, cuando existe un daño irreversible en el tejido retiniano. Existen diversos métodos para la optimización de moléculas cuyos resultados varían en exactitud y en gasto computacional, por lo que el problema de investigación que se abordará en esta estancia será determinar el mejor funcional híbrido, entre B3LYP y BHHLYP, para optimizar geométricamente la molécula del L-ácido glutámico. Se supondrá que funcional híbrido B3LYP será el método que con la mejor aproximación y con un costo computacional medio. La base 6-31G(d) permitirá un cálculo menos aproximado a la teoría, pero con un tiempo de cómputo menor que la base 6-311+G(3df), debido a que este último considera orbitales difusos. Así, el tiempo de cómputo y la exactitud dependerán del número de átomos, de las características de los métodos teóricos y los ajustes de base, así como la capacidad computacional del equipo a usar. A pesar del tiempo reducido de la estancia de investigación, se podrá optimizar la molécula de L-ácido glutámico bajo los dos niveles teóricos y ambas bases, pasan en total por 4 distintos procesos de optimización geométrica en el software Orca.   



METODOLOGÍA

Por una parte, el modelado y visualización de la molécula se realizó con el software open source Avogadro 1.2.0, mientras que la optimización por los métodos B3LYP y BHHLYP se realizó en Orca 4.2.1.  Por otra parte, el cómputo se realizó en una laptop con 16 GB RAM, Intel Core i7 y SSD. El primer paso para el modelado y optimización geométrica de la biomolécula consiste en su esbozo en Avogadro, en donde se dibujará la molécula sin la necesidad de cuidar las distancias atómicas, para luego usar la herramienta de Auto-optimización, con una configuración del UFF en el Force Field con 4 pasos por actualización. Posteriormente, el modelo de la molécula se exporta al formato .inp, formato de entrada de Orca, en donde se indican los parámetros y métodos que se considerarán para la optimización. Así, se exportaron 4 archivos, uno por cada combinación entre los niveles B3LYP y BHHLYP y los ajustes de base 6-31G(d) y 6-311+G(3df). El proceso de optimización se realizó en Orca, con el uso de la command window. Así, primero se localizó la carpeta en donde se ubica el archivo .inp a analizar, para después indicar su análisis mediante Orca y la asignación de los resultados a un archivo .out. Para verificar el método numérico fue exitoso, es necesario buscar en el archivo de salida la indicación de que el método converge, y por tanto, su cómputo fue exitoso. Secundario a ello, el archivo de salida se visualiza en Avogadro y se miden las distancias atómicas entre el N del grupo NH2 y el H del grupo OH del C1; el O del C5 y el H del NH2; y O del C5  y el H del grupo OH del C5, para poder comparar las distancias con las reportadas en la literatura.  


CONCLUSIONES

Se optimizó la molécula de L-ácido glutámico en los métodos B3LYP y BHHLYP, cada uno con las bases 6-31G(d) y 6-311+G(3df). Por una parte, la optimización mediante B3LYP/6-31G(d) tuvo un tiempo de 46 minutos, 37 segundos y  621 milisegundos y el error más grande entre sus distancias atómicas y las reportadas en la literatura e del 12%. Mientras que el método BHHLYP/6-311+G(3df), la molécula fue optimizada en un tiempo de 8 horas, 23 minutos, 48 segundos y 330 milisegundos, con errores en las distancias de más del 12%. Ahora, si se comparan los recursos computacionales invertidos en ambos métodos, se considera que el método B3LYP/6-31G(d) es el método con mejor relación entre la exactitud de los resultados y el costo computacional. La hipótesis planteada resultó falsa, debido a que no se lograron computar todos los métodos de optimización debido al tiempo de estancia y al error estructural que se cometió al modelar el L-ácido glutámico. No obstante, se lograron comparar dos métodos: B3LYP/6-31G(d) y BHHLYP/6-311+G(3df), en donde el primero tiene un tiempo de cómputo considerablemente menor que el segundo y sus distancias no difieren con las teóricas por más del 13%. Así, se lograron cumplir los objetivos específicos del proyecto, ya que se conocen los métodos para modelar y optimizar moléculas con el uso de Avogadro y Orca, además, se conoció la dependencia del tiempo de cómputo a la estructura de la molécula.  
Pérez Velázquez Jasive Ximena, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Miguel Angel García Castro, Benemérita Universidad Autónoma de Puebla

SíNTESIS EN FASE SóLIDA DE COMPUESTOS ORGáNICOS CON APLICACIONES EN NANOCIENCIA


SíNTESIS EN FASE SóLIDA DE COMPUESTOS ORGáNICOS CON APLICACIONES EN NANOCIENCIA

Pérez Velázquez Jasive Ximena, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Miguel Angel García Castro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Como lo afirma Tomás (2014), hasta hace pocos años, la consecución de reacciones benignas desde un punto de vista medioambiental, no constituía una preocupación importante en el desarrollo de nuevos protocolos sintéticos. Esto ha cambiado significativamente, ya que las regulaciones de los organismos nacionales e internacionales competentes han forzado a la investigación y desarrollo de nuevos métodos sintéticos, evaluados, no solo por su utilidad, sino, también, por aspectos medioambientales tales como la economía de átomos, que permite cuantificar la eficacia de una reacción, la producción de residuos y el consumo de energía. Además, muchos de los efectos adversos de la síntesis de nanopartículas (NPs) han sido asociados con la toxicidad de los métodos físicos y químicos, debido a la presencia de sustancias tóxicas absorbidas en la superficie de la NP. (Gómez Garzón, 2018) La problemática presentada es que, cada vez se hace más necesaria la investigación en el desarrollo de metodologías sintéticas que permitan la simplificación de las etapas, con la consiguiente minimización de tiempo y energía, y el ahorro de recursos consumidos en el aislamiento y purificación de los compuestos intermedios resultantes en cada una de las etapas de síntesis. Durante el verano se llevan a cabo revisiones bibliográficas para conocer los diferentes métodos de fabricación de nanomateriales y aspectos a tomar en cuenta para seleccionar el apropiado.



METODOLOGÍA

Durante la primera semana se presentó y se dio a conocer información general del proyecto, se acordó trabajar en una antología y las entregas serian mediante la plataforma de comunicación y colaboración, Teams. En la segunda semana, se llevó a cabo una revisión bibliográfica acerca de los fundamentos teóricos de los nanomateriales, desde su definición, la comparación de su contraparte y algunos ejemplos selectos de nanomateriales y sus aplicaciones. A lo que correspondió la tercera semana, se dio continuidad a las propiedades de los nanomateriales que se dan por el efecto de la disminución de tamaño, como la razón superficie-volumen y propiedades físicas, químicas y fisicoquímicas. De la misma manera se discutieron las partes del trabajo, hasta el momento planteadas vía telefónica, se abordaron dudas con respecto a los tecnicismos y se recomendó ampliar las definiciones. En la cuarta semana, se desarrolló la revisión bibliográfica de las técnicas de fabricación de nanomateriales, se explanaron las aproximaciones de abajo hacia arriba o bottom-up, dentro de una clasificación como métodos sol-gel, vía húmeda, de fase gaseosa y en estado sólido. En la siguiente semana, se completaron las técnicas de fabricación de nanomateriales, en este caso se dio continuidad las aproximaciones de arriba hacia abajo o top-down como la litografía y la mecanosíntesis. A lo que respecta la sexta semana, se elaboró la revisión correspondiente a las técnicas de caracterización de nanomateriales en base a dos categorías morfología y análisis de superficie. A lo que se refiere la primera categoría, se indagó sobre la microscopía electrónica de barrido, la microscopia electrónica de transmisión de baja y alta resolución, difracción de electrones y difracción de rayos X. Mientras que la segunda, se inquirió en la microcopia de fuerza atómica y microscopía de efecto túnel. Durante la séptima semana se investigaron las consideraciones del uso de la nanotecnología, sus implicaciones en diferentes ámbitos: social, ambiental, probables riesgos a la salud y seguridad, y su regulación y manejo. También se dialogó por medio de la plataforma Teams acerca de los trabajos en los que el investigador da seguimiento de la cinética de las NP’s por UV-Vis y se dio una retroalimentación acerca de los temas vistos por medio de recursos digitales en los que explico, se departió una relación de nuestros trabajos y se aclararon dudas.


CONCLUSIONES

Se desarrollaron trabajos que permitieron alcanzar conocimientos teóricos sobre la síntesis de nanomateriales, las técnicas para su caracterización, lo cual es un trabajo de determinación de propiedades de alto interés; posteriormente se espera poner en practica dichos conocimientos en clase o incluso en el campo laboral, también conocer más y dar un seguimiento a los trabajos de la cinética de las NP’s por UV-Vis.
Pineda Ortiz Guadalupe Marlen, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA


MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA

Casas Frutis Liliana, Tecnológico de Estudios Superiores de Valle de Bravo. Garcia Medina Andrea, Tecnológico de Estudios Superiores de Valle de Bravo. Gómez Arroyo Anel Michel, Tecnológico de Estudios Superiores de Valle de Bravo. Pineda Ortiz Guadalupe Marlen, Tecnológico de Estudios Superiores de Tianguistenco. Sánchez Rojas Félix Alexis, Instituto Tecnológico de Zitácuaro. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

Se observó que en el área de trabajo de la empresa UUMBAL, el no tener controlado los lotes en producción conlleva a tener una variación en la productividad mensual de la plantación, teniendo un impacto significativo en las metas planificadas. La empresa consideró oportuno los estudios de calidad en su proceso para optimizar los tiempos de recolección, tiempo efectivo de trabajo, recursos humanos y distintos costos de herramientas, para consigo mejorar su capacidad de estrías y aplicación de pastas ante los factores cambiantes del entorno, utilizando diferentes metodologías, para saber qué problemas se presentan en cada localización o subproceso, así mismo identificar los factores que intervienen en el estriado y cosecha de pino para generar alternativas que ayuden a tener una meta más alta de recolección.



METODOLOGÍA

Se desarrolló una investigación no experimental, la cual se basa en variables que ya ocurrieron o se dieron en la realidad sin intervención directa del investigador, es de tipo cualitativa ya que con la recolección de datos que se tiene se pretende analizarlos para la comprobación de hipótesis y es un estudio correlacional ya que la investigación es conducida en lugar de la experimentación por la relación estadística causal entre las variables. Con datos sobre el proceso de resinación de la empresa UUMBAL se realizó un diagnóstico en el proceso de resinación aplicando un Mapa de Cadena de Valor (VSM) para identificación del flujo de materiales, la información desde el proveedor, proceso y cliente, plasmando las actividades productivas para identificar la cadena de valor y detectar donde se producen desperdicios durante el proceso, se identificaron dos cuellos de botella, el primero fue en la parte de la aplicación de pasta, ya que dicho proceso es de 7 días para posteriormente realizar la cosecha de resina y el segundo fue en el almacén final, ya que la resina que llega se queda en resguardo para posteriormente ser enviada a Grupo Allen. Se empezó con la aplicación de la metodología de Seis Sigma,en la etapa 1 se realizó un diagrama de Ishikawa, se observó que la mayoría de los problemas que existen en el proceso de resinación son generados a raíz de la mano de obra ya que no cuentan con las capacitaciones pertinentes para realizar sus tareas, así mismo el rendimiento es afectado por factores como la disciplina o habilidades con las que cuentan. Con la finalidad de hacer un análisis minucioso y preciso de las problemáticas detectadas se elaboró un diagrama de Pareto, examinándolo se aprecia que hay 4 causas principales asociadas al proceso de resinación, las cuales son; herramientas, EPP no requisitado, habilidades, capacitación y experiencia del colaborador. Estas representan el 20% del total de las causas que afectan al rendimiento y calidad del estriado, es necesario hacer énfasis a dar solución a estas causas detectadas, ya que resolviendo esto se elimina el 80% de las afectaciones en el proceso. En la etapa 2 se elaboró un histograma con los datos de producción, en el cual se observa el rendimiento de estriado mostrando un histograma tipo binomial, la desviación indica variabilidad en la producción de estrías ya que hay colaboradores que están realizando entre 800 estrías mientras que otros hacen hasta 1400. Se hizo un diagrama de caja y bigotes para mostrar la distribución de los datos y dio como resultado que no se está cumpliendo con la producción, debido a que la media de los datos es 1096.25 y la producción requerida es de 1200, asi mismo se encuentran 2 datos atípicos uno de 657 y otro de 1581 los cuales pueden ser atribuibles a algunas de las principales causas que se encontraron en los diagramas de Ishikawa y Pareto. En la etapa 3 con referencia al análisis de la capacidad del proceso en donde se cuenta con varios lotes de producción de pino híbrido y caribean, especialmente la resina que es el proceso que nos interesa, en la etapa 2 se determinó la capacidad del proceso en donde se evidencia que el proceso no es estable debido a que no cumple con el rendimiento de trabajo por colaborador asignado por jornada, derivado de esto se requiere un ajuste en la capacidad del proceso, es decir, establecer la contratación de nuevo personal o disminuir el rendimiento establecido a través de un buen estudio de tiempos y movimientos con la finalidad de llegar a las metas establecida de producción por año de la empresa UUMBAL. Con relación a la etapa 4, se genera un área de oportunidad en donde se establece un diseño de experimento de varios factores incluido un análisis de varianza de 2 factores, donde se determina áreas de mejora para maximizar la producción de resina aprovechando los recursos con los que cuenta la empresa. Por último en la etapa 5 se planteó el control de los datos de producción aplicando un control estadístico de procesos, que permita el monitoreo de la información para el desarrollo de proyectos de mejora que permitan eficientar las actividades de resinación dando como resultado mayor producción de resina.


CONCLUSIONES

Con la implementación del proyecto de mejora al proceso de resinación, se logró identificar áreas de oportunidad para aumento de la productividad utilizando los mismos recursos. A través de este análisis se logró observar el comportamiento de los colaboradores de campo, evaluando su rendimiento operativo, estableciendo parámetros muy puntuales de mejora, derivados de las causas potenciales encontradas con la aplicación de metodologías de calidad y herramientas estadísticas que coadyuvaron a la propuesta de proyectos de mejora integral. Por lo tanto se concluye que la hipótesis desarrollo de la metodología y herramientas de Lean Seis Sigma en el proceso de extracción de resina y cosecha de pino hibrido y caribean, se logrará eficientar la productividad y mejora del proceso de resinación durante un cierto periodo de tiempo, coadyuva para maximizar la producción y mejora del proceso de resinación en la empresa UUMBAL agroforestal.
Pineda Sarabia Mayte, Benemérita Universidad Autónoma de Puebla
Asesor: Mg. Belkys Polo Cambronell, Universidad de Santander

REVISIóN DE LAS CONDICIONES DE SíNTESIS DE POLIURETANOS LIBRES DE DISOCIANATO A PARTIR DE ACEITE DE RICINO Y GLICEROL


REVISIóN DE LAS CONDICIONES DE SíNTESIS DE POLIURETANOS LIBRES DE DISOCIANATO A PARTIR DE ACEITE DE RICINO Y GLICEROL

Loranca Ruiz Diana, Benemérita Universidad Autónoma de Puebla. Pineda Sarabia Mayte, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Belkys Polo Cambronell, Universidad de Santander



PLANTEAMIENTO DEL PROBLEMA

Desde la introducción de los polímeros en el ámbito de la química en 1937, se han encontrado muchas aplicaciones en la industria, por ejemplo, en la industria automotriz en nuevos adhesivos para automóviles, espumas, entre otras, y hacen parte del día a día de la vida de la sociedad del siglo XXI. La razón detrás de esto es sus propiedades versátiles, disponibilidad de materia prima y fácil procesabilidad de la síntesis. Dentro de la gran variedad de polímeros disponible, vale la pena destacar los poliuretanos (PU), que comprende el 7% de la producción mundial de polímeros y entre las aplicaciones anteriormente mencionadas se pueden resaltar una aplicación que ha ganado relevancia en los últimos tiempos como las aplicaciones médicas. A pesar de todas las ventajas de los poliuretanos, también cuentan con limitaciones que representan un serio desafío para su uso y aplicación en el futuro. Una desventaja importante de los poliuretanos es que sus monómeros se basan en recursos fósiles no renovables, y en el escenario actual, el rápido agotamiento de los recursos derivados del petróleo y los daños ambientales causados por su uso,  han generado un estado de alerta para usar sustitutos renovables y biodegradables y así aportar a la disminución del impacto al medio ambiente. Los aceites vegetales representan una alternativa interesante para la producción de PU debido a su relativo bajo costo, pureza, y principalmente por ser amigables con el medio ambiente. Adicional a esto,  presentan una buena estructura en sus moléculas, alta funcionalidad que se puede traducir en oportunidades de reacciones químicas. Estudios realizados por los autores de este trabajo demuestran que el uso de castor oil y glicerol, son una fuente importante para la síntesis de poliuretano. Los PU sintetizados a partir de castor oil y glicerol presentaron módulos de almacenamiento ajustados a la relación de los polioles,  buena resistencia al ataque químico, una resistencia a la temperatura ajustable, y además, presentan buena biocompatibilidad para su uso en el campo de las aplicaciones médicas. Es de tener en cuenta que la estructura de los poliuretanos consiste en la unión de polialcoholes (polioles) y moléculas funcionales llamadas diisocianatos (NCO). Estas últimas son moléculas altamente tóxicas, normalmente sintetizados mediante la fosgenación de aminas. Debido al uso de isocianato en la síntesis de poliuretanos, existe un gran enfoque para mejorar las alternativas ecológicas. Recientemente, el poliuretano libre de isocianato  NIPU por sus siglas en inglés, llevado a cabo por la reacción entre un carbonato cíclico y una diamina siendo una de las tendencias ecológicas atractivas desarrolladas en el campo de la síntesis y aplicación de polímeros. Entre varias rutas propuestas para poliuretanos sin isocianato (NIPU), la reacción de compuestos de carbonato cíclicos con aminas ha atraído mucha atención debido al mecanismo sencillo y la formación de grupos hidroxilo secundarios como resultado de la apertura del anillo de carbonato cíclico. 



METODOLOGÍA

Se realizó un estudio introductorio abordando temas como clasificación de los polímeros, sus aplicaciones y efectos ambientales, haciendo un enfoque principal en el estudio de los poliuretanos y el impacto que estos causan al medio ambiente para proponer rutas de síntesis adecuadas para la posible resolución de este problema.  Se generó una búsqueda específica a partir de una ecuación bibliométrica basada en Scopus, para la adquisición de información útil en el área específica de esta investigación. Este mismo nos permitió generar un análisis para conocer la producción científica de los investigadores y analizar a qué áreas de la ciencia se aplican estas investigaciones.  VOSVIEWER, es una herramienta de software para construir y visualizar redes bibliométricas.  El software tiene capacidad de distinguir dos tipos de mapas bibliográficos, uno relacionado entre los elementos investigados y el otro facilita la identificación de los grupos de elementos relacionados.  Mediante VOSviewer se realizó un segundo filtro de la búsqueda obtenida para facilitar y acotar la búsqueda y el análisis de nuestra investigación generado a partir de los documentos obtenidos en Scopus, como resultado de la utilización de software se obtuvo un mapa basado en datos de red, en el cual destacan temas como carbonatos cíclicos, aceites vegetales, poliuretanos libres de disocianatos, síntesis, aceites vegetales etc.  A partir de los resultados obtenidos se procedió a realizar la revisión del material bibliográfico para determinar de estas fuentes las rutas de síntesis favorables de los poliuretanos libres de isocianato y ampliar el rango de sostenibilidad de estos materiales proponiendo otros métodos de síntesis.  Tras la recopilación de los nueve artículos relacionados con los clusters principales, se concentró una matriz la cual compone de las materias primas utilizadas por cada autor, rutas, condiciones de reacción y principalmente metodología de síntesis para la obtención de poliuretanos de alta degradabilidad (libres de isocianato). La ruta de síntesis más reportada con buenos resultados finales es la epoxidación. 


CONCLUSIONES

A lo largo de la estancia de verano y el trabajo realizado se buscó promover una industrialización inclusiva y sostenible, disminuir significativamente el impacto ambiental con esta implementación de las NIPU’s.  La metodología utilizada funciono y nos permitió identificar sistemáticamente una ruta de síntesis para las NIPU’s. Esa ruta de síntesis es la epoxidación de aceites vegetales como aceite de ricino y glicerol, ya que los aceites vegetales representan sustratos ideales para la síntesis de monómeros de carbonatos cíclicos dado que sus insaturaciones se pueden epoxidar y carbonatar fácilmente siendo un método que ha sido extensamente aplicada a escala industrial para la producción de adhesivos, revestimientos, pinturas y polímeros. 
Ponce Gonzalez Gael, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. José Miguel Ahuacatitla Pérez, Instituto Tecnológico Superior de Huauchinango

BOMBA DE ARIETE


BOMBA DE ARIETE

Ponce Gonzalez Gael, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. José Miguel Ahuacatitla Pérez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El agua es un elemento vital de la naturaleza, esencial para el sostenimiento y la reproducción de la vida en el planeta ya que forma parte indispensable del desarrollo de los procesos biológicos que la hacen posible. Actualmente la humanidad está reaccionando frente al desabasto de agua, buscando soluciones para estos problemas ya que es vital. Existen lugares completamente arraigados que no cuentan con electricidad y es bastante incomodo el acarreo de agua para la siembra, afortunadamente existe la bomba de ariete esta nos ayudara a solucionar problemas de agua no solo para la siembra sino también para comunidades que tienen problemas con el abasto de agua. El problema presente para el desarrollo de este proyecto es la inclinación del terreno, ya que esta tiene una inclinación y/o pendiente, por lo que la fuerza y presión de la bomba tendrían que ser bastante elevados para poder subir el agua pero también es necesario el requerimiento de la bomba para poder suministrar el agua para la siembra.



METODOLOGÍA

Para hacer esto posible utilizaremos un dispositivo llamada bomba de ariete hidráulico la cual es una máquina de construcción y funcionamiento muy sencillo y de bajo costo, la cual aprovecha la energía generada por el fenómeno conocido golpe de ariete hidráulico para impulsar agua a una altura superior de su altura inicial. Este mecanismo fue inventado y patentado en 1796 por Joseph Montgolfier (1749-1910). Construido el ariete, se procede a realizar las pruebas de funcionamiento. Se realizará un ensayo en unas determinadas condiciones, a una altura de elevación concreta, con el objetivo de obtener una serie de resultados que nos servirán para analizar y estudiar el comportamiento del ariete. El agua es captada a un contenedor de 200 litros de capacidad, a través de una manguera de 100 m x 1/2 desde una toma de alimentación el cual está situado a una altura superior a la posición de la bomba de ariete. Esa energía potencial se transforma en energía cinética debido a la caída del fluido por la tubería de alimentación. El agua atraviesa el cuerpo del ariete con gran velocidad y llega hasta la válvula de impulso, cerrándola y abriéndola, lo que origina sobrepresiones denominadas golpes de ariete, bombeando parte del agua en la tubería de descarga hasta un lugar determinado previamente donde se colocará un recipiente de recogida, con el que podremos medir la cantidad de agua y comprobar el rendimiento del ariete construido. Una vez elegido el lugar de emplazamiento para la instalación, en una zona del río con desnivel, perfecta para colocar la tubería de alimentación en la parte más alta de la misma, cumpliendo con las necesidades hidráulicas requeridas, se decidió colocar el ariete hidráulico en una orilla del río, en una zona apropiada en un terreno estable y seguro, a una distancia de 3 metros respecto del punto de captura del agua. Asimismo, interesaba que el caudal desechado por la bomba durante su operación fuese devuelto al río, con el fin de causar el menor impacto posible al entorno.  Altura de caída (h): El desnivel de trabajo desde el contenedor o captura de agua a la bomba de ariete mide 2 metros. Longitud de la manguera de alimentación (l): La distancia desde el punto de captura del agua a la bomba ariete es de 3 metros. Ángulo de inclinación de la tubería de alimentación (α): En base a la altura de elevación y a la distancia de suministro se obtiene el ángulo de inclinación de la tubería de alimentación. Algunos investigadores aconsejan que el ángulo de inclinación del tubo deba estar comprendido entre los 10º y los 45º con la horizontal. Para nuestro prototipo instalado, la inclinación máxima disponible de la tubería de alimentación cumple con las necesidades hidráulicas requeridas. Altura de elevación (H): La altura de elevación a la que se recoge el agua bombeada son 10.5 metros respecto a la posición del ariete hidráulico. Diámetro de la tubería de alimentación (D): Los investigadores Calvert (1957), Watt (1975) y Silver (1977) realizaron una relación entre la longitud y el diámetro de la tubería para establecer el valor más recomendado. Siendo:  D: Diámetro de la tubería de alimentación. L:  Longitud de la tubería de alimentación. Fuera de este rango la operación del ariete hidráulico puede verse afectado notoriamente. Una vez conocida la longitud de la tubería, se optó por un diámetro de 1 con el objetivo de generar una mayor diferencia de presión en la entrada del ariete hidráulico, de 1 de diámetro, cumpliendo con los valores recomendados anteriormente. D=1 El hierro galvanizado era el material ideal, sin embargo, encarecía el proyecto, por lo que se decidió por una tubería de polietileno de alta densidad. Caudal de alimentación (Q): Para medir el caudal de alimentación se colocó una cubeta, en la zona donde iba a ir ubicado el ariete, a la salida de la tubería para la recogida del agua, obteniéndose 40 litros de agua en 60 segundos, medido con un cronómetro, por lo que el caudal de alimentación es: Q= 40lt/sec


CONCLUSIONES

Durante la estancia de verano virtual se logro adquirir conocimientos sobre la bomba de ariete y en base a los datos obtenidos podemos ver que el  prototipo fue contundente debido a la capacidad de la misma y que el prototipo puede hacerlo a 75 metros  de longitud y 8 metros de altura.
Ponce Ibarra Carlos Fernando, Universidad de Guadalajara
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO DE STICKERS DE LENGUA DE SEñAS PARA WHASTAPP


DESARROLLO DE STICKERS DE LENGUA DE SEñAS PARA WHASTAPP

Ponce Ibarra Carlos Fernando, Universidad de Guadalajara. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente se está viviendo en una época de transición en cuanto a la inclusión se refiere; ya sea en el arte, escuela, trabajo o incluso actividades deportivas, las personas con capacidades diferentes cuentan con más facilidad de ser aceptados en comparación a épocas anteriores, tanto en tecnología como en la mentalidad de las personas. Sin embargo, si se remonta al ámbito social, se hace notorio que algunas de estas comunidades aún siguen sin tener un medio viable para poder interactuar en su entorno de la mejor manera. De acuerdo a Emilio Godoy, en su artículo titulado "Los intérpretes de lengua de señas mexicana intentan afrontar la discriminación por discapacidad" (2015), se estima que existen solamente 42 intérpretes certificados de lengua de señas para más de 649,000 personas presentan un grado de discapacidad auditiva. Esto deja la proporción de más de 15,000 personas para cada intérprete certificado, lo que se vuelve un reto muy grande a resolver. La mayor problemática se presenta en el área social, ya que además de no contar con mucho apoyo, la comunidad en general no se encuentra muy dispuesta a colaborar con esta comunidad, contrastandose con la cifra de 350 intérpretes no formales, citados en el estudio anterior.



METODOLOGÍA

Se consultaron dos grandes referencias en el área de la lengua de señas: El manual de lengua de señas mexicanas (perteneciente al DIF de Puebla) y el diccionario Manos con Voz; esto con la finalidad de recabar información y las señas a utilizar en los Stickers. Posteriormente se tomaron, ajustaron y agruparon las señas en diversas categorías, para hacerlo más fácil de comprender. En seguida, se pasó a realizar los Stickers mediante la App "Stickers personales para WhastApp". Debido a que permite agregar un máxico de 24 imágenes por categoría, la temática de "Familia" se separó en 2 grupos. Por último, se envió el paquete al asesor para que diera el visto bueno, y en seguida se subieron a la página de lengua de señas: http://lenguaje-de-senas-mexicana.000webhostapp.com/.


CONCLUSIONES

Durante la estacia académica, se logró completar el objetivo, guiado por un asesor que me ayudo y apoyó en el desarrollo y monitoreo de las señas. Se espera que, debido a la integración de WhastApp a los Stickers con movimiento, varias señas se modifiquen para una mejor experiencia. Así mismo, incluir los Stickers en la Play Store para ser descargados y utilizados por el público.
Portillo Garrobo Carolina, Universidad de Sonora
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

TECNOLOGíA EDUCATIVA


TECNOLOGíA EDUCATIVA

Portillo Garrobo Carolina, Universidad de Sonora. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La programación es un mundo muy amplio, con muchos lenguajes diferentes y un sinfín de campos en los que puede ser muy útil. El lenguaje Python es una alternativa muy eficaz para esto, pues es un lenguaje muy completo, de alto nivel y muy fácil de interpretarse para quienes somos nuevos o tenemos conocimientos básicos en este campo. Utilizando estas dos situaciones, se realizó una investigación más amplia a cerca de lo que es el lenguaje de programación Python, cómo funciona y de qué manera se adapta tan fácilmente a muchos usos diferentes, para con ello tener un conocimiento más amplio a cerca de este lenguaje y de cómo se puede aplicar especialmente a la tecnología educativa, sin embargo no solamente se desea conocer cómo se trabaja en la educación sino también tener una visión más general para lograr un conocimiento más amplio.



METODOLOGÍA

Primero que nada se nos indicó conocer qué es el Python, conocer que es un lenguaje Open Source, esto quiere decir que es libre para que los usuarios lo complementen, dicho lenguaje se originó a finales de los años 90 gracias a un investigador Holandés llamado Guido Van Rossum, quien no conforme con el lenguaje ABC decidió inventar algo nuevo que fuera más sencillo y que le diera los problemas con los que se había enfrentado utilizando el lenguaje ABC en trabajos anteriores. El nombre que se le dio fue gracias a una serie de la época, llamada Monty Python´s Flying Circus de la que Van Rossum era fan. Python es el lenguaje utilizado en empresas como Google, Walt Disney, Nokia y muchas más con giros diferentes pero que gracias a la flexibilidad de este lenguaje, pueden utilizarlo para cubrir sus diferentes necesidades. Otro ejemplo muy interesante es la aplicación de Python en la ciencia, como el famoso centro de investigación molecular CERN o en investigaciones como “Determinación y comparación de índices de erosión teóricos en cuencas del flanco Surandino v (Tiobe, 2020)enezolano”, entre otras; que busca comparar la erosión en cuencas de diferentes ríos de la región. Lo utilizan para el almacenamiento de datos, el primero gracias a la facilidad de adaptar este lenguaje con Matlab, otro idioma muy utilizado en la ciencia. El segundo por la facilidad de almacenar e interpretar datos. La electrónica, industria automotriz y por supuesto la educación son otros ejemplos de áreas en las que el lenguaje Python es utilizado. Se encuentra un gran número de Universidades tanto en México como en el resto del mundo que utilizan Python como lenguaje introductorio a la programación. Estudios recientes muestran un importante interés por introducirlo cada vez a más niveles educativos. Conocimos las ventajas que tiene Python respecto a otros lenguajes y son tantas que está posicionado en el 3er lugar de los mejores lenguajes de programación según la organización Tiobe en su última investigación hecha este mismo año (Tiobe, 2020). Después de haber entrado en contexto a cerca del lenguaje, nos trasladamos a la parte técnica, primero escogiendo implementar Python sobre el sistema operativo Linux, pues presenta mayores ventajas sobre los demás (Windows, Mac Os), una de ellas es que es un Software libre y además es más sencillo utilizar Python desde este sistema operativo que desde Windows, el sistema operativo que todos los veraniegos teníamos al inicio. Posteriormente se conoció el lenguaje, términos, usos, etc. Para poder ponerlo en marcha. En esta fase se aprendió desde lo más básico como la definición de una variable, cómo se define en Python, se vio lo que es una cadena de texto, cómo se expresan en este lenguaje los operadores aritméticos, cómo se escriben las fórmulas y los comentarios, se vio que las estructuras de control son básicamente como los condicionales en Microsoft Excel, y así muchos conceptos básicos y cómo se escriben en Python. Además de las características que tiene Python a cerca de las estructuras de control, el Shell interactivo con el que se puede trabajar, la elaboración de módulos y cómo los módulos forman paquetes, la manera en la que se clasifica todo en objetos y métodos (son las funciones) y muchas otras características pues es un tema muy extenso. A medida que avanzábamos en lenguaje y conocimiento de nuevas herramientas, se presentaban ejemplos en los que se aplicaban los conocimientos aprendidos, estos servían como guía para elaborarlos y así fue como se aprendió poco a poco y con problemas cada vez más complejos que integraban cada vez más herramientas.


CONCLUSIONES

Se obtuvo información teórica interesante e importante para comenzar a utilizar tanto el sistema operativo Linux, como el lenguaje Python. Debido al corto período de tiempo disponible, el dominio práctico del lenguaje no es alto, pero se adquirió la suficiente información como para seguir practicando y entenderlo cada vez mejor.
Puente Escamilla Hector Omar, Universidad Autónoma de Tamaulipas
Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas

ADMINISTRACIóN INTELIGENTE DE APOYOS SOCIALES MEDIANTE EL ANáLISIS DE DATASETS CON REDES NEURONALES.


ADMINISTRACIóN INTELIGENTE DE APOYOS SOCIALES MEDIANTE EL ANáLISIS DE DATASETS CON REDES NEURONALES.

Diaz Echavarria Fernando Azael, Universidad Autónoma de Tamaulipas. Puente Escamilla Hector Omar, Universidad Autónoma de Tamaulipas. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Enfocándose en las familias afectadas económicamente muchos de los gobiernos a nivel global han ofrecido apoyos a los sectores que más se han visto afectados por esta pandemia dado los despidos masivos de la industria, o bien, los cierres en los diferentes tipos de negocios ya sean informales, restaurantes o de cualquier otra índole, todos han sido afectados económicamente impactando así no solo en la economía del país, sino en el sustento de los hogares y en las personas.  El fin de este proyecto es el de crear un código que mediante técnicas de ciencia de datos se haga uso de una Red Neuronal para realizar una administración inteligente de los recursos que un gobierno pueda destinar a un sector de la población. Por ello, para efectos prácticos, se centrará en esta ocasión la implementación de una red neuronal para la gestión de recursos de una manera inteligente dando como prioridad a la localidad. Esta Red Neuronal es alimentada por los conjuntos de datos que proporcionan diferentes instituciones encargadas del análisis social a nivel nacional como lo son INEGI o CONEVAL. El desarrollo del proyecto se basó enteramente en ciencia de datos, la cual es la ciencia destinada al estudio de los datos, que en los últimos años ha consistido en el análisis de grandes cantidades de datos y que conforme avanza el tiempo, el volumen de estos no hará más que crecer exponencialmente.



METODOLOGÍA

En primera instancia, se tomará en cuenta la problemática y se plantearon preguntas relevantes acerca de está con el fin de definir claramente el objetivo que se quiere obtener. Una vez definido la problemática y el objetivo que se quiere contrarrestar, el siguiente paso en obtener datos para poder llegar a esos objetivos de manera objetiva y eficiente. Se decidió consultar fuentes de información confiables y objetivas, que reúnan información de manera masiva, con el fin de plantar un modelo bastante acertado, así que se eligieron los datos de fuentes como INEGI y CONEVAL.  Siendo el primero de donde ose obtuvieron datos relativos de la población en general y el segundo el que sirvió como referencia a quien le vendría mejor obtener una ayuda económica. Con las fuentes de datos seleccionadas, el siguiente paso es realizar una «criba» o limpieza sobre los datos seleccionados con el fin de arreglar inconsistencias dentro del conjunto de datos, así como definir patrones significativos útiles para cumplir el objetivo. Retomando lo anterior, con los datos definidos y «limpios» se puede pasar a la siguiente fase que consiste en tomar los datos y plantear una forma clara cuál será el acercamiento hacia la interpretación de los datos, explorando los diversos matices y ángulos desde los cuales se puede resolver el problema.  Teniendo los diversos ángulos en mente y con una perspectiva más enfocada, pasaran a la siguiente fase donde consiste en crear el modelo por el cual se podrá hacer un tratamiento a los datos para obtener un resultado en base a estos. Enfocándolo a este caso en particular, se definió que el mejor modelo para poner en práctica sería una red neuronal, misma que entrenaríamos en base a los datos y definiría cuales son los resultados esperados en base a la experiencia previa con este tipo de apoyos monetarios. Por último, se pasará a la etapa de interpretación de los resultados, en la cual se tomará lo anteriormente establecido y se sacaran conclusiones sea o no los resultados que se hayan esperado ya que, en ambos casos el análisis de los datos habrá arrojado una idea más clara del panorama real con el que se cuenta.


CONCLUSIONES

El enfoque que se a querido dar con este proyecto, es que la tecnología sea ha vuelto una herramienta enormemente útil en diferentes rubros y que, en este caso, ha brindado la idea y las herramientas necesarias para la solución a un problema que enfrentan no solo los gobiernos, sino que también viven las familias y la sociedad día con día desde que la cuarentena se estableció a raíz de la pandemia por el virus del COVID-19. Hay que recalcar que las Redes Neuronales son herramientas sumamente útiles que siendo bien aplicadas solucionan problemas y agilizan procesos de formas que antes no se hubiesen imaginado. Así que para resolver un problema como el mencionado aquí, resultaba siendo idóneo el poder aplicar estas herramientas para resolver de una manera eficiente y automática. Con la realización de este proyecto se puede demostrar que diferentes áreas del conocimiento puedan combinarse para lograr objetivos que por si solas serian mas complicadas y tardadas de alcanzar. Apoyándose en el ciclo de vida de un proyecto de ciencia de datos es como fue de ayuda al momento de definir y resolver el problema al que se decidió resolver, con la ayuda de ese ciclo el proceso fue estructurado, sencillo de entender y eficaz en su realización al contrario de que no se hubiera aplicado este método de planificación. Llegando a la conclusión de este resumen es como se puede decir que, por medio de este tipo de herramientas, se pueden tomar una gran cantidad de datos y analizarlos de tal forma que den como resultado una utilidad y así tomar decisiones precisas en base a estos.
Quezada Laurean Dora Guadalupe, Universidad de Sonora
Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango

DISEñO DE MECANISMOS PARA MOVIMIENTOS OCULARES DE UN PROTOTIPO DE UN TíTERE ANIMATRóNICO


DISEñO DE MECANISMOS PARA MOVIMIENTOS OCULARES DE UN PROTOTIPO DE UN TíTERE ANIMATRóNICO

Camacho Badilla Camila, Universidad de Sonora. Quezada Laurean Dora Guadalupe, Universidad de Sonora. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

México es uno de los países con mayor riqueza lingüística del mundo, según el Diario Oficial de la Federación, actualmente sobreviven 68 lenguas con 364 variantes en el territorio mexicano.Desafortunadamente con el paso de los años la población hablante de una lengua indígena ha disminuido, y los indígenas de la Sierra Norte de Puebla, quienes son hablantes nativos del Náhuatl no son la excepción.Lo anterior se debe a diversos factores como la discriminación y agresiones que sufren en el ámbito escolar o laboral, e incluso en las calles, por lo que prefieren comunicarse en español. El fin de nuestro proyecto es crear un niño animatrónico con los rasgos físicos de los indígenas de la Sierra Norte de Puebla, y así lograr esa unión o aceptación por parte de la sociedad a dichas personas, así como rescatar la lengua náhuatl y lograr conservar su cultura.Al finalizar en su totalidad el proyecto se espera obtener un animatronico que apoye el aprendizaje de la lengua Náhuatl, usando actividades prácticas como el saludo, numeración, cuentos, oraciones, etc.Esta parte del proyecto se enfoca en el rostro del animatrónico y se diseñarán mecanismos para ojos y cejas.  



METODOLOGÍA

Para dar inicio a los trabajos del verano científico estudiamos los mecanismos de algunos animatrónicos disponibles en  videos y literatura técnica, después seleccionamos los que consideramos más apropiados para los espacios de la cabeza del animatrónico y probamos algunos movimientos con material casero como cartones y pelotas de unicel.Después empezamos con el diseño de estos mecanismos y sus adecuaciones en el software SolidWorks. Los actuadores utilizados para generar los movimientos son servomotores MG996 de 15 kg.Los movimientos a transmitir para el globo ocular deben ser arriba y abajo y derecha e izquierda, para lograrlo se utilizó una junta universal que se caracteriza por su facilidad de moverse en esas direcciones, esta junta se conecta al globo ocular con un tornillo y el globo ocular se conecta a los actuadores con uniones bola y varillas que dirigen el movimiento deseado. Por otro lado, los párpados deben moverse hacia adelante y hacia atrás recorriendo el globo ocular para simular el abrir y cerrar de ojos, para ello se conectaron directamente con las uniones bola y varillas a un actuador por cada par de párpados.Finalmente, el movimiento de las cejas se realizó con dos actuadores que movían dos barras verticales conectadas de su parte inferior a la ceja colocada horizontalmente, de esta forma la punta de la cejas puede inclinarse hacia abajo y arriba, pero la ceja completa también puede moverse hacia abajo y hacia arriba. Al terminar de recrear los movimientos para ojos y cejas deberán instalarse en una base diseñada por las estudiantes, para después integrarse a la cabeza del animatrónico con los demás mecanismos.  


CONCLUSIONES

Hasta el momento hemos podido diseñar los movimientos deseados para ojos, párpados y cejas y nos encontramos ensamblando los mecanismos para posteriormente adecuar la base actual. Hemos incrementado nuestra práctica y conocimientos de diseño (CAD) y nos hemos sumergido en el mundo del funcionamiento de los animatrónicos, además de aprender sobre muchas de sus posibles aplicaciones e impacto en distintas áreas como la cultura.  
Quintana González Yansy Corina, Instituto Tecnológico de Toluca
Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato

ESTRéS TECNOLóGICO EN ESTUDIANTES A DISTANCIA


ESTRéS TECNOLóGICO EN ESTUDIANTES A DISTANCIA

Baltiérrez Cortés Ana Lilia, Universidad de Guadalajara. Quintana González Yansy Corina, Instituto Tecnológico de Toluca. Rocha Alfaro Nancy, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El estrés relacionado con lo académico se conoce como estrés académico. El estrés académico se refiere a las situaciones psicológicas desagradables que ocurren debido a las expectativas académicas de los padres, maestros, compañeros y miembros de la familia. El estrés académico es una angustia mental con respecto a alguna frustración anticipada asociada con el fracaso académico o incluso una conciencia de la posibilidad de tal fracaso. El estrés académico entre los estudiantes ha sido investigado durante mucho tiempo, y los investigadores han identificado los factores estresantes como demasiadas tareas, competencias con otros estudiantes, fracasos y malas relaciones con otros estudiantes o profesores  (Maykel, Deleyer, & Bray, 2018). El concepto de tecnoestrés surge como una respuesta a los efectos perjudiciales de la exposición a las TIC. Su estudio cobra cada vez mayor relevancia debido al aumento de la importancia de las TIC y es considerado como uno de los estresores más importantes en la sociedad actual. De hecho, se ha calculado que una persona que utiliza el ordenador como herramienta de trabajo ejecuta entre 12.000 y 33.000 movimientos de cabeza y ojos, las pupilas reaccionan de 4.000 a 17.000 veces y además se suelen ejecutar unas 30.000 pulsaciones de teclado.  (Chinchilla, 2010).



METODOLOGÍA

Se llevó a cabo la aplicación de un instrumento de recolección de información virtual a 103 estudiantes de nivel superior mayores de 18 años y seleccionados por conveniencia debido a su facilidad de acceso, así como su disponibilidad en participar dentro del estudio. El instrumento se conforma por cuatro bloques relacionados con el estrés, TIC´s, distracciones y utilización de redes sociales. Se utilizó una escala Likert para clasificar las respuestas obtenidas.


CONCLUSIONES

De acuerdo con los resultados obtenidos, el estrés que se presenta en estudiantes se puede ver manifestado en la concentración y atención, es por lo que el 36.9% de los encuestados está totalmente de acuerdo que los niveles de estrés aumentan debido a la sobrecarga de tareas y trabajos ya que el 52.4% concuerda con esta teoría. La falta de motivación en los estudiantes trabajando desde casa también influye mucho en el ámbito académico, ya que el 24.3% está totalmente en desacuerdo porcentaje alto en relación con los que están totalmente en acuerdo que es del 3.9% cifra bastante significativa ya que la motivación es el interés de querer aprender. Por otra parte, Las Tics influyeron de manera una muy positiva pues el 37.9% de los estudiantes notaron que sus niveles de estrés aumentaban ya que el abuso de la tecnología genera sobrecarga mental y dificultades para recordar pensar y descansar.
Quintanar Sotelo Christian Orlando, Universidad de Guadalajara
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

IMPLEMENTACIóN DE MODELOS NEURONALES CLáSICOS Y DENDRALES EN SOFTWARE PARA LA SOLUCIóN DE PROBLEMAS EN NAVEGACIóN VEHICULAR.


IMPLEMENTACIóN DE MODELOS NEURONALES CLáSICOS Y DENDRALES EN SOFTWARE PARA LA SOLUCIóN DE PROBLEMAS EN NAVEGACIóN VEHICULAR.

Quintanar Sotelo Christian Orlando, Universidad de Guadalajara. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las redes neuronales son modelos computacionales que están inspirados en la forma observada en que el cerebro humano procesa la información y tienen el objetivo de resolver problemas de la misma manera que el cerebro, aunque las redes neuronales son más abstractas. Estos modelos aprenden por sí solos sin necesidad de programar reglas o valores de forma explícita y sobresalen en áreas donde la solución es difícil de expresar mediante programación convencional. Dentro de esta estancia de investigación se trabajó con modelos neuronales clásicos (MLP) y modelos de procesamiento dendral (DMNN) aplicados en distintos datasets con el objetivo de realizar tareas de clasificación. Los modelos neuronales clásicos (MLP) consisten en un conjunto de unidades de procesamiento (neuronas), conectadas entre sí para transmitirse señales y producir valores de salida. Por otra parte, los modelos de procesamiento dendral (DMNN) consisten en neuronas morfológicas con dendritas, donde los valores de entrada se propagan por las dendritas en las cuales se realizan operaciones computacionales elementales emulando a los árboles dendríticos.



METODOLOGÍA

Se recopilaron distintas bases de datos para ser utilizadas con modelos clásicos y dendrales, donde se utilizaron las siguientes bases de datos para el entrenamiento e implementación de modelos neuronales clásicos: Modified National Institute of Standards and Technology database (MNIST), Canadian Institute For Advanced Research (CIFAR-10), GTI Vehicle Image Dataset y Stanford Cars Dataset. Y para el entrenamiento e implementación de modelos de procesamiento dendral se utilizaron los datasets: UCI-Iris, UCI-Glass y un subset del GTI Vehicle Image Dataset. Durante esta estancia se comenzó con los modelos neuronales clásicos (MLP) específicamente con el dataset de MNIST, diseñando e implementado primeramente una sencilla MLP de 3 capas (Entrada, Oculta y Salida) como una base para modelos posteriores, durante pruebas iniciales se evaluó el desempeño de la MLP en el dataset y se comenzó a incluir una capa de convolución y una de pooling para alimentar a la MLP obteniendo una mejora en la precisión. Posteriormente se agregó otra capa de convolución y de pooling al modelo obteniendo una ligera mejora en los resultados. Este modelo desarrollado se comparó con resultados obtenidos de una implementación de LeNet, obteniendo resultados prácticamente idénticos, pero con una menor complejidad en el modelo. Terminando con el dataset de MNIST se tomó el dataset CIFAR-10 donde se utilizaron los 3 modelos ya desarrollados anteriormente. Estos modelos obtuvieron resultados decentes pero la posibilidad de mejora era muy alta. Para esto se buscaron distintas arquitecturas y se diseñó una red convolucional basada en VGG16 que consiste en 4 bloques de dos capas de convolución seguidas de un pooling que alimentan a una MLP obteniendo los mejores resultados con este dataset. Posteriormente se comenzó a trabajar con el dataset GTI Vehicle Image Dataset, nuevamente se implementaron todos los modelos desarrollados anteriormente donde todos obtuvieron resultados aceptables además se comenzó con la implementación de arquitecturas ya establecidas (ResNet50, VGG16, MobileNet V2, DenseNet 121 y Inception V3) donde llegaron prácticamente a los mismos resultados. Finalmente, se trabajó con el dataset Stanford Cars donde se generalizaron las clases iniciales para terminar con 5 superclases que abarcan el tipo de vehículo las cuales son: SUV, Coupe, Sedan, Truck, Van. Al realizar la generalización de las clases los resultados en cuanto a clasificación mejoraron considerablemente con todos los modelos implementados. En cuanto a modelos de procesamiento dendral se utilizó el método de entrenamiento de DCM (Divide and Conquer Method) y se utilizaron diferente cantidades de características para los datasets tendiendo a utilizar solo 2 características para evitar el crecimiento exponencial de los recursos utilizados y el tiempo de entrenamiento/evaluación (utilizando preferentemente aquellos atributos que presentan la mayor correlación con la clase) para llegar a los mejores resultados en el entrenamiento. En el dataset UCI-Iris se utilizaron los atributos de Petal Length y Petal Width como características para realizar la clasificación con la DMNN, en el dataset UCI-Glass se utilizaron los atributos del contenido de Sodio y Aluminio y finalmente en el subset de GTI Vehicle Image Dataset se utilizó el Principal Component Analysis para hacer una reducción en el número de dimensiones originales a 2 características.


CONCLUSIONES

Durante este verano de investigación se logró adquirir conocimientos básicos sobre redes neuronales de forma teórica, así como su implementación para la resolución de un problema específico. En cuanto a modelos neuronales clásicos se obtuvieron los siguientes resultados para los datasets: MNIST: 98.83% de precisión. CIFAR10: 80.4% de precisión. GTI Vehicle Image Dataset: 99.11% de precisión. Stanford Cars Dataset: Originalmente con resultados cercanos al 40% de precisión utilizando las clases predefinidas en el dataset y posteriormente con la generalización de las clases un 90.72% de precisión con la implementación de DenseNet 121 con transfer learning. En cuanto a modelos de procesamiento dendral se obtuvieron los siguientes resultados para los datasets: UCI-Iris: Con una precisión del 100% utilizando DMNN a diferencia de 91.33% mediante MLP. UCI-Glass: Con una precisión del 100% utilizando DMNN a diferencia de 59.81% mediante MLP. GTI Vehicle Image Dataset: Con una precisión del 87.47% mediante DMNN a diferencia de 83.10% mediante MLP. A partir de estos resultados específicos se espera un tener un incremento en la precisión de los modelos clásicos con un mejor preprocesamiento, data-augmentation y formas de entrenamiento con los datasets. En cuanto a los modelos de procesamiento dendral se espera una mejor significativa con posteriores implementaciones en el manejo de recursos.
Quintero Rocha Perla Sofia, Universidad de Guadalajara
Asesor: Dr. Jose Luis Rodriguez Sotelo, Universidad Autónoma de Manizales

PROCESAMIENTO Y ANáLISIS DE CARACTERíSTICAS DE RITMOS CEREBRALES PARA LA DETECCIóN DE ESTADOS EMOCIONALES ANTE ESTíMULOS AUDIOVISUALES.


PROCESAMIENTO Y ANáLISIS DE CARACTERíSTICAS DE RITMOS CEREBRALES PARA LA DETECCIóN DE ESTADOS EMOCIONALES ANTE ESTíMULOS AUDIOVISUALES.

Quintero Rocha Perla Sofia, Universidad de Guadalajara. Asesor: Dr. Jose Luis Rodriguez Sotelo, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

El registro de señales electrofisiológicas, como lo es el EEG, tienden a tener ruido y artefactos inherentes del entorno donde se realizó el estudio o por tratarse de procesos fisiológicos naturales del sujeto en cuestión; por lo tanto el procesamiento de tales señales es requisito para posteriormente poder analizarlas e interpretarlas, conservando en su mayoría los datos que cuentan con información valiosa. Por otro lado, puede existir una amplia variabilidad entre la expresión de diversas emociones a través de estas señales de un individuo a otro, pues la forma en la que una persona percibe ciertos estímulos, nunca será idéntica a la percepción y expresión de otra persona, pese a tratarse de los mismos estímulos, por lo tanto se trata de información muy subjetiva y personalizada; tal característica debe ser muy considerada a la hora de analizar los datos.



METODOLOGÍA

Se leyó y analizó el artículo DEAP: A Database for Emotion Analysis using Physiological Signals, desarrollado por Koelstra et al en 2012; con el fin de comprender la base de datos multimodal poseedora del mismo nombre (DEAP), que surgió a raíz de tal investigación; dicha base de datos, entre tanto, contiene muestras de diversas señales electrofisiológicas de 32 sujetos tras ser estimulados audiovisualmente con videos de música (40 videos en total); además cuenta con datos generados por los usuarios donde se ponderaban tales videos de acuerdo a ciertas características (valencia, excitación, dominio, gusto, etc.). Posteriormente se descargó la base de datos para seleccionar la información que sería de utilidad en el presente trabajo. Se recuperaron únicamente las muestras correspondientes a los registros de electroencefalografía (EEG); así como los valores de valencia que cada sujeto seleccionó para los diferentes videos musicales; todo lo anterior en formato .mat, ya que el procesamiento se realizó en el software de Matlab. Seguido del filtraje de datos de interés mencionados anteriormente, se procedió a separar los videos en 3 grupos distintos: positivo, neutro y negativo; esto se determinó de acuerdo al nivel de valencia que los sujetos seleccionaron para cada video. Considerando que el rango de valencia estaba establecido de 1 a 9, la correspondencia para cada grupo fue cuasi equitativa, esto es: grupo negativo de 1 a 2.99, grupo neutro de 3 a 5.99 y grupo positivo de 6 a 9. Una vez agrupados los videos para cada sujeto se generó la densidad espectral de potencia de los registros de EEG y posteriormente se segmentaron en los diferentes ritmos cerebrales (theta, alpha, beta y gamma) con frecuencias de corte de 4-7.99, 8-13.99, 14-29.99 y 30-47 Hz respectivamente. Después se agruparon los electrodos correspondientes a cada hemisferio (derecho e izquierdo)  para finalmente hacer un análisis de simetría de los potenciales espectrales de las señales de EEG, prestando mayor atención en la zona frontal, pues está más relacionada con las emociones que el resto de las zonas cerebrales. Dicho análisis de simetría fue determinado por una ecuación muy sencilla que consiste en la diferencia de los pares de electrodos simétricos del hemisferio izquierdo menos los del hemisferio derecho.  Por último, se realizó una revisión literaria en el área del reconocimiento  de emociones a partir de señales de EEG con el fin de comenzar a estructurar el documento correspondiente para una posterior publicación del trabajo elaborado en la pasantía virtual.


CONCLUSIONES

La pasantía virtual tuvo como resultado el desarrollo exitoso de diversas funciones prácticas y eficientes para procesar y analizar señales de EEG ligadas a estados emocionales. Se cumplieron expectativas relacionadas a la comprensión de tópicos referentes a la línea de trabajo, así como de temas generales de investigación, tales como: redacción de artículos científicos, discriminación de información precisa y útil, bases de datos, entre muchos más. Pese al corto tiempo disponible para colaborar en el proyecto que resulta extenso por la cantidad de datos y características a analizar, hay un par de puntos en los que no se pudo profundizar como idealmente debería de ser, quedando así pendiente a realizar ciertas tareas, sin embargo, se considera que las herramientas generadas van a agilizar estos procesos en un futuro a corto o mediano plazo, donde finalmente se obtendrán resultados mucho más claros y concretos, merecedores de una publicación científica valiosa que aporte hallazgos beneficiosos para nuestra sociedad y el mundo.
Ramirez Aguilar Javier Alejandro, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

BARRIERS AND KEY RESEARCH ASPECTS FOR THE TECHNOLOGICAL DEVELOPMENT OF BROWN ALGAE VALORIZATION THROUGH ANAEROBIC DIGESTION. A REVIEW


BARRIERS AND KEY RESEARCH ASPECTS FOR THE TECHNOLOGICAL DEVELOPMENT OF BROWN ALGAE VALORIZATION THROUGH ANAEROBIC DIGESTION. A REVIEW

Maria Marin Sonia, Benemérita Universidad Autónoma de Puebla. Ramirez Aguilar Javier Alejandro, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

1. Introduction  The brown seaweed Sargassum spp (Sargassum fluitans and Sargassum natans) had arrived to the Caribbean beaches since 2011 every summer (van Tussenbroek et al., 2017). This seaweed has different impacts such as environmental, aesthetic, economic, and social. Environmental impacts can be summarized as lost of autochthone flora and fauna due to oxygen depletion (van Tussenbroek et al., 2017) and contamination of other ecosystems (cenotes) caused by tourist displaced from beaches (Casas-Beltrán et al., 2020).  In 2014, tourism industry meant more than 80% of the gross domestic product of the Caribbean region, generating $29.2 billion pesos (Tapia-Tussell et al., 2018), and, beside other causes, the smell when decomposing the seaweed lead tourist not to visit this region during sargassum season and has led many hotels, hostals and restaurants to close their doors because of the lack of tourists. And the same has happened to beach activities such as diving and water skiing (Casas-Beltrán et al., 2020). It calculate that at least $120 million would be required to remove Sargassum inundations throughout the Caribbean.   The main aim of the present work is to recognize the key research topics about anaerobic digestion of brown seaweed that may potentially lead to an effective technological development for industrial applications, based on the existing findings to date. 



METODOLOGÍA

2. Brown seaweeds chemical composition  Brown seaweed differ from green and red by the predominance of xanthophyll and fucoxanthin pigments that give them a yellowish-brownish color, masking other pigments such as chlorophyll and β-carotenes, furthermore the main difference consists in their complex reserves of polysaccharides (laminarin and D-mannitol), structural polymers (cellulose, alginic acid and fucoidan) and defensive molecules (phaeophycean phlorotannins) (Bast, 2014; Lee, Robert Edward (Colorado State University, 2008; León Álvarez & Núnez Reséndiz, 2017).  It has been proven (Soto et al., 2015; Tabassum et al., 2017a) that algae composition is different not only among species; even a different season of harvesting conduced to an extensively variation on salt and organic composition. Due this, the elemental composition and macromolecules present in algae vary between a wide range.   3. Considerations about pre-treatment of brown algae for biogas production  The pre-treatment methods must be carefully selected and planned based on the characteristic properties of the biomass (Kumar & Sharma, 2017). The different pre-treatment techniques seek to overcome the recalcitrance of seaweed biomass to improve its digestion, the pre-treatment physical, chemical, biological, etc.   4. Effect of anaerobic digestion conditions of brown seaweed  The methane production from brown seaweed may depend on the reactor operational regime. In a review article McKennedy & Sherlock (2015) collected information about methane production from Laminaria sp. on different systems, noting that there is less methane yield variability on semi-continuous systems (260-280 mL/gVS) than in batch experiments (71-430 mL/gVS).   5. Barriers to overcome in order to perform brown algae anaerobic digestion  To Produce methane from brown algae it is a challenge due cellular composition. In this chapter shows the enzyme group that participate in hydrolysis of the different seaweeds structures, the compounds inhibit and decrease the enzymatic activity, as well as metabolites produced during AD of brown seaweeds and their effect on antimicrobial activity, in order to understand the barriers in AD when use the brown seaweed as feedstock to propose strategies than improve the yield of the methane production in future.   5.1 Recalcitrance of the chemical structure of brown seaweeds to enzymatic hydrolysis  Even though, alginates are partially responsible of brown algae structure stability, the pretreatments with alginate lyase have not successfully improved the hydrolysis rate nor methane yield as shown by Vanegas et al. (2015). This suggests that the other recalcitrant components of brown seaweeds need to be degraded first for alginate lyases to perform their function, thus, a depolymerization pretreatment and/or a specialized hydrolytic consortium generating a diverse proteome in the reactor might be required to overpass the recalcitrance of the substrate. However, methane yield results obtained by Obata et al. (2020) when comparing the effect of microorganisms source on brown seaweed anaerobic digestion showed that a marine anoxic sediment was not preferable as inoculum over an anaerobic sludge from a WWTP, nevertheless their experiments where developed with two consortiums with different SMA which might explained the low methane yield and VFA production utilizing marine microbes.  5.2 Antimicrobial activity of brown seaweed components and microbial weeds  An important barrier for successful AD of brown seaweed can be dependent to their bioactive compounds. Numerous investigations show that compounds and derivatives contained in brown seaweed possess biological properties as well as pharmaceutical compounds, a very studied is the antimicrobial activity (Li et al., 2019; Pérez et al., 2016).  Determination with the disc diffusion technique is a common test to observe the antibacterial activity of seaweed extracts. Inhibition halos have been observed with aqueous and ethanolic extracts of S. mangarevense and Turbinaria ornate against S. aureus (Zubia et al., 2008) and with general components (lipid, polysaccharide and protein) of L. ochroleuc, in assays for Bacillus sp., Staphylococcus aureus, S. faecalis and Candida albicans (Boujaber & Assobhei, 2017).   Another possible barrier is the bactericidal effect of microorganisms that establish symbiotic associations with seaweeds. These epiphytic bacteria colonies, or biofilm, are influenced by factors such as type and part of algae, as well as geographical location and the season of the year, nonetheless, Proteobacteria (Alpha and Gamma), Bacteroidetes, Flavobacterium, Planctomycetes, Actinobacteria, Verrucomicrobia and Cyanobacteria are the main groups reported in brown seaweed (Pal Singh & Reddy, 2014). 


CONCLUSIONES

In view of the economic and ecological consequences of the recent sargassum blooms in the Atlantic Ocean, technological development is necessary for the valorization of brown seaweed, thus, anaerobic digestion for the production of biofuels and fertilizers represents a viable option.  Based on the findings to date on AD of brown algae, the application of pre-treatments in combination with good digestion conditions, are essential to obtain better methane production. 
Ramírez Alanís Gladis Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca

ESTUDIO DE SIMULACIóN EN SIMIO® AL áREA DE CAJAS DE UNA TIENDA DE AUTOSERVICIO


ESTUDIO DE SIMULACIóN EN SIMIO® AL áREA DE CAJAS DE UNA TIENDA DE AUTOSERVICIO

Bernal Venegas Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo. Perez Miranda Esther Itzel, Instituto Tecnológico Superior de Ciudad Hidalgo. Ramírez Alanís Gladis Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Liliana Fuentes Rosas, Instituto Tecnológico Superior de Tierra Blanca



PLANTEAMIENTO DEL PROBLEMA

El origen de los supermercados tiene lugar y fecha en el estado de Tennessee, Estados Unidos, un 16 de septiembre de 1916, cuando Clarence Saunders abrió el primer supermercado King Piggly Wiggly, la primera cadena de supermercados del mundo. Se considera que el señor Saunders no pensó en la comodidad de los clientes, sino en el ahorro de tiempo que suponía para el vendedor: se le ocurrió poner las mercancías al alcance de los consumidores, y así el comerciante solo tendría que cobrar y reponer productos de vez en cuando. El cambio fue radical pues se observó que un solo empleado podría atender un volumen de ventas tres o cuatro veces superior. Actualmente, la atención al cliente es un factor primordial para cualquier establecimiento, sin embargo, la atención brindada no es siempre la adecuada. Un sistema que no cuente con una correcta atención a clientes suele tener pérdidas en diversos aspectos: económicos, de clientes o de personal. En el supermercado Merza se tiene que el tiempo que llega a esperar un cliente para realizar el pago de sus compras al menudeo asciende a 03:21 minutos, mientras que los clientes de compras al mayoreo esperan hasta 11:45 minutos para realizar su pago. Los tiempos de espera suelen ser molestos para los clientes, ocasionando disgusto que puede ocasionar desde malas conductas hasta dejar de frecuentar la tienda, por lo que está en riesgo la pérdida de clientes.



METODOLOGÍA

Para la elaboración y evaluación del sistema se realizó un estudio de simulación bajo la metodología de Law y Kelton (2000), la cual consta de 10 pasos. Formulación del problema El supermercado merza es un establecimiento que se dedica a la venta de productos de abarrote, la cual labora en un horario de 07:00 a.m. a 10:00 p.m. y atienden clientes tanto de menudeo, como de mayoreo; tiene tres cajas, dos de ellas operan bajo una política de cajas que establece que, si la cola en caja1 es mayor a tres personas, la caja2 deberá abrirse al público, mientras que la caja3 funciona únicamente para clientes de mayoreo. El objetivo de la simulación es: Conocer el funcionamiento del sistema actual en un supermercado local llamado Merza para proponer mejoras Recolección de datos y definición del modelo Se identificaron seis variables representativas del sistema: Tiempo entre llegadas Tiempo de selección de artículos Tiempo de pago Tanto para compras a menudeo como mayoreo. Para la recolección de datos se elaboró un instrumento en el que se fueron vaciando las observaciones. El tiempo de recolección fue de dos días. Una vez obtenidos los datos, se realizó un tratamiento estadístico el cual incluye las pruebas de bondad de ajuste, para conocer el comportamiento de las variables y ver si se ajustan a distribuciones teóricas conocidas. Se utilizó el software Stat::Fit para la realización de las pruebas (Kolmogorov Sminorv y Anderson Darling). Del tratamiento estadístico realizado, se obtuvo que todas las variables se ajustaron a distribuciones teóricas conocidas. Para ilustrar el proceso que un cliente sigue dentro de la tienda, se elaboró el diagrama de flujo. Verificación del modelo El diagrama de flujo fue presentado a la encargada, quien verificó dicho proceso. Construcción del modelo Para la construcción del modelo en Simio fue necesario programar cada uno de los elementos arriba mencionados. Una de los grandes atractivos del simulador es la de ofrecer una animación en 3D muy atractiva. Pruebas piloto Se corrió el modelo un total de 10 veces para corroborar que la animación estuviera correcta. Esto también ayudó para la obtención de los datos necesarios para el paso posterior. Validación del modelo La validación verifica la precisión de la representación del modelo del sistema real. La validación del modelo se define como la justificación de que un modelo computarizado posee un rango de precisión satisfactorio referente a la aplicación prevista del modelo. Para realizar la validación de un modelo se utiliza la prueba t-pareada en dónde la hipótesis nula sustenta que los datos simulados son iguales a los del sistema real contra la hipótesis alterna de que no lo son. Todas las variables fueron sometidas al proceso de validación. Diseño de experimentos Se realizó el diseño de experimentos al 95% con ayuda del procedimiento de estimación de la media μ=E(x) con un error específico, una vez que el modelo había sido validado. Para evitar el problema de tomar decisiones en la primera corrida se determinó el mínimo número de ellas. Con un β=0.030, el número mínimo de corridas para tomar decisiones respecto al sistema es de 111. Corrida del programa Se corrió el modelo un total de 111 veces, en la figura 7 se observa el diseño de experimentos con 111 corridas en el simulador simio®. Análisis de resultados En la tabla 3 se muestran los valores correspondientes a los datos obtenidos en el sistema real.


CONCLUSIONES

Durante la estancia en el verano virtual se lograron adquirir conocimientos teóricos acerca de los modelos de simulación. Gracias al programa simio® la simulación realizada en esta investigación resultó de mucha ayuda para la obtención de datos, además de mostrar una animación muy realista, la programación resultó sencilla y fácil de emplear por lo que este simulador es ampliamente recomendable. Además, se lograron obtener diversos conocimientos sobre el área de la simulación y de la ingeniería industrial, la cual es la carrera a la que pertenecemos. Esperamos llevar a la práctica más proyectos de este tipo, pues estamos seguros, nos serán de mucha utilidad en nuestra formación profesional.
Ramírez García David, Instituto Tecnológico de Colima
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

DISEñO Y SIMULACIóN DE UN ANIMATRóNICO TIPO NARRADOR CONTROLADO MEDIANTE TARJETA DE DESARROLLO


DISEñO Y SIMULACIóN DE UN ANIMATRóNICO TIPO NARRADOR CONTROLADO MEDIANTE TARJETA DE DESARROLLO

González Moreno Sergio, Instituto Tecnológico Superior de Huauchinango. Martinez Gutierrez Gilberto Rene, Instituto Tecnológico de Colima. Ramírez García David, Instituto Tecnológico de Colima. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La animatrónica es una técnica que recrea el movimiento de seres vivos aprovechando los recursos técnicos que brinda la ingeniería y robótica, estos seres mecánicos son controlados y alimentados externamente. Se entiende como un intento de imitación de los seres vivos, figuras animadas en tres dimensiones, ya sea un humano o un animal y, usualmente, del tamaño real. En algunos casos, los animatrónicos podemos ver que se implementan en un ámbito académico cuyo objetivo principal está orientado hacia el desarrollo tecnológico. Pero en casi en todos tienen el propósito de entretenimiento siendo comúnmente empleados en la construcción de animales y criaturas de ciencia ficción para la industria cinematográfica, museos o en los zoológicos, dónde buscan exponer criaturas mitológicas o animales para imitar sus movimientos y comportamiento para el entretenimiento del público. La idea de este proyecto es diseñar y simular una figura animatrónica de grandes dimensiones que posea movimientos humanos muy similares con la ayuda de softwares de diseño CAD, empleando sistemas electrónicos y mecánicos para los movimientos de ojos, boca, cuello y brazos que serán realizados con mecanismos simples que serán controlados y programados a través una tarjeta de desarrollo Arduino nano. Además, con el fin de que el animatrónico se llamativo al público contará con un sistema de luces de leds RGB y humo artificial y un sistema de seguimiento vocal que sincroniza el movimiento de la boca con el sonido simulando así que el animatrónico hable.



METODOLOGÍA

Este trabajo se realizó en el Centro Universitario de los Valles de la Universidad de Guadalajara, México. Para el diseño del animatrónico se utilizó la metodología de desarrollo de productos descrita por Ulrich. Conceptualizar: a través de una lluvia de ideas se generaron los conceptos adecuados para que el animatrónico cumpliera con las siguientes características: llamativo, fácil de construir y fácil de implementar. Diseñar: Una vez definido todas las características del animatrónico, el diseño estará dividido en tres partes: mecánico, electrónico y control. Los cuales se desarrollaron en los softwares de diseño CAD SolidWorks versión 2018, Proteus 1.810 y IDE de Arduino respectivamente. Simular: Una vez terminadas las características y componentes de cada uno de los diseños, se realizaron simulaciones de cada uno de los sistemas en el mismo software donde fueron diseñados. Evaluación: para la parte de evaluación, se realizó un análisis de los resultados de la simulación para poder detectar algún detalle o error relevante para poder realizar los ajustes necesarios al diseño.


CONCLUSIONES

A partir de la conceptualización general se definió que el animatrónico estará compuesto principalmente por la cabeza y brazos, los cuales se colocarán sobre una base en la que contendrá los sistemas de control y de sonido. También el animatrónico contará con cinco movimientos principales, ojos, cejas, boca, cuello y brazos. Y para hacer que el animatrónico se más llamativo se decidió que el animatrónico tenga la capacidad de realizar un movimiento sincronizado de la boca con el sonido, simulando que el animatrónico esté hablando. Para que el animatrónico realice los movimientos de los ojos, boca y brazos decidimos utilizar actuadores lineales, ya que este dispositivo cuenta con un motor de corriente directa conectado a un tornillo sin fin, que dependiendo de la dirección del motor genera un movimiento lineal en el tornillo sin fin. Para el movimiento del cuello se decidió utilizar un motor bipolar nema 23, ya que este motor permite realizar un movimiento preciso y proporciona un alto torque. Y por último para el movimiento de las cejas se decidió utilizar microservos. Se procedió a realizar los diseños necesarios para los mecanismos de la cabeza, cuello y brazos, así también la estructura para la base, todo esto desarrollado a través del software SolidWorks. Después se procedió a realizar el diseño electrónico y tarjetas PCB para el control de los movimientos a través del software Proteus. Para la parte de control se desarrollo un diagrama de flujo del comportamiento del animatrónico que fue programado a través del entorno de desarrollo integrado (IDE) de Arduino. Una vez realizados los diseños se procedió a realizar las simulaciones, tanto de funcionamiento como de resistencia mecánica. En las simulaciones de resistencia mecánica ponemos aprueba el diseño mecánico del animatrónico bajo vectores de fuerzas representando la carga de los componentes que lo constituyen. Se analizó la deformación total de cada uno de los elementos críticos que lo conforman como: el eje principal, cabeza y base. Además de asegurarnos en cumplir con un factor de seguridad por arriba de 3. Toda esta simulación fue realizada en el software SolidWorks. Para las simulaciones de funcionamiento se puso a prueba el diseño electrónico y de control a través del software Proteus, utilizando el microcontrolador Atmega328p de la tarjeta de desarrollo Arduino nano, representando cada uno de los componentes del animatrónico. Los resultados de la simulación dieron la posibilidad de corregir unos detalles de diseño electrónico y de control, para poder obtener un resultado más satisfactorio. Para concluir, se obtuvo un diseño un animatrónico con aspectos humanos, logrando que los mecanismos recrearan movimientos propuestos, también se logró controlar por medio de sistemas electrónicos dichos mecanismos con el desarrollo de tarjetas de control y programación. Se planea perfeccionar los detalles estéticos del animatrónico, también se pretende implementar un sistema de proyección holográfico de imágenes y videos para elevar el impacto visual en el prototipo asiendo más atractivo para poder implementar este animatrónico en presentaciones demostrativas o incluso temáticas, estas últimas alusivas a tradiciones mexicanas con la simple razón de presentar el trabajo realizado.
Ramírez López Sergio, Instituto Tecnológico de Morelia
Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia

MANUAL USO DE PYTHON EN RASPBERRY PI 3


MANUAL USO DE PYTHON EN RASPBERRY PI 3

Ramírez López Sergio, Instituto Tecnológico de Morelia. Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los lenguajes de programación están teniendo un gran auge, es imposible imaginar un mundo actual en ausencia de estos. El lenguaje de programación Python es ampliamente utilizado en áreas como: Inteligencia Artificial, Big Data, Data Science, entre otras. Sin embargo, se carece de documentos en los cuales los estudiantes puedan obtener información clara y concisa sobre este lenguaje de programación. 



METODOLOGÍA

Se desarrollo un manual de programación en Python aplicado a una Raspberry Pi 3, en este se desarrolló una metodología en la cual el estudiante a través de ejemplos sencillos, problemas tangibles, así como pequeñas aplicaciones en electrónica, llegue a comprender y dominar el uso de este lenguaje de programación. El manual aborda los temas primordiales de los lenguajes de programación: tipos de datos, operadores, estructuras de control, funciones y aplicaciones.


CONCLUSIONES

Se concluye que el manual aborda satisfactoriamente los temas principales del lenguaje de programación Python, en este se puede obtener información fidedigna, ejemplos sencillos, así como también aplicaciones de Python y Raspberry en Electrónica; con lo cual, se sientan las bases necesarias para que el estudiante maneje y utilice este lenguaje para el desarrollo de tareas específicas. Sin embargo, cabe resaltar que sólo es reportada una pequeña parte de este lenguaje de programación. Python es sumamente basto, por lo cual, algunos temas están ausentes y estos serán objetivos de otros trabajos futuros. 
Ramírez Navarrete Pedro Ivan, Universidad Autónoma de Guerrero
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

PROTECCIóN CATóDICA EN ESTRUCTURAS DE CONCRETO REFORZADO


PROTECCIóN CATóDICA EN ESTRUCTURAS DE CONCRETO REFORZADO

Ramírez Navarrete Pedro Ivan, Universidad Autónoma de Guerrero. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El concreto reforzado es uno de los materiales para la construcción más utilizados en el mundo, dicho material tiende a deteriorarse por efecto de un proceso llamado corrosión. La corrosión es causada por la penetración de iones cloruro y CO2 al concreto reforzado llegando al acero de refuerzo causando la oxidación de este. Para minimizar la corrosión del acero y así el deterioro de la estructura se puede emplear un método llama protección catódica la cual consiste en conectar las varillas del acero de refuerzo a materiales que poseen mayor tendencia a corroerse como el magnesio, zinc y aluminio. Estos servirán como ánodos de sacrificio corroyéndose estos en lugar de las varillas en el concreto.



METODOLOGÍA

El principio básico de la protección con ánodos de sacrificio es el de una celda galvánica, donde el metal más noble se preserva mientras que el metal más negativo o activo se corroe. Para el acero del concreto reforzado los materiales que se pueden usar como ánodos de sacrificio son el zinc, magnesio y aluminio. El fenómeno se puede asociar al funcionamiento de una batería, donde dos metales con diferentes series galvánicas (conectados entre sí) y rodeados por un electrolito, sufren reacciones de oxidación y reducción. De ahí que el concreto reforzado, siendo un medio poroso, presente dicho comportamiento debido a fenómenos de transporte que llevan iones cloruro, oxígeno y agua dentro de la matriz, reduciendo la capa protectora de pasivación, generando que el acero tome propiedades químicamente activas como ánodo y cátodo. En una celda galvánica existe un flujo de corriente a través del electrolito desde el ánodo hacia el cátodo, mientras que los electrones pasan del ánodo al cátodo por un conductor metálico. De esta forma el cátodo se beneficia del suministro de electrones, disminuyendo así su velocidad de corrosión. Es entonces cuando se dice que el cátodo está protegido catódicamente.  


CONCLUSIONES

La corrosión es un proceso inevitable en la vida de una estructura de concreto reforzado, sin embargo se puede proteger mediante técnicas electroquímicas aumentando así su durabilidad considerablemente. Una estructura puede evitar ser demolida o puede alargarse su vida útil usando protección catódica, por lo que es una opción en la que los gobiernos o empresas privadas se pueden ahorrar muchísimo dinero en todo el mundo utilizando este método. Debido a que la realización de esta investigación fue de manera virtual existieron limitantes muy importantes, sin embargo, con la ayuda del asesor se ha podido comprender el funcionamiento de la corrosión y la protección catódica en estructuras de concreto reforzado.
Ramirez Velasco Ximena Paola, Instituto Politécnico Nacional
Asesor: Dra. Claudia Patricia Figueroa Ypiña, Universidad de Guadalajara

FACTORES ASOCIADOS A LA DESERCIóN UNIVERSITARIA DE LAS CARRERAS DE INGENIERíA DEL CENTRO UNIVERSITARIO DE LA COSTA.


FACTORES ASOCIADOS A LA DESERCIóN UNIVERSITARIA DE LAS CARRERAS DE INGENIERíA DEL CENTRO UNIVERSITARIO DE LA COSTA.

Chagal Saavedra Jose Roberto, Universidad Mexiquense del Bicentenario. Ramirez Velasco Ximena Paola, Instituto Politécnico Nacional. Asesor: Dra. Claudia Patricia Figueroa Ypiña, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La deserción escolar es una situación que preocupa a las instituciones de educación superior. Este estudio se centra en analizar los factores que inciden en la deserción de estudiantes de las carreras del área de ingenierías del Centro Universitario de la Costa de la Universidad de Guadalajara. Partiendo la información del Sistema Integral de Información y Administración Universitaria y del cuestionario a estudiantes desertores, los resultados indican que el programa educativo con mayor índice de deserción es la ingeniería en computación ya que cuenta con un 32.94%. Seguida de la ingeniería en comunicación multimedia que cuenta con un 29.31%. Finalmente, la ingeniería en telemática que cuenta con un 25.12% las causas principales obedecen a factores económicos, académicos y familiares.



METODOLOGÍA

En este estudio se presenta un estudio mixto de carácter descriptivo. A través de la información del Sistema Integral de Información y Administración Universitaria (SIIAU) de la Universidad de Guadalajara respecto al plan de estudios de los programas educativos de ingeniería en comunicación multimedia, ingeniería en computación e ingeniería en telemática del Centro Universitario de la Costa, junto con la aplicación del cuestionario de desertores a una muestra de estudiantes que solicitan la baja de la carrera. De la información recabada se obtuvo información sobre las causad del porque los estudiantes abandonan sus estudios con la intención de entender este fenómeno desde la perspectiva cuantitativa y cualitativa.


CONCLUSIONES

El estudio contempló una población de 1502 alumnos que desertaron de las carreras del área de ingeniería, tales como multimedia, computación y telemática, teniendo en cuenta que no existe un numero de deserciones igualitario en las carreras seleccionadas, puesto que como se mostró en la investigación, la carrera de multimedia tiene el 50% de deserciones, telemática con 26% y computación con 24%. Entre los factores de deserción del CUCOSTA se encuentran los académicos, los personales, socioculturales e institucionales; al igual que en los trabajos de investigación citados, el CUCOSTA no es ajeno al fenómeno de deserción durante los primeros años de las carreras a nivel superior, dónde el motivo principal son los factores personales, ocupando asi un porcentaje del 34.28% de los antes mencionados, cabe resaltar que dentro de esta categoría la situación personal identificada con mayor rango de deserción es que los alumnos se percataron de que no era la carrera indicada para ellos. Por otra parte, se observa con menor porcentaje las dimensiones académicas con un valor de 3.73% , analizando que la mayoría de dichas deserciones dentro de este factor son por asignaturas con bajo desempeño académico.
Ramos Campos Jessica, Instituto Tecnológico Superior de Apatzingán
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

CONCRETO RECICLADO EN LA REGIÓN OCCIDENTE DE MÉXICO. SITUACIÓN ACTUAL EN COLIMA


CONCRETO RECICLADO EN LA REGIÓN OCCIDENTE DE MÉXICO. SITUACIÓN ACTUAL EN COLIMA

Ramos Campos Jessica, Instituto Tecnológico Superior de Apatzingán. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los Residuos de Construcción y Demolición (RCD) son residuos generados en obras civiles u otras actividades relacionadas, los cuales están compuestos principalmente por material de excavación, residuos de concreto y elementos mezclados, prefabricados y pétreos. La generación de RCD en México fue de 10.15 millones de toneladas para 2018, según el Diagnóstico Básico para la Gestión Integral de los Residuos.  Se estima que el 25% corresponde a residuos de concreto que rara vez son aprovechados, terminando en sitios disposición final que en su mayoría se trata de sitios no autorizados, convirtiéndose en un grave problema ambiental. Existen diversas investigaciones internacionales acerca del aprovechamiento de residuos de concreto donde se indica que pueden ser utilizados como agregados reciclados en la fabricación de un nuevo concreto y se han registrado casos de éxito en su implementación. A pesar de esto, en México se han hecho pocas investigaciones sobre el tema y los casos de implementación han sido mínimos. Por otra parte, los RCD se clasifican como residuos de manejo especial, y la NOM-161 SEMARNAT-2011 establece que los constructores están obligados a cumplir con la formulación de un plan de manejo de residuos de construcción y demolición en el país. Por tanto, la finalidad de este trabajo es investigar la situación actual del concreto reciclado en Colima, es decir, qué investigaciones hay sobre el aprovechamiento de éstos, si existe una normativa que especifique su uso en obras civiles, qué están haciendo los constructores para la gestión de estos residuos y cuál es la opinión y/o conocimiento de las personas acerca de este tema.



METODOLOGÍA

Se realizó una búsqueda de literatura especializada nacional e internacional en base a informes, tesis y artículos en los cuales se reportaba el uso de concretos reciclados en diferentes temas como complemento en la construcción o agregado; una vez hecho se dispusieron los resultados de cada uno de los informes y ver las conclusiones a las que se llegaron. Se llevó a cabo un registro de inventario de los bancos de materiales que se encuentran en el estado de colima, centrado en la capital,  guiada por ficha para uso práctico en el que se localizaba el contacto con el banco, el contacto, el tipo de material que se manejaba y el tratamiento que se le daba, restricciones ecológicas y aspecto económico; así como los usos probables y si requería usos de explosivos, además de que se contemplaba información adicional como descripción del proceso de producción de agregados, la producción anual de agregados, porcentaje de materiales producidos por tipo, costo de los materiales producidos por tipo y si tiene de registro de emisión de polvos y otras sustancias. Para la recopilación de la información adicional, se contactó a los encargados de los bancos de materiales que fueron previamente identificados con base en el Inventario de Bancos de Materiales, dónde se identificaron 6 bancos en la capital de Colima. Posteriormente se hicieron fichas para recolección de datos de inventarios de empresas constructoras en el estado de Colima y aplicación de encuestas a las mismas para obtener información acerca de los RCD haciendo énfasis en el tipo de obra que se ejecuta mayormente, obras de ese tipo realizadas anualmente, ubicación de obras, tamaño promedio del tipo de obra, generación de RCD en la obra, proporción de volumen generados en la obra y uso que le dan a los RCD generados. Se realizó una encuesta sobre el uso de concretos reciclados al público en general, con la finalidad de saber si las personas tienen conocimiento sobre el concreto reciclado, si este pudiera ser considerado como buena alternativa para la implementación en obras civiles y qué idea u opinión tienen de los materiales reciclados. Esta encuesta se llevó a cabo en línea y lo que se reportó fue a 6 días de su publicación Seguidamente de los resultados basados en encuestas, se indagó en la búsqueda de literatura base a tesis, informes o artículos sobre concretos reciclados en la zona de estudio y resumir la información de los RCD, así también se realizó una búsqueda de leyes, normas y/o planes de manejo de RCD en la cuidad de Colima para conocer el informe y/o artículos que abarca. Finalmente, se elaboraron solicitudes de información a dependencias ambientales del municipio y/o estado de estudio, para la obtención de datos sobre generación de RCD, número y ubicación de sitios autorizados para la disposición de los RCD, número y ubicación de centros de reciclaje de los RCD, número y ubicación de centros de acopio de los RCD en la Capital de Colima. Cuando se tenga completada la información, se realizará un informe de toda la recopilación y se elaborarán propuestas para un mejor aprovechamiento de residuos de concreto.  


CONCLUSIONES

La encuesta el sobre el uso de concretos reciclados en obras civiles mexicanas se aplicó a la población mexicana en general. Del total de encuestados, sólo el 6.86 % reside en la capital de Colima, de los cuales el 100% dice que el reciclaje parece una buena medida de gestión ambiental, el 96% están de acuerdo en que debería implementarse en todo tipo de industrias, el 83% tiene una ocupación que está relacionado con la industria de la construcción, el 83% confiaría en una construcción hecha a base de concreto reciclado y sólo el 70% sabe lo que es el concreto reciclado. De estos últimos, el 100% opina que debería utilizarse en más obras civiles en México y el 81% indica que debería hacerse en obras de urbanización. Es importante mencionar que las respuestas que se tienen al momento son pocas, por tanto se pretende abrir la encuesta por más tiempo e implementar estrategias que nos permitan obtener más respuestas.
Ramos Coutiño Luis Alonso, Instituto Politécnico Nacional
Asesor: Dr. Francisco Ronay Estrada López, Instituto Tecnológico de Tuxtla Gutiérrez

DISEñO DE UNA GRúA MECáNICA DE 5 GRADOS DE LIBERTAD


DISEñO DE UNA GRúA MECáNICA DE 5 GRADOS DE LIBERTAD

Ramos Coutiño Luis Alonso, Instituto Politécnico Nacional. Asesor: Dr. Francisco Ronay Estrada López, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, se emplean sistemas mecánicos que permiten trasladar objetos en los tres sistemas de ejes coordenados, lo cual, limita los movimientos e impide realizar estudios avanzados de control, por otra parte, la carga también se limita para evitar conflictos en el movimiento. El diseño constara de un tren de engranes para duplicar la potencia, con una fuerza de arrastre que ocasionara mover una mayor cantidad de carga, soportes para el motor y el encoder, resolviendo de manera eficiente las limitaciones anteriormente mencionadas.



METODOLOGÍA

Diseñar las mejoras en la parte mecánica de la grúa como el tipo de engranes, soportes y ejes, es fundamental para un mejor desempeño de la grúa al momento de montar los componentes electrónicos. Cada pieza se realizará en el SolidWorks, siendo un software de diseño asistido por computadora (CAD). La importancia del uso de la herramienta SolidWorks simulation dentro del software CAD, permitirá realizar tareas de ensambles, animación de movimiento y estudio estático, con el fin de observar su funcionamiento antes de fabricar las piezas. Este prototipo se realizará en el laboratorio de control y automatización, quedando la simulación de cada estudio estático y la animación de movimiento, para después imprimirlas en el mismo laboratorio que se encuentra Instituto Tecnológico de Tuxtla Gutiérrez, con estas mejoras en la grúa aérea el objetivo es desarrollar mejoras de control. La estructura de la grúa se realiza con las dimensiones de 1.5m de ancho por 1.5 m de largo por 1.5 m de alto formando así un cubo, con tubo cuadrado de 4cmx4cm de Acero A36. La función del riel, es para que exista el desplazamiento de los ejes X y Y, manteniéndose fijo, y por medio de dos pares de carros transiten sobre los rieles fijos establecidos en el eje Y.


CONCLUSIONES

Se concluye dicho verano de investigación de forma satisfactoria, dejando los archivos de cada pieza lista para imprimir una vez que permitan la entrada al laboratorio de control y automatización, cumpliendo con lo requerido por parte del investigador y corroborando de que SolidWorks es una herramienta útil para el diseño de piezas mecánicas, haciendo uso de la herramienta SolidWorks Simulation para observar el factor de seguridad de los soportes, aprobándolo de manera exitosa, estos soportes son resistentes a los esfuerzos y movimientos a los que la grúa estará sometida.
Ramos Reyes Lizeth Montserrat, Universidad de La Salle Bajío
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

MODELO DE IMPACTO DE COMORBILIDADES DE COVID-19 CON REDES NEURONALES


MODELO DE IMPACTO DE COMORBILIDADES DE COVID-19 CON REDES NEURONALES

Ramos Reyes Lizeth Montserrat, Universidad de La Salle Bajío. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Introducción En el siguiente trabajo se hace un adentramiento al tema de Redes Neuronales que se refieren a la técnica estadística que se basa en imitar las características que presentan las células neuronales llamadas neuronas. (Shipunov, 2018) Para el desarrollo se decidió utilizar el lenguaje de programación R, desarrollado en 1993 por Ross Ihaka y Robert Gentleman. En 1995, R se volvió gratuito con la Licencia Pública General (GNU). (Peng, 2016). De acuerdo con Kabacoff (2011), R es un lenguaje y ambiente para estadísticas informáticas y gráficas. El autor señala que es una solución de código abierto para el análisis de datos. De acuerdo con Kabacoff (2011). Funcionalidades de R R divide sus funciones en paquetes. El sistema base de R incluye lo fundamental para correr R. Los paquetes disponibles para descargar en CRAN superan la cifra de 4000 y una gran cantidad de paquetes están siendo desarrollados en repositorios como GitHub y BitBucket (Peng, 2016). Desventajas de R R puede presentar problemas al manejar bases de datos demasiado extensos, pues almacena los objetos dentro de la memoria, por lo que se limita a la capacidad de RAM disponible (Kabacoff, 2011). Marco Teórico En la presente investigación, se inició obteniendo la base de datos requerida, el trabajo cuenta con datos de 3 Estados específicos: Aguascalientes, Colima y Guanajuato. El primer hallazgo que se pudo realizar fue que el Estado que presentó mayor transparencia en sus datos fue Guanajuato, pues presenta una clara separación entre temas, en el aspecto nacional y estatal, hasta el municipal (Secretaria de Salud, 2020). De los tres Estados, Guanajuato es el que se encuentra en la posición más alarmante en cuestiones de COVID-19, se posiciona como el segundo lugar nacional de casos confirmados según la Secretaria de Salud. En Guanajuato, del total de 26,807 casos confirmados, 42.1% presentan comorbilidades, siendo las más frecuentes: Hipertensión, obesidad, diabetes y tabaquismo. En menor porcentaje, partiendo de 5% a menores, se encuentra: Asma, enfermedades cardiovasculares, insuficiencia renal, EPOC, otra condición, inmunosupresión y VIH. La tasa de letalidad que se presenta en Guanajuato es del 5.9 por cada 100 casos, la tasa nacional es de 10.9%. Redes Neuronales Se propone el desarrollo de redes neuronales que permitan tener un conocimiento más profundo sobre el impacto que presentan las comorbilidades en una persona diagnosticada con COVID-19, para así hacer una predicción que pueda comunicar el nivel de riesgo a fallecer que el individuo presente. La red neuronal que debe tener los datos: Neumonía, edad, diabetes, EPOC, asma, inmunosupresor, hipertensión, otra comorbilidad, cardiovascular, obesidad, renal crónica y tabaquismo. Se probaron distintos modelos, inicialmente fue una red neuronal de 3 capas, con 12 neuronas en la capa de entrada, 15 neuronas en la capa oculta y una neurona en la capa de salida, la cual correspondía a la probabilidad, expresada por un 1 de ser afirmación, y 0 de ser negativo. Al testear la red neuronal los resultados no eran certeros, por lo tanto, se decidió agregar más neuronas y más capas. En este segundo intento, se tuvieron 2 capas ocultas con 40 y 20 neuronas, respectivamente. Al evaluar la red neuronal, se seguían presentando numerosas desviaciones, por lo cual, se intentó realizar otra, en la cual habría una capa oculta más, sin embargo, no fue posible visualizar el diagrama de esta última red neuronal porque nunca lo logró terminar de procesar. Por lo tanto, se tuvo que iniciar a investigar nuevos métodos y programas, se logró encontrar como alternativa en el programa IBM® SPSS Modeler, el cual reúne herramientas para minería de datos que de manera rápida genera modelos predictivos, cuenta con numerosos métodos de modelado para realizar predicciones (IBM, 2020). Éste es una alternativa viable al ser altamente gráfica, por lo cual no presenta problema en lo que refiere a lenguaje de programación. Al utilizar SSPS se seleccionó la opción Precisión global como métrica de clasificación y para el método en conjunto, se seleccionó Votación ponderada de confianza, el cual define los niveles de confianza. De lo anterior se obtiene como resultado un nugget del modelo generado. Con los pasos anteriores, se obtuvo una ruta, que corresponde al código fuente. Los elementos que se muestran son: Archivo, el cual es la fuente de datos, que es el registro de la Secretaria de Salud respecto al COVID-19; a continuación, el Tipo refiere al tratamiento de los datos, el cual muestra los datos obtenidos y su clasificación; DEF es la red neuronal y la Tabla, que resulta del entrenamiento de la red. Al unirlos y ejecutar el algoritmo, automáticamente genera la red neuronal, que se presenta como un diamante dorado, el cual permite visualizar la información de la red creada, que fue de 3 capas, donde la capa oculta presenta 5 neuronas. El programa decide las capas y neuronas necesarias para la obtención del objetivo. Al evaluar el funcionamiento de la red se encontró que el nivel de fiabilidad de la misma es de 93.7%



METODOLOGÍA

Metodología Se comenzó con una investigación documental, durante la cual se analizó la información relacionada al COVID-19 en los 3 Estados para poder pasar a una investigación experimental, en la que se inició con la programación para la obtención del objetivo. Finalmente, con un modelo comparativo se evaluaron los resultados obtenidos.


CONCLUSIONES

Resultados Para comprobar la fiabilidad de los resultados de la red neuronal creada, se compararon los resultados de las predicciones hechas por la red contra la red ya entrenada, es decir, lo obtenido de la base de datos original. Se pudo visualizar que el porcentaje de errores que la red ha cometido, en los cuales no se superó la cantidad de 6.5% Se obtuvo una red neuronal con 93.7% de exactitud en la predicción del riesgo de defunción en pacientes de COVID-19 según las comorbilidades presentadas.
Rebollar Rodriguez Berenice, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ANÁLISIS COSTO-BENEFICIO DE LA IMPLEMENTACIÓN DE PET RECICLADO EN FORMA DE ESCAMA EN UN CONCRETO HIDRÁULICO CONVENCIONAL DE RELACIÓN AGUA/CEMENTO MODERADA, PARTIENDO DE LA REVISIÓN DE LA PRODUCCIÓN DE PET VIRGEN Y SU PRODUCCIÓN FINAL DE ESTE


ANÁLISIS COSTO-BENEFICIO DE LA IMPLEMENTACIÓN DE PET RECICLADO EN FORMA DE ESCAMA EN UN CONCRETO HIDRÁULICO CONVENCIONAL DE RELACIÓN AGUA/CEMENTO MODERADA, PARTIENDO DE LA REVISIÓN DE LA PRODUCCIÓN DE PET VIRGEN Y SU PRODUCCIÓN FINAL DE ESTE

Rebollar Rodriguez Berenice, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El concreto hidráulico es una mezcla homogénea de cemento, agua y agregados pétreos; es el material más empleado actualmente en la industria de la construcción por su duración, resistencia, impermeabilidad, facilidad de producción y economía (Gutiérrez, 2003). Para la obtención de un concreto de calidad se necesita de una buena relación agua/cemento que es el valor característico más importante de la tecnología del concreto hidráulico. De ella dependen la resistencia y la durabilidad, así como los coeficientes de retracción y de fluencia. Eventualmente al concreto se le agrega algún aditivo o refuerzo para mejorar las características físicas o mecánicas ya sea en estado fresco o endurecido; en el presente estudio, se busca reforzar la mezcla de concreto con escamas plásticas y analizar su costo directo del material, comparado con el de un concreto convencional y el de un concreto con malla electrosoldada; permitiendo de esta manera, decidir se existe un beneficio económico, sin considerar lo que pueda resultar de analizar el desempeño mecánico o de durabilidad en este tipo de material con adición de PET. El PET (tereftalato de polietileno) es un material caracterizado por su gran ligereza y su resistencia mecánica a la compresión, resiste al desgaste, a los productos químicos, al impacto y posee una gran dureza. Es un plástico muy usado en envases de bebidas (Alesmar, 2008). La versatilidad del plástico permite su incorporación a cualquier proceso productivo o producto final, por lo que en la actualidad el mercado de los productos plásticos tiene un lugar sobresaliente en el conjunto de la economía.  El análisis costo-beneficio es un proceso que se refiere a la evaluación de un determinado proyecto para tomar decisiones de cualquier tipo. Ello involucra, determinar el total de costos y beneficios de todas las alternativas para seleccionar la mejor o más rentable (Mejia, 2012).



METODOLOGÍA

Para la realización del análisis costo-beneficio de la implementación de PET reciclado en forma de escama en un concreto de relación agua/cemento moderada, se llevaron a cabo tres partes fundamentales: Participación en 33 ponencias desarrolladas por investigadores del Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil (UMSNH). Investigación documental, en buscadores académicos. Un análisis costo - beneficio de la implementación del PET a partir de la comparación del costo total de 1 m3 de concreto hidráulico convencional, 1 m3 de concreto con 1% de fibra de PET respecto a la masa del cemento y 1 m3 de concreto con malla electrosoldada, para la toma de decisiones en construcciones futuras. La dosificación de los materiales para la elaboración de 1 m3 de las tres mezclas de concreto, se llevó a cabo mediante el método de diseño ACI 211, considerando una relación agua/cemento moderada de: a/c=0.51, un revenimiento de 7.5 cm y las características físicas de los materiales, proporcionadas por el coordinador de la investigación y cuyos valores son los siguientes: Cemento ... MVSS= 1490 kg/cm3, Densidad= 3.10 kg/cm3 Arena ... MVSS= 1244 kg/cm3, MVSV= 1363 kg/cm3, Densidad= 2.10 kg/cm3, Absorción= 7.5%, Modulo de Finura= 2.55 Grava ... MVSS= 1441 kg/cm3, MVSV= 1601 kg/cm3, Densidad= 2.71 kg/cm3, Absorción= 2.0%, Tamaño Max. = ¾ pulg. Los costos directos de las tres mezclas tienen en común el precio unitario de los materiales principales, que son: el cemento Portland con un precio de $3,270/t, los agregados pétreos con un precio de $650 el m3 y el agua con un precio de $19.91 el m3. A continuación, se muestran los costos directos para 1 m3 de la mezcla de concreto sin refuerzo, la mezcla de concreto con refuerzo de 1% de PET en forma de escama con un precio en el mercado de $13,500 la tonelada de material (Golden, 2019) y la mezcla de concreto reforzada con 1m2 de malla electrosoldada de 6x6/10-10, suponiendo su uso en un pavimento de 10 cm de espesor, con valor de $25,770 la tonelada de malla. Mezcla 1. Concreto convencional. Cemento ... Cantidad= 0.401961 t/m3, Precio por cantidad: $1,314.41 Arena ... Cantidad= 0.244464 m3, Precio por cantidad: $158.90 Grava ... Cantidad= 0.373429 m3, Precio por cantidad: $242.73 Agua ... Cantidad= 0.267278 m3, Precio por cantidad= $5.32 Total, costo directo= $1,721.36   Mezcla 2. Concreto con 1% de PET, respecto a la masa del cemento. Cemento ... Cantidad= 0.401961 t/m3, Precio por cantidad: $1,314.41 Arena ... Cantidad= 0.244464 m3, Precio por cantidad: $158.90 Grava ... Cantidad= 0.373429 m3, Precio por cantidad: $242.73 Agua ... Cantidad= 0.267278 m3, Precio por cantidad= $5.32 Escamas de PET reciclado à Cantidad= 0.00401961 t/m3, Precio por cantidad= $54.26 Total, costo directo= $1,775.63 Mezcla 3. Concreto reforzado con malla electrosoldada. Cemento ... Cantidad= 0.401961 t/m3, Precio por cantidad: $1,314.41 Arena à Cantidad= 0.244464 m3, Precio por cantidad: $158.90 Grava ... Cantidad= 0.373429 m3, Precio por cantidad: $242.73 Agua ... Cantidad= 0.267278 m3, Precio por cantidad= $5.32 Malla Electrosoldada à Cantidad= 0.009 t/m3, Precio por cantidad= $252.546 Total, costo directo= $1,973.91


CONCLUSIONES

En cuanto al análisis expuesto, se determina un costo directo diferente en cada caso. El costo del concreto convencional es de $1,721.36, con el incremento del 1% de PET, el costo se eleva $54.26 dando como resultado de nuestra mezcla 2 un precio de $1,775.63. El concreto reforzado con malla se elevo $252.54 por encima del precio del concreto convencional, dando así un costo directo total de $1,973.91, siendo este, el costo mas elevado de las tres dosificaciones expuestas. Comparando resultados, es evidente que reforzar concreto con malla es mas costoso que usar agregado de PET reciclado, ya que hay una diferencia de $198.28. Además, empleando mayores cantidades de material el precio tiende a bajar, reduciendo significativamente nuestros costos totales de concreto. Es entonces que, la incorporación del PET en concreto convencional es mas barato como refuerzo que la malla electrosoldada, independientemente del desempeño mecánico que ambos ofrezcan. Y también genera un resultado favorable al análisis costo-beneficio.
Redondo Pinto Jhandra Mishelle, Universidad de la Guajira
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEÑO DE UNA CASA ECOLÓGICA AUTOSUSTENTABLE (DISEÑO DE UN BAÑO SECO, UN BIOFILTRO Y UN SISTEMA DE AGUAS GRISES)


DISEÑO DE UNA CASA ECOLÓGICA AUTOSUSTENTABLE (DISEÑO DE UN BAÑO SECO, UN BIOFILTRO Y UN SISTEMA DE AGUAS GRISES)

Redondo Pinto Jhandra Mishelle, Universidad de la Guajira. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

Hoy en día nuestro planeta se ha visto afectado por diversos factores, que actualmente se salen de nuestras manos, entre estos el calentamiento global, el derretimiento de glaciares y los polos, escasez de agua, extinción de especies entre otros, gran parte de estos problemas los ha causado el hombre, y aunque es imposible eliminarlos por completo, podemos mitigarlo de alguna u otra forma. En el caso de la contaminación de nuestro planeta, que afecta día tras día, contaminando mares y ríos, convirtiéndose en botaderos, afectando no solo a plantas y animales sino también la salud de las personas. Las aguas negras afectan directamente a esta situación; las aguas grises provenientes de los fregaderos, lavaderos, duchas y lavamanos por lo general se desperdician, ya que el sistema convencional al no tener un sistema de drenaje apropiado, une las aguas grises con las aguas negras haciendo imposible su reutilización. Los baños secos son una alternativa para evitar la contaminación de las aguas tanto de los mares, ríos y lagos, de igual forma reducir el consumo excesivo de agua, ya que en algunos lugares es difícil mantener este recurso constante. Con el tratamiento de aguas grises mediante un biofiltro se pueden depurar las aguas proporcionando agua de buena calidad tal que, se pueda darle un segundo uso en el hogar como por ejemplo el riego en un invernadero. La gran mayoría de las aguas residuales de todos los tipos de edificaciones y complejos van directamente al ambiente ya sea los ríos, mares o lagos; a cielo abierto o directamente al subsuelo como son los pozos sépticos; estos ya no tienen la capacidad para mitigar este contaminante, debido a la falta de plantas de tratamiento para antes de que llegué a dicho receptor. Las aguas de desecho dispuestas en una corriente superficial sin ningún tratamiento, ocasionan graves inconvenientes de contaminación que afectan la flora y la fauna. Estas aguas residuales, antes de ser vertidas en las masas receptoras, deben recibir un tratamiento adecuado, capaz de modificar sus condiciones físicas, químicas y microbiológicas, para evitar que su disposición cause los problemas antes mencionados Por tal razón en esta investigación se propone diseñar un sistema de tuberías de PVC únicamente para las aguas grises el cual nos permitiría redireccionarla a una biojardinera para su depuración, siendo este método económico, asequible, de fácil mantenimiento y por supuesto no genera contaminación, por el contrario, aporta al medio ambiente, de igual forma se emplea un baño seco libre de agua el cual nos proporcionará recursos valiosos para las plantas.



METODOLOGÍA

Obtención de información técnica La estrategia metodológica que se determina en este proyecto, parte del análisis de los aspectos cualitativos y cuantitativos de estudios explorativos, búsquedas documentales y de archivo, mediante trabajos locales y nacionales, observación participante para la realización de la transcripción y análisis del contenido. Por otra parte, la información básica obtenida son datos sociales y de infraestructura existente, los cuales se toman como parámetros de ayuda para la investigación, cuyo objetivo es la sostenibilidad ambiental en nuestra vivienda, permitiéndonos así realizar nuestros diseños definitivos. De igual forma se tuvieron en cuenta aspectos importantes como los residuos sólidos, aguas negras y grises, los niveles de consumo de agua para una familia de 5 personas. Interpretación de datos Determinar los niveles de contaminación y sostenibilidad en el medio urbano, así como también la capacidad de recepción de recursos renovables y la reincorporación de residuos a través de la elaboración de composta y fertilizante, para utilizarlo en plantas, de la misma manera el reúso de las aguas grises, mediante un Biofiltro para el riego en nuestro invernadero. Síntesis Con respecto a los datos cuantitativos de niveles de sostenibilidad estos se desarrollan realizando mediciones en el proyecto actual, y realizaciones de cálculos con información existente relacionados a la cantidad promedio de agua utilizada por las familias a nivel urbano, para el diseño de una tubería y un biofiltro para el tratado de aguas grises.


CONCLUSIONES

Tras finalizar nuestra investigación se han diseñado varios sistemas para el funcionamiento de una vivienda ecológica autosustentable, los cuales aprovechan los desechos del ser humano, y las aguas ya utilizadas para otros fines, tales como riego de plantas o composta y fertilizante, aportando así al medio ambiente. Cabe mencionar que, gracias al verano de Investigación científica, he logrado ampliar mis conocimientos, referente al diseño y construcción de una vivienda Ecológica, reforzando mi formación académica, de igual forma he cambiado mi perspectiva con respecto a los recursos naturales que la madre tierra nos ha dado, impulsándome a seguir ayudando al medio ambiente, de igual forma he querido compartir estos conocimientos con las demás personas para que vean otras alternativas de aprovechar estos recursos, sin dañar el medio ambiente.   ¡Por un mundo más Autosustentable!
Rentería Sosa Darío Francisco, Universidad Autónoma de Guerrero
Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo

ARQUITECTURA EDIFICADA EN MADERA


ARQUITECTURA EDIFICADA EN MADERA

Rentería Sosa Darío Francisco, Universidad Autónoma de Guerrero. Ricardo de Jesus Brenda Liz, Universidad Autónoma de Guerrero. Saldívar Villalobos Esmeralda, Universidad Autónoma de Chiapas. Soto Ruiz Miriam Sofía, Universidad de Sonora. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Una de las principales problemáticas socioeconómicas a nivel país en México es la vivienda. Estadísticamente se tiene que el 75% del uso de suelo en México va destinado al uso de vivienda, como aproximadamente el 85% del PIB es producido en ciudades se genera la necesidad de establecer una alternativa de construcción sustentable que pueda reducir la huella de carbono en asentamientos de alta densidad poblacional como las ciudades, de modo que se cumpla con el postulado ambiental de la sustentabilidad, en busca de una construcción que pueda ser considerada sustentable en el entorno posmoderno.



METODOLOGÍA

Mediante estudios cualitativos se observaron las distintas propiedades de la madera, analizando en ellas la conductividad térmica, propiedades acústicas, comportamiento ante el fuego, comportamiento higrotérmico, permeabilidad al agua, entre otros. Bajo esta premisa se estudiaron distintos sistemas constructivos especializados en construcción con madera de ingeniería, por medio de los cuales realizaríamos un proyecto de construcción tentativo edificado en madera que supliera alguna necesidad o servicio de una comunidad, de tal manera que cumpliera con las tres dimensiones de la sustentabilidad.


CONCLUSIONES

La construcción en madera no es algo nuevo, sin embargo, es una metodología olvidada en lo que se refiere a construcción metropolitana, hasta tiempo reciente cuando fue retomada como parte del movimiento arquitectónico posmoderno, donde ha mostrado una especie de renacimiento. La construcción en madera ofrece un gran número de beneficios que no son evidentes a simple vista, como es el caso de su ligereza en comparación a las edificaciones construidas en concreto, propiedad misma que les confiere una mayor resistencia a los sismos, sin mencionar que durante el proceso constructivo la emisión de material particulado, dígase PPM y CO2 se ve disminuida en gran medida con respecto a su contraparte en concreto. Las propiedades de la madera la convierten en una alternativa constructiva amigable con el ambiente, sin embargo, aún existe escepticismo al respecto, debido a la falta de cobertura que tuvo durante el periodo moderno arquitectónico.
Reyes Carranco Juan Pablo, Universidad de La Salle Bajío
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

CONTINUOUS MONITORING SYSTEM FOR PATIENTS OUTSIDE ICUS IN ORANGE COUNTY, CALIFORNIA


CONTINUOUS MONITORING SYSTEM FOR PATIENTS OUTSIDE ICUS IN ORANGE COUNTY, CALIFORNIA

Reyes Carranco Juan Pablo, Universidad de La Salle Bajío. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Nowadays the Internet of Things (IoT) is a reality. People can live stream a video of their houses for security purposes, turn lights on and off and even know how much milk is left in the fridge. What’s also a reality is that a lot of people are dying that shouldn’t be dying. Through the use of continuous monitoring, expert systems, big data analysis and the IoT, we will prevent just that. Your mother is in a car accident and needs to go to the hospital. After coming out of the ICU, she is placed in a regular room. With a lack of sufficient nurses on site, the monitoring of her vital signs is assessed every 4 to 8 hours. Due to this fact, signs of deterioration of her vital signs were not able to be detected on time. She died. This is only a mock scenario, but it’s more common than you can imagine.  



METODOLOGÍA

A continuous monitoring system that uses expert systems techniques has the ability to use decision maps, and therefore graphs, to determine the critical path for patient care. This project will be developed starting with general research into health parameters in the ICUs, biomedical engineering, artificial intelligence, big data, data mining, expert systems, wearable technology and the IoT. We will also use deterministic finite automaton to recognize patterns within input taken from patients’ health to analyze the continuous monitoring system’s readings to intervene and save those patients’ lives. Last but not least, we will develop this system using the SCRUM framework.


CONCLUSIONES

-Develop a low cost continuous monitoring system -Stop 6.45% of all preventable deaths. -Save $20,000 per bed, per year. This project will help the health sector in Orange County to monitor patients continuously, save lives and money in the process by optimizing an ICU’s resources.
Reyes Delgado Josue Gabriel, Instituto Politécnico Nacional
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

BANDAMIGO Y COMUNICA-, NO MáS BARRERAS.


BANDAMIGO Y COMUNICA-, NO MáS BARRERAS.

Reyes Delgado Josue Gabriel, Instituto Politécnico Nacional. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Nos encontramos en una de las épocas caóticamente buenas de la humanidad. La defensa de los derechos humanos, la inclusión y más tópicos relacionados están a la orden del día, precisamente en busca de oportunidades equitativas e igualitarios en todo aspecto de sus vidas. En 2013 la Organización Mundial de la Salud determinó que el 15% de la población mundial padece de alguna discapacidad, tratándose de personas que sufren día con día de falta de inclusión por sus capacidades diferentes. Precisamente la inclusión a personas con capacidades diferentes es el tópico que nos interesa el día de hoy, más específicamente las personas con discapacidades auditivas.



METODOLOGÍA

Enfocándonos en las oportunidades para las personas con discapacidad visual, algunos relojes han sido creados para que puedan trabajar en restaurantes, si bien estos cumplen perfectamente su función, estos son de un costo de elevado y más considerando que no son fabricados en nuestro país, y es precisamente donde entra Bandamigo. Bandamigo es el sistema conformado por el dispositivo móvil y la banda para el mesero, emisor y receptor respectivamente. Al conectarse vía bluetooth y a través de la aplicación, pueden enviarse textos menores a 16 caracteres, los cuales se escriben en la caja de texto en la aplicación, son enviados y finalmente recibidos por el mesero en su manga. Con esto no solo se resuelve el problema de costos, sino también de mayor accesibilidad pues no es difícil de realizar ni de utilizar. Sin embargo, es de acotar que, así como cuenta con sus ventajas (su antes mencionado bajo costo, comodidad y más) también es importante mencionar sus desventajas, como su comunicación básica al solo poder enviar 16 caracteres, una comunicación un tanto básica que solo puede ser de emisor a receptor, además del uso obligatorio de la manga para el mesero. Aun con todo esto, su funcionamiento es perfecto y puede ser utilizado sin ninguna complicación, y si bien está hecho para personas que además de tener discapacidad auditiva laboran como meseros, esta puede ser utilizada para otras profesiones y más actividades.


CONCLUSIONES

¿Qué sigue? Probablemente es muy difícil de ver el alcance real de Bandamigo, tan solo al exponer sus pros y sus contras es claramente un tanto deficiente, aun cuando cumple su trabajo, sin embargo, es precisamente la semilla que ha hecho nacer a Comunica-T. Si bien está muy lejos de ser una realidad próxima, no es para nada algo imposible. Comunica-T, lejos de enfocarse solamente a la transmisión de mensajes, y lejos de englobar únicamente un sector de la población objetivo, sería el próximo paso para una conexión total, empezando por poder enviar y recibir texto de personas y poder ver su traducción a lenguaje de señas, detección y dictado de voz, vibración para lectura de lenguaje morse, y a partir de ahí todo puedo seguir evolucionando, con funciones para detectar lenguaje de señas en vivo y traducirlo para verlo en texto o dictado por voz, dictado morse a través de la pantalla, y más funciones que podrían agregarse en el camino. Tal vez esta idea resuene un poco tarde, pues este verano de investigación ha llegado a su fin, sin embargo, si algo he aprendido es que este mundo siempre puede ir más allá y puede que Comunica-T sea una realidad que nos permita unirnos a todos; aun sin esto, Bandamigo se puede convertir una opción viable para ayudar a las personas con discapacidades auditivas.
Reyes Leon Carlos, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Mtro. Javier Romero Torres, Universidad Autónoma del Estado de México

MODIFICACIóN DE LA MOVILIDAD EN LA ZONA ORIENTE DE LA CIUDAD DE MéXICO


MODIFICACIóN DE LA MOVILIDAD EN LA ZONA ORIENTE DE LA CIUDAD DE MéXICO

Reyes Leon Carlos, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Mtro. Javier Romero Torres, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

En este año 2020 hubo un gran cambio para la humanidad gracias a una nueva enfermedad  que se le nombro Coronavirus COVID-19, que surgió en Wuhan (China) en diciembre de 2019,  esa enfermedad fue muy contagiosa que empezó a esparcirse en ese país y de ahí en otros países hasta que la Organización de las Naciones Unidas (ONU)  declaro esta enfermedad en pandemia mundial y ahora vemos muchos cambios para la humanidad. (WHO.INT, ONU). En México llego el COVID-19 en Marzo que se vio el primer caso, donde a partir de ahí México tomo medidas sanitarias como el uso de cubre bocas y la aplicación de gel antibacterial, durante la pandemia esas medidas de prevención se aplicaron en cualquier establecimiento, transportes públicos, y las escuelas tuvieron que cerrar. En los transportes públicos es donde se dice que puede haber más peligro de contagio en las personas así que las medidas de prevención de los transportes son el uso del cubre bocas, filtros adentro de las unidades, con caretas puestas y separando a la gente de 1.5 de distancia entre ellos.   Ahora con la nueva normalidad se aplicaron más estas medidas a toda la gente de la República Mexicana para que no hubiera tantos casos de Coronavirus y mucho menos decesos.



METODOLOGÍA

Para saber cómo funcionaban estas medidas de prevención se realizó una pequeña encuesta en el cual se ha preguntado sobre cómo se han sentido durante la cuarentena en sus viajes que han hecho, ya sea en cualquier tipo de transporte bueno y más a las personas que por necesidad tienen que salir y viajar para llegar a su trabajo, la encuesta se realizó en diferentes zonas de la Ciudad de México. Muchas personas se sintieron inseguras y aunque se apliquen las medidas de prevención pero pues vemos que ya sea que estén esperando, o al es estar abordo o accediendo si hay muchas personas inseguras y más en el género de mujeres, en los hombres muy pocos son los inseguros, los hombres se sentían más seguros. Las personas se sentían más seguras con la desinsectación de las unidades y que los choferes o taquilleros usen guantes, cubre bocas o caretas. Con la sana distancia en las filas entre las personas también fue una de las medidas más seguras que la gente esté  tranquila. Otras medida que para las personas se sintieron más seguras fue la de medir la temperatura al ingresar a la estación o sitio. Al empezar con la nueva normalidad la gente no se sentía ni tan segura y ni tan insegura al desplazarse en los transportes públicos. Durante la contingencia la gente no se salvó de los maleantes que hay en los transportes públicos como a veces son robos, acosos, piropos, o amenazas y hasta discriminación y ya sea de cualquier tipo estos crímenes se han visto antes y después de la contingencia, junto con las agresiones sexuales que a veces sufren las personas y más las mujeres ya sean piropos, comentarios sexuales, lenguajes obscenos, manoseos o que los sigan hasta a veces exhibicionismos en los hombres.


CONCLUSIONES

Durante la estancia de verano virtual se logró entender más a las personas que salen por obligación y sienten miedo de contagiarse al salir de su casa, sin embargo, el trabajo no se me hizo muy extenso ni muy corto se me hizo interesante al poder analizar casi 500 datos de una encuesta con diferentes preguntas y así aplique conocimientos que ya tenía y también adquirí nuevos conocimientos al hacer el análisis de la encuesta, al poder sacar el porcentaje de cada una de las preguntas y respuestas para tener más seguridad en los resultados. Con la encuesta se espera poder conocer sobre las medidas de prevención cuales son efectivas y cuáles son las que tienen que mejorar para tener mejor la ciudadanía de la ciudad.
Reyes Rivera Joel, Instituto Tecnológico de Culiacán
Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior

MACHINE LEARNING


MACHINE LEARNING

Mendoza Lozada Jesus Alberto, Instituto Tecnológico de Toluca. Olivas Mendoza Daniela, Instituto Tecnológico de Ciudad Juárez. Reyes Rivera Joel, Instituto Tecnológico de Culiacán. Sanchez Hernandez Iran Armando, Instituto Tecnológico de Zitácuaro. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

El consumo de los recursos naturales es una actividad de la vida cotidiana que ha recibido gran atención a partir del siglo XV. De manera posterior, se hicieron comunes los discursos académicos y empresariales relacionados con el consumo sostenible haciendo énfasis en lo moral, normativo e individualista, pero con mayor énfasis en los últimos 40 años, debido al aporte de ciencias como la sociología, antropología, historia, entre otras. A este modelo, no se le ha prestado la debida atención que realmente requiere en comparación con las connotaciones que podría implicar una crisis ambiental en términos de la escasez hídrica que producen los cambios climáticos. Debido a la negligencia que se le ha dado a este problema han surgido discursos y propuestas del consumo verde, pero realmente no son soluciones a esta problemática, puesto que solo se dedican a la mercadotecnia y no a fomentar los valores humanos. Una alternativa de solución es la aplicación de metodologías matemáticas y de ingeniería, qué, una vez analizando tus patrones de comportamiento y de consumo una población especifica pueda entrenar un módulo automático de reconocimiento a los consumidores del servicio público de agua como herramienta que permite establecer conductas de consumo sostenible en los hogares de la región, así como una conducta de cuidado con el medio ambiente. En el presente trabajo se pre-procesa una base de datos previamente adquirida con información relevante sobre el consumo hábitos, percepciones y realidades de habitantes de la ciudad de Pereira, así como también se desarrolló una herramienta estandarizada que permite clasificar a los consumidores de los servicios públicos de la ciudad de Pereira, basados en la teoría del consumo sostenible y técnicas de aprendizaje de máquina. Específicamente, se realiza un enfoque de aprendizaje supervisado y otro no supervisado para evaluar las ventajas y dificultades de cada metodología. Gracias a la obtención de outliers, clusters y gráficas comparativas relativas a las conductas de consumo actuales entre los habitantes de la ciudad de Pereira, se puede plantear una base sólida para la implementación de un siguiente nivel, el desarrollo de un enfoque de identificación automático de perfiles de consumo basado en aprendizaje de máquina,  una herramienta de mucha utilidad para las empresas de servicios públicos, ya que se contaría con un aplicativo de monitoreo, seguimiento y control a usuarios irresponsables, de modo que se puedan tomar medidas correctivas en casos extremos.



METODOLOGÍA

1. PREPROCESAMIENTO DE LA BASE DE DATOS. En esta etapa se realizó un análisis descriptivo preliminar para descartar respuestas no relevantes, datos atípicos, y su conversión de valores alfabéticos a valores alfanuméricos. Asimismo, se etiquetaron las entradas de la base de datos de acuerdo con la rotulación otorgada por un experto, que comprende tres categorías: consumidor responsable, consumidor medianamente responsable y consumidor no responsable. Una vez procesada la base de datos, se utilizó para el entrenamiento de algoritmos de reconocimiento de patrones. 2. IMPLEMENTACIÓN DE MÓDULO DE APRENDIZAJE SUPERVISADO. Se desarrolló una metodología basada en técnicas de aprendizaje de máquina supervisado para la identificación de perfiles de consumidores de acuerdo con la teoría del consumo sostenible. De esta manera, se implementaron estrategias de aprendizaje supervisado tales como clasificadores simples (Bayesiano lineal, Bayesiano cuadrático, K vecinos más cercanos) y clasificadores complejos (Máquinas de soporte vectorial y Procesos Gaussianos). 3. IMPLEMENTACIÓN DE MÓDULO DE APRENDIZAJE NO SUPERVISADO. Se desarrolló una metodología basada en técnicas de aprendizaje de máquina supervisado y no supervisado para la identificación de perfiles de consumidores de acuerdo con la teoría del consumo sostenible. Puesto que se contó con datos que relacionan distintos tipos de variables, se implementaron estrategias de aprendizaje no supervisado para robustecer la metodología. De esta manera se hallaron patrones a partir de algoritmos de agrupamiento (K medias, mezcla de Gaussiana con inferencia Bayesiana, agrupamiento jerárquico). 4. VALIDACIÓN LOS MÓDULOS DE APRENDIZAJE. Para validar las estrategias implementadas en las etapas anteriores se emplearon métricas de rendimiento como la precisión, la dispersión, curvas ROC, especificidad y sensibilidad sobre los resultados que se obtengan a partir del perfilado de los consumidores.  


CONCLUSIONES

El aprendizaje automático es un campo de la informática que da a las computadoras la capacidad de aprender sin estar programado explícitamente en esta investigación se implementó la base de datos para poder aplicarle un análisis descriptivo de datos no relevantes para posteriormente analizar las diferentes técnicas de aprendizaje máquina(Módulo de aprendizaje supervisado, Módulo de aprendizaje no supervisado) y así desarrollar una metodológica ideal que nos permita realizar la identificación de los perfiles que buscamos de acuerdo con la teoría de consumo sostenible, para validar las estrategias implementadas en las etapas anteriores se emplearon métricas de rendimiento como la precisión, la dispersión, curvas ROC, especificidad y sensibilidad sobre los resultados que se obtengan a partir del perfilado de los consumidores. Se desarrolló un aplicativo en Python que articula los módulos de pre-procesamiento de datos, así como los de aprendizaje. Este aplicativo permite visualizar información respecto a la población de consumidores, relacionándolos en términos de sus hábitos de consumo
Reyes Villafranca Jose Pedro, Instituto Tecnológico de Tláhuac
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

MACHINE VISION FOR BIOLOGICAL IMAGE RECOGNITION


MACHINE VISION FOR BIOLOGICAL IMAGE RECOGNITION

Reyes Villafranca Jose Pedro, Instituto Tecnológico de Tláhuac. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales retos de esta disciplina, es la de poder brindar a las maquinas la capacidad de identificar objetos, es decir, simular la habilidad que posee un ser vivo de reconocer y localizar la identidad de objetos dentro del entorno natural. Hoy en día proporcionar a una maquina o sistema esta cualidad, y de esta manera lograr deteccion, localización e identificación de objetos es uno de los desafíos, más grandes que enfrenta la visión artificial.   El principal objetivo es el de brindar a un sistema las capacidades ya descritas, con el fin de lograr identificar células que presenten anomalías, en este caso en específico serán células cancerígenas, que presentan distintos tipos de leucemia. Este sistema deberá ser capaz de identificar y discriminar los diferentes tipos de leucemia, los cuales serán clasificados por el propio sistema.



METODOLOGÍA

Para poder lleva a cabo esta investigación se realizaron los siguientes pasos en el cual cada uno de ellos, se consulto y verifico el estado del arte correspondiente a cada tema.   1. Un banco de modelos. 2. Un modulo de acondicionado o de preprocesado de imágenes. 3. Un modulo de segmentación o aislamiento de regiones.  4. Un modulo de extracción de rasgos. 5. Un modulo generador de hipótesis. 6. Un modulo verificador de hipótesis


CONCLUSIONES

Actualmente el sistema logro llegar hasta el punto 4 de la metodología que se siguió, ya que la complejidad del sistema es grande. Sin embargo la extracción de rasgos podrán en un futuro mostrar los resultados, por medio de métodos de entrenamiento, los cuales se esperan sean satisfactorios y cumplan con el objetivo principal.
Ricardo de Jesus Brenda Liz, Universidad Autónoma de Guerrero
Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo

ARQUITECTURA EDIFICADA EN MADERA


ARQUITECTURA EDIFICADA EN MADERA

Rentería Sosa Darío Francisco, Universidad Autónoma de Guerrero. Ricardo de Jesus Brenda Liz, Universidad Autónoma de Guerrero. Saldívar Villalobos Esmeralda, Universidad Autónoma de Chiapas. Soto Ruiz Miriam Sofía, Universidad de Sonora. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Una de las principales problemáticas socioeconómicas a nivel país en México es la vivienda. Estadísticamente se tiene que el 75% del uso de suelo en México va destinado al uso de vivienda, como aproximadamente el 85% del PIB es producido en ciudades se genera la necesidad de establecer una alternativa de construcción sustentable que pueda reducir la huella de carbono en asentamientos de alta densidad poblacional como las ciudades, de modo que se cumpla con el postulado ambiental de la sustentabilidad, en busca de una construcción que pueda ser considerada sustentable en el entorno posmoderno.



METODOLOGÍA

Mediante estudios cualitativos se observaron las distintas propiedades de la madera, analizando en ellas la conductividad térmica, propiedades acústicas, comportamiento ante el fuego, comportamiento higrotérmico, permeabilidad al agua, entre otros. Bajo esta premisa se estudiaron distintos sistemas constructivos especializados en construcción con madera de ingeniería, por medio de los cuales realizaríamos un proyecto de construcción tentativo edificado en madera que supliera alguna necesidad o servicio de una comunidad, de tal manera que cumpliera con las tres dimensiones de la sustentabilidad.


CONCLUSIONES

La construcción en madera no es algo nuevo, sin embargo, es una metodología olvidada en lo que se refiere a construcción metropolitana, hasta tiempo reciente cuando fue retomada como parte del movimiento arquitectónico posmoderno, donde ha mostrado una especie de renacimiento. La construcción en madera ofrece un gran número de beneficios que no son evidentes a simple vista, como es el caso de su ligereza en comparación a las edificaciones construidas en concreto, propiedad misma que les confiere una mayor resistencia a los sismos, sin mencionar que durante el proceso constructivo la emisión de material particulado, dígase PPM y CO2 se ve disminuida en gran medida con respecto a su contraparte en concreto. Las propiedades de la madera la convierten en una alternativa constructiva amigable con el ambiente, sin embargo, aún existe escepticismo al respecto, debido a la falta de cobertura que tuvo durante el periodo moderno arquitectónico.
Rico Castro David Jaime, Universidad de la Guajira
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

DISEñO DE OBRAS DE CAPTACIóN DE AGUA LLUVIA PARA EL ABASTECIMIENTO EN ZONAS RURALES


DISEñO DE OBRAS DE CAPTACIóN DE AGUA LLUVIA PARA EL ABASTECIMIENTO EN ZONAS RURALES

Rico Castro David Jaime, Universidad de la Guajira. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

Este proyecto va orientado hacia las comunidades indigenas esta encabezado por el doctor juan gabriel, esta dirigido hacia la comunidad indigena de los uicholes en mexico pero es aplicable en cualquier lugar , hemos observado t analaziado diversos datos para tratar de disminuir la falgta de el preciado recurso hidrico en epocas de sequia; debido a esto se estudiaron los diversos factores que apremian a lad comunidades y las diferentes formas en las que se puede captar el agua lluvia desde los diferentes sistemas de recoleccion, tanques de almacenamiento y formas de potabilizar el agua recolectada para abastecer a la poblacion en los meses de sequia



METODOLOGÍA

Debido a la pandemia que sufrimos a nivel mundial, se realizo en una modalidad virtual, pero , aun asi la.metodologia que usamos aparte de las reuniones semanales tambien hicimos uso de diversos programas y plataformas como la plataforma de isla urbana (calculadora isla urbana) que mos permitia establecer valores a partir de varios datos que se le ingresaban ya sea agua, area, personas, etc. Ademas hicimos uso de diversos programas para el desarrollo de este verano con el programa delfin ademas de un acompañamiento excelente de nuestro investigador


CONCLUSIONES

Con la investogacion realizada se espera obtener por lo pronto un estudio mucho mas completo de no solo la poblacion en general sino tambien tratar de generar suficiente para cubrir la demanda de agua necesaria por casa, se establecio que de los varios tipos de tanque de almacenamiento los mas efectivos eran los siguientes ferrocemento y los de plastico siendo este ultimo el mas eficiente , en lo personal aprendi bastante y espero llegar a tener la oportunidad de repetir esta experiencia tan maravillosa
Rios Jimenez Jairo Armando, Corporación Universitaria Santa Rosa de Cabal UNISARC
Asesor: Dr. Leonardo Fabio Yepes Arbeláez, Universidad Católica de Pereira

EMPLEO DE PREDICCIóN ESTADíSTICA, BASADA EN INTELIGENCIA ARTIFICIAL, PARA LA CATEGORIZACIóN Y VALORACIóN DE LA OCUPACIóN ESPECTRAL EN LA BANDA DE VHF,


EMPLEO DE PREDICCIóN ESTADíSTICA, BASADA EN INTELIGENCIA ARTIFICIAL, PARA LA CATEGORIZACIóN Y VALORACIóN DE LA OCUPACIóN ESPECTRAL EN LA BANDA DE VHF,

Cano Correa Cristhian Alexander, Corporación Universitaria Santa Rosa de Cabal UNISARC. Rios Jimenez Jairo Armando, Corporación Universitaria Santa Rosa de Cabal UNISARC. Asesor: Dr. Leonardo Fabio Yepes Arbeláez, Universidad Católica de Pereira



PLANTEAMIENTO DEL PROBLEMA

Empleo de predicción estadística, basada en inteligencia artificial, para la categorización y valoración de la ocupación espectral en la banda de VHF Asesor: Leonardo Fabio Yepes Arbeláez, PhD. Estudiantes: Jairo Armando Ríos Jiménez Cristhian Alexander Cano Correa     INTRODUCCIÓN   Con el propósito de fomentar la investigación científica y sus principales aspectos metodológicos, se ha desarrollado el verano de investigación científica bajo el programa DELFIN. En particular, se han abordado aspectos de predicción estadística aplicada a escenarios de categorización y valoración de la ocupación espectral en la banda de VHF, lo cual contribuye a mejorar la capacidad de los sistemas de telecomunicaciones enfocados a la prestación de servicios de Internet móvil o fija. En este sentido, se impactará de forma transversal con los Objetivos de Desarrollo Sostenible, dado que permitirá mejorar los servicios de adquisición, transporte, almacenamiento y procesamiento de la información que genera cada objetivo por separado.   PLANTEAMIENTO DEL PROBLEMA   Las condiciones espectrales que se requieren en el desarrollo de tecnologías con mejores capacidades de transmisión de información, se ha convertido en un reto en los nuevos sistemas de telecomunicaciones. En especial, los sistemas de telecomunicaciones que requieren de un acceso dinámico al espectro para atender la demanda de los servicios.   Basado en lo anterior, se ha considerado la predicción estadística, basada en inteligencia artificial, para la categorización y valoración de la ocupación espectral en la banda de VHF. En particular, se ha centrado en la determinación de métricas de eficiencia vinculadas al uso del espectro radio bajo la metodología de acceso dinámico.   El acceso dinámico al espectro permite a usuarios secundarios emplear bandas espectrales pertenecientes a usuarios primarios, siempre y cuando la interferencia causada se conserve por debajo de un umbral predefinido. Por lo tanto, los patrones de ocupación espectrales, tanto de usuarios primarios como secundarios, tienen el mínimo de interferencia y la no interrupción de la comunicación buscando garantizar el servicio.   Por lo tanto, la predicción de la ocupación de la banda espectral es un componente clave para la optimización de los sistemas de comunicación basados en acceso espectral dinámico.



METODOLOGÍA

METODOLOGIA En el desarrollo metodológico empleado, se analizaron varios métodos de predicción, y en particular los estadísticos, tales como: 1. Modelos de procesos de Poisson; 2. Predictores Bayesianos y 3. Regresión Lineal.   Luego de analizar los métodos de predicción estadística, se optó por emplear una metodología de investigación basada en algoritmos computacionales básicos como la Regresión Lineal, y de este modo definir el escenario inicial para el análisis de predictores.   Se utiliza la predicción de la ocupación espectral mediante la regresión lineal para minimizar el tiempo de procesamiento para la asignación del espectro, ya que el problema que hay a nivel de radio cognoscitivo es el tiempo requerido para censar y predecir un espacio determinado incrementando el aviso al usuario lo que conlleva a perdida de oportunidad de aprovechamiento de dicho servicio.   Cuando implementamos la regresión lineal de algunas variables dependientes. Se  calculara los estimadores de los coeficientes y  simplemente los pesos predichos. las observaciones se denominan residuales. La respuesta final consistirá en determinar la mejor circunspección, es decir, las correspondientes a los residuos más pequeños buscando la optimización del espectro de manera dinámica. Se desarrolló con en el software   libre para el lenguaje de programación Python. De sklearn importaremos el modelo de regresión los datos, error medio cuadrado y el coeficiente de determinación. Para empezar con nuestro modelo de regresión  se ingresaron los datos de las variables x & y, luego con los datos procedemos a realizar el entrenamiento del predictor tanto para la variable x como la variable y después de tener el predictor entrenado procedemos a realizar la prueba de igual manera en ambas variables. Luego de esto se llamó al modelo de regresión lineal asignándole una variable y se entrenó con los datos que habían resultado de entrenar las variables x & y, para esto utilizaremos el comando fit, por último usamos el comando predict para realizar la predicción de los datos, después de haberlos entrenado y allí procederemos a graficar todos los resultados de la recta de regresión.                  


CONCLUSIONES

CONCLUSIONES   Durante la estancia en el verano de investigación se logró adquirir conocimiento teórico-práctico para la optimización del uso del espectro en la banda VHF mediante la técnica de predicción de regresión lineal matemática en conjunto posteriormente, con un algoritmo computacional basado en inteligencia artificial, encontrando que esta es una de las técnicas más prácticas que hay para predecir la ocupación en el espectro.   Debemos comparar este modelo con otros para determinar su viabilidad y eficiencia frente a los otros modelos de predicción que se encuentran.   Queremos agradecer ante todo por la oportunidad que se nos brindo de pertenecer a este grupo de verano de investigación científica delfín, a la Universidad Católica de Pereira por habernos permitido desarrollar dicha actividad en su institución a nuestra Universidad UNISARC que nos dio el apoyo para este proceso educativo y al Doctor Leonardo Fabio Yepes Arbeláez por sus valiosas enseñanzas, paciencia y por todo el conocimiento brindado en esta formación educativa. Además, esta se convirtió en una oportunidad para desarrollar nuestra tesis de pre-grado.       REFERENCIAS   kit-learn.org/stable/modules/linear_model.html
Rivera Cruz Luis Manuel, Instituto Tecnológico de Morelia
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

ASISTENTE DE MESEROS CON DISCAPACIDAD AUDITIVA


ASISTENTE DE MESEROS CON DISCAPACIDAD AUDITIVA

Rivera Cruz Luis Manuel, Instituto Tecnológico de Morelia. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Durante el desarrollo tecnológico de la humanidad el objetivo siempre ha sido alcanzar un estilo de vida con mayor calidad, creando herramientas para facilitar los trabajos y las actividades cotidianas. Pero, aunque los avances tecnológicos se desarrollan para toda la sociedad y sus tareas, hay un sector de la sociedad que no tiene las mismas necesidades que los demás y que de alguna forma queda olvidada y restringida a unas pocas actividades. A pesar del avance tecnológico este sector no siempre puede aprovechar las mejoras tecnológicas al máximo debido a que muchas usan notificaciones o métodos sonoros. De 5 millones 739 mil 270 personas con discapacidad que viven en México, 12.1% son sordas, es decir 694,451 habitantes del país padecen deficiencia auditiva. Es un gran número de la población de los cuales a veces no tienen la posibilidad de encontrar un trabajo fácilmente, debido a la falta de inclusión. El problema detectado es la falta de existencia de dispositivos y sistemas electrónicos accesibles a todos que promuevan la inclusión en diversos trabajos. El objetivo es buscar una solución a este problema mediante la incorporación de un sistema de asistencia para personas con discapacidad auditiva en las labores como meseros en un restaurante.



METODOLOGÍA

Durante el verano de investigación se decidió realizar un sistema de dispositivos prototipo que permitiera a los meseros saber cuándo una mesa requiere atención incorporando una red de comunicación entre dispositivos colocados en la mesas y dispositivos que podrán traer consigo los meseros en la muñeca, los cuales les avisaran cuando una mesa solicita atención por medio de vibración y una indicación en una pantalla. Para los prototipos se decidió trabajar con la plataforma Arduino debido a su gran comunidad de usuarios que proporciona mucha información y su compatibilidad con diversos módulos electrónicos tales como los que se utilizaron, entre ellos: Módulos bluetooth, el módulo de radiofrecuencia nRF24L01, pantallas Oled SDD1306, botones y diodos led. Inicialmente para los prototipos se pensó usar módulos bluetooth para la comunicación entre, esto llevo a investigar las características y el funcionamiento de la comunicación con bluetooth. Se hicieron pruebas para aprender a usar los módulos y se intentó realizar una red de dispositivos conectados entre sí, simulando los dispositivos colocados en la mesa y los que el mesero usara, en este caso tres dispositivos de mesa y dos para meseros para pruebas. Debido a que el módulo bluetooth solo puede conectarse con un solo dispositivo esclavo a la vez, resulto ineficiente una conexión con todos los dispositivos y se decidió descartar su uso y usar otro. La investigación de módulos de comunicación para Arduino me llevo a escoger el módulo de radiofrecuencia nRF24L01 el cual es un transceptor con características para establecer una red. Después de estudiar el funcionamiento del módulo y su configuración, se comenzó a realizar pruebas enfocadas a la conexión de varios dispositivos entre sí. El siguiente paso fue empezar a diseñar tanto los dispositivos de mesa como los que tendrán los meseros. El dispositivo para la mesa se realizó con un botón y un led para indicaciones, este dispositivo está programado con el numero mesa que tendrá. La idea es que cuando un comensal llegue este pueda presionar el botón solicitando atención, provocando que el led encienda indicando que se ha enviado la solicitud a los meseros. El led permanecerá encendido hasta que uno de los meseros indique desde su dispositivo que atenderá dicha mesa, durante este tiempo no se podrá enviar de nuevo la señal. Después de que un mesero indica que la mesa será atendida el led se apagara y se desbloquea la opción de poder realizar otra llamada. Para el dispositivo del mesero se utilizó una pantalla oled para la interacción con el usuario, la pantalla con la que se trabajo es la Oled SDD1306 escogida por su reducido tamaño de 0.96, su bajo consumo y además por su conexión por comunicación por i2c lo que permite un uso reducido de conexiones. La interfaz por el momento cuenta con dos vistas de pantalla, la primera es una pantalla de espera y la segunda enlista las llamadas de las mesas. El funcionamiento del dispositivo consiste en esperar a captar una señal por parte de una mesa, dicha señal contendrá un dato que funciona como etiqueta indicando que se trata de una llamada de una mesa y llega a todos los dispositivos de meseros conectados. En cuanto se recibe la señal el dispositivo vibra y cambia a la pantalla de ordenes si es que no había una antes, en caso de que ya haya llamadas pendientes solo vibra y coloca la llamada en la posición que le corresponde en la lista. Una vez haya llamadas pendientes el mesero podrá navegar por la lista y seleccionar que mesa atender. Cuando se selecciona una mesa el dispositivo envía una señal, la cual es recibida por la mesa y los demás dispositivos de los meseros. La señal enviada contiene también una etiqueta que indica la posición de la lista que se ha seleccionado, esto con motivo de actualizar la lista de llamadas pendientes de los demás meseros.


CONCLUSIONES

Durante la estancia de verano desarrolle habilidades de investigación las cuales impulsaron el desarrollo de un prototipo. En cuanto a conocimientos, antes de la estancia tenía conocimientos básicos de programación, pero aprendí nuevas cosas como el estudio y modificación de librerías de Arduino. También aprendí más sobre dispositivos de comunicación, orientado a los módulos disponibles para placas electrónicas, los protocolos en que trabajan, las configuraciones de frecuencia y como crear redes de dispositivos. El proyecto llego a un nivel de prototipo por lo que aún hay un gran camino por recorrer en el proyecto, agregando mejoras y buscar una compatibilidad de funciones para otro tipo de trabajos o actividades y aumentar más su rango de uso para la comunidad de personas con problemas auditivos.
Rivera Deloya Jahir, Universidad Autónoma de Guerrero
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

INGRESO DE IONES CLORURO A TRAVÉS DE LA POROSIDAD DEL CONCRETO


INGRESO DE IONES CLORURO A TRAVÉS DE LA POROSIDAD DEL CONCRETO

Rivera Deloya Jahir, Universidad Autónoma de Guerrero. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el material más utilizado para la construcción de infraestructuras en nuestro país y en el mundo es el concreto. Como material de construcción, es adquirido por su trabajabilidad específicamente en la velocidad de construcción y su gran durabilidad. La durabilidad del concreto, se define como la habilidad del concreto hidráulico en resistir durante la vida útil la acción ambiental, ataque químico, abrasión, corrosión del acero de refuerzo o cualquier otro proceso de deterioro, manteniendo sus propiedades de ingeniería: Forma original, condición de servicios y propiedades mecánicas.  (Kosmatka, 2004). Sin embargo, existen agentes agresivos que reaccionan químicamente con la matriz del concreto y atacan a las estructuras que se encuentran en: Zonas urbanas: se presenta el agua, el oxígeno y el dióxido de carbono (CO2). Zonas industriales: los anteriores agentes agresivos, además del dióxido de azufre (CO2) y  (SO2). Zonas costeras o marítimas: se presenta el Cloruro (Cl-). Cabe aclarar que uno de los principales problemas que se han generado en estructuras prematuras, es por corrosión del acero de refuerzo. Esta corrosión generalmente, se debe al ataque de iones cloruros, que se insertan desde el exterior o como contaminantes en los agregados de la fabricación del concreto. Siendo así el agente más agresivo penetrando al concreto y afectando directamente al acero de refuerzo.  La porosidad del concreto depende principalmente de la relación agua/cemento ( a/c) y del grado de hidratación alcanzado por el cemento, gracias a esta porosidad  los iones cloruros penetran por los huecos capilares así llegando a la estructura de acero y contaminándola. Una vez contaminada la superficie del acero, provocando que el proceso de oxidación se desencadene se manifestara un impacto dañino sobre el acero que disminuirá su capacidad mecánica, sobre el concreto generara presiones provocadas por el óxido que ocasionaran fisuras o desprendimientos comprometiendo la integridad de la estructura. El objetivo de esta investigación fue identificar los factores que influyen la corrosión de estructuras de concreto con la presencia de iones cloruros a través de la porosidad.



METODOLOGÍA

En este estudio virtual, se nos mostró que el proceso de corrosión del acero, se genera mediante un proceso electroquímico. Un ejemplo de este proceso electroquímico es cuando la estructura del concreto está en contacto frecuente con agua que contenga iones cloruros (electrolito) a través de la porosidad del concreto puede llegar a las varillas de acero (electrodo) activando un paso de electrones generando una reacción de oxidación - reducción ocurriendo un intercambio electrónico (perdida de electrones) incrementando su estado de oxidación, conocida como reacción anódica.  Se necesita de cuatro factores que son: electrolito,2 electrodos (ánodo y cátodo), conductor eléctrico y una diferencia de potencial. En el ánodo: M0  = Mn+ ne-(Oxidación) En el cátodo: Mn + ne-  = M0 (Reducción) Ambas reacciones ocurren de forma simultánea, como se observa en las ecuaciones, el ánodo cede electrones al sistema cuando reacciona aumentando su número de oxidación, cambiando su estado metálico base a cationes que se disuelven en el electrolito siendo este el material que sufre el fenómeno de corrosión por lo tanto en el cátodo los aniones metálicos adsorben electrones disminuyendo su número de oxidación. La porosidad del concreto es sin duda un factor crucial en todos estos fenómenos ya que la penetración será tanto más rápida cuando mayor sea la porosidad del recubrimiento, el tipo de cemento y su capacidad de retener y combinar es otro de los parámetros relevantes del proceso. La segunda ley de Fick es la más utilizada para hallar los coeficientes de difusión, D, en estructuras reales y en el laboratorio con el fin de hacer predicciones. Factores que afectan a la penetración de los cloruros. Humedad del concreto. Porosidad del concreto. Espesor del recubrimiento del concreto. Temperatura y humedad del ambiente.  


CONCLUSIONES

El estudio de los fenómenos de penetración de iones cloruro en estructuras de concreto permite hacer predicciones y ejercer acciones correctivas antes de que el daño se haya propagado así evitando mayores gastos de reparación o peligrosos accidentes. Una de las medidas preventivas para evitar la penetración rápida de cloruros en el concreto es elaborar mezclas de concreto con relaciones agua/cemento bajas y así buscar la impermeabilidad del concreto. Cabe destacar que la falta de preparación y de conocimiento en el área de ingeniería en la construcción es de vital importancia ya que la incorrecta supervisión y la falta de calidad de de construcción ocasione que las infraestructuras no cumplan con el tiempo de vida útil establecido.  Durante el periodo que abarcó mi estancia de verano de investigación virtual logré adquirir conocimientos acerca de corrosión de estructuras de concreto, en especial el efecto del daño que producen los iones cloruros a la estructura de concreto.
Rivera Haro Ruth Itzel, Universidad de Guadalajara
Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México

OPTIMIZACIóN GEOMéTRICA Y CáLCULO DE ENERGíAS RELATIVAS DE DíMEROS DE LACTIDA USANDO EL EDITOR MOLECULAR AVOGADRO Y PAQUETE DE RUTINAS DE QUíMICA CUáNTICA AB INITIO ORCA


OPTIMIZACIóN GEOMéTRICA Y CáLCULO DE ENERGíAS RELATIVAS DE DíMEROS DE LACTIDA USANDO EL EDITOR MOLECULAR AVOGADRO Y PAQUETE DE RUTINAS DE QUíMICA CUáNTICA AB INITIO ORCA

Rivera Haro Ruth Itzel, Universidad de Guadalajara. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En el procesamiento de polímeros uno de los factores más importante a controlar es la temperatura de trabajo. Se debe establecer una temperatura ideal para fundir el polímero a trabajar y que este fluya de manera ideal ya sea para realizar un proceso de inyección, extrusión, termoformado, etc. sin complicaciones de flujo muy lento o veloz debido a las viscosidades. En la industria, esta regulación de la temperatura de procesamiento generalmente recae en un operario con suficiente experiencia y conocimiento de los materiales que no se necesita apoyar de pruebas de caracterización de la materia prima para establecer los parámetros bajo los cuales deben operar los equipos. Modificar la temperatura de los instrumentos para lograr que los polímeros fluyan de la mejor manera puede llegar a ser cuestión de instinto adquirido con la experiencia, aunque este juego de temperaturas es menos riesgoso para la materia prima si se están trabajando con polímeros con un mayor rango de temperatura de procesamiento. En el caso de el PLA, la temperatura de procesamiento se encuentra entre los 60 y 125ºC (Serna & Albán, 2003) y depende fuertemente de la proporción de D o L lactida en el polímero. Pasando el rango de procesamiento, el PLA se comienza a degradar produciendo otras moléculas de bajo peso molecular, oligómeros lineales y cíclicos, lactida, monóxido y dióxido de carbono entre otros compuestos (Auras el al., 2010) que afectan las propiedades mecánicas del producto deseado. Aunque el rango de procesamiento para el PLA pueda parecer amplio, como ya se mencionó este depende fuertemente de la proporción de los isómeros que forman las cadenas del polímero, los cuales pueden aumentar o disminuir considerablemente la temperatura de fusión del material presentando problemas en el procesamiento ya que generalmente no se conoce la proporción en la que se encuentran los isómeros mencionados o el historial térmico que lleva la materia prima, resultando en temperaturas de procesamiento que varían mucho entre lote y lote que prueban ser un problema hasta para los operarios más experimentados. Por lo que el problema de investigación en esta estancia, fue determinar el tipo de lactida (L o D) predominante en el proceso de polimerización, a través del cálculo de la energía de estado de los enantiómeros L-láctico y D-láctico, usando el funcional híbrido B3LYP.  



METODOLOGÍA

Modelo en Avogadro y archivo de entrada. Modelar moléculas en ORCA puede resultar algo complicado ya que este programa se basa en matrices de coordenadas x, y y z o de distancias entre átomos para realizar los cálculos. El editor molecular Avogadro trabaja de forma visual por lo que se puede ver la representación de la molécula mientras se arma y así se tiene un mejor entendimiento de la geometría con la que se está trabajando. Los tres dímeros se presentaron primero en Avogadro y se realizó una optimización geométrica preliminar en el mismo programa que acerca las estructuras a su estado de mínima energía y así las iteraciones en ORCA disminuyen. Una vez que se tenían las geometrías parcialmente optimizadas se generó el archivo de entrada para ORCA desde Avogadro, especificando una optimización con el método B3LYP/6-311+g**. Optimización geométrica en ORCA. El archivo de entrada generado en Avogadro se corrió en ORCA desde los comandos de Windows 10. Al finalizar la optimización de cada molécula se abrieron los archivos tipo .out de nuevo en Avogadro para observar las nuevas geometrías optimizadas y de los mismos archivos .out se vació la información sobre las energías mínimas de cada molécula para comparar.  


CONCLUSIONES

Con los archivos de salida obtenidos de ORCA se pueden visualizar las moléculas optimizadas en el visualizador Avogadro. En el caso de los tres isómeros, las moléculas optimizadas por el proceso de ORCA mantuvieron una geometría casi idéntica a las geometrías parcialmente optimizadas que se obtuvieron de Avogadro antes de generar los archivos de entrada. Las energías de optimización resultaron parecidas a las obtenidas en Avogadro más sí presentaron un ligero cambio. Si se hubiera encontrado que una molécula de cierta configuración al final de la optimización cambiaba a otra configuración distinta, se habría presentado un claro caso en el que la primera configuración no era una estable, por lo que la configuración resultante de la optimización sería la más estable y la que predominará en una polimerización. Como las estructuras permanecieron relativamente parecidas a las del archivo de entrada entonces nos guiamos en los estados energéticos mínimos de cada molécula para encontrar la más estable. Comparando los resultados se observa que las energías son parecidas (Sindiotáctica: 103.201 kJ/mol, Isotáctica: 104.507 kJ/mol y Heterotáctica: 104.11 kJ/mol), esto se debe a que se están comparando isómeros lo que confirma una parte de la hipótesis. Aunque los valores energéticos son parecidos, de todas maneras, hay una dímero que prueba ser más estable que los demás, y este es el de conformación sindiotáctica. Esto nos indica que durante la polimerización de PLA se podría obtener un producto que tienda a presentar las propiedades que ofrece una geometría sindiotáctica (PDLLA). Aunque las herramientas computacionales nos indican que una configuración sindiotáctica es la más probable, esta tendencia puede cambiar dependiendo del tipo de polimerización que se realice, la configuración de la lactida que se utilice como materia prima o los catalizadores, disolventes e iniciadores a elegir.  
Rivera Peralta Diana, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla

MODELADO DE PROPIEDADES ESTRUCTURALES, ELECTRóNICAS Y MECáNICAS DE NANO-MATERIALES.


MODELADO DE PROPIEDADES ESTRUCTURALES, ELECTRóNICAS Y MECáNICAS DE NANO-MATERIALES.

Díaz Angel Benazir, Benemérita Universidad Autónoma de Puebla. Rivera Peralta Diana, Benemérita Universidad Autónoma de Puebla. Valdivieso Salinas Heber, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La ciencia e ingeniería de los materiales se encarga de la estructura y composición de los mismos para controlar sus propiedades a través de la síntesis (cómo se fabrican) y el procesamiento (cómo se transforman).  Los materiales pueden diferenciarse por su naturaleza, orgánica o inorgánica logrando así su clasificación en metales, cerámicas y vidrios, polímeros, semiconductores y materiales compuestos. De acuerdo a su funcionalidad tenemos otra clasificación: aquellos que se utilizan en la industria aeroespacial como los compuestos de carbono, los utilizados en la electrónica como el cobre, etc. Las propiedades que a cada uno le corresponden hace que sean los adecuados para uno u otro campo, su estructura habla por sí misma para decidir si es totalmente resistente, cómo absorbe la energía, si el peso es el óptimo, qué tan bien reaccionan a los efectos adversos y algo importante: qué tan factible es llevar a cabo ese proyecto ¿será lo suficientemente bueno económicamente tanto en producción como en ganancia? Dependerá de cada uno de los ingenieros encargados del proyecto buscar y crear los mejores materiales. Para poder producir estos materiales se utilizan programas de simulación, en este proyecto fue Forcite Plus.  



METODOLOGÍA

Previamente a utilizar el programa se realizaron lecturas para conocer la forma en la que este trabajaba y, en general, la forma en la que se trabaja en ingeniería de materiales:  En la primera lectura se dieron a conocer los métodos de mecánica molecular los cuales están basados en la mecánica clásica, en donde se representa a los átomos como dos esferas que se tocan, unidas por resortes para simular los enlaces que existen entre estos lo cual obedece a la ley de Hooke. Podemos representar el potencial debido al alargamiento (Valarg) en una gráfica, y = Energía, x = posición: dos átomos que se encuentran lo suficientemente separados no van a tener ningún tipo de enlace, pero van a atraerse, del lado contrario hay tanto acercamiento que provoca repulsión entre los átomos. Ambos casos nos llevarán, con el paso del tiempo, a una oscilación hasta alcanzar la distancia mínima entre los dos A partir de esto surgen los campos de fuerza representados con la siguiente ecuación:  V= Valarg + Vdef + Voop + Vlor + Vcruz + Vvdw + Velec En donde Valarg: es alargamiento del enlace, Vdef: deformación del ángulo de enlace, Voop: deformación fuera del plano, Vlor: rotación interna alrededor de un enlace, Vcruz: términos cruzados, Vvdw: atracciones y repulsiones de Van der  Waals y Velec: interacciones electrostáticas. Los parámetros de los programas de Molecular Mechanics se refieren a los valores que toman las constantes de fuerza y los valores geométricos al equilibrio. La calidad del campo de fuerza o la precisión de sus predicciones depende tanto de las funciones que describen la energía como de sus parámetros. Para que un campo de fuerza sea útil y proporcione resultados confiables, es necesario que los parámetros de fuerza sean transferibles completamente de una molécula a otra.  En la lectura correspondiente al programa se detalló que Forcite Plus es un conjunto de herramientas para realizar simulaciones clásicas utilizando mecánica molecular. Permite calcular la energía, optimizar la geometría, estudiar la evolución temporal de una estructura que contiene miles de átomos. Las herramientas y tareas de análisis permiten la predicción de propiedades dependientes del tiempo, como la difusión, calcular propiedades mecánicas como el Módulo de Young, predecir la densidad de energía cohesiva y los parámetros de solubilidad, y sondear información estructural. Permite al investigador estudiar problemas como la compatibilidad molecular entre polímeros y moléculas pequeñas, otros polímeros y superficies. Las tareas, permiten la búsqueda de sitios de baja energía y la optimización previa de una estructura antes de realizar cálculos de mecánica cuántica más precisos   Posterior a estas lecturas se eligieron moléculas con las cuales haríamos la optimización geométrica, se calibró el programa y se prosiguió a buscar las moléculas para registrar los resultados.  


CONCLUSIONES

IMIDAZOL: En el campo de fuerza experimental la distancia entre dos átomos de hidrógeno fue de 6.547. En el campo de fuerza universal fue de 6.544Å, con Compass27 6.632 Å y con Dreiding 6.482Å. Lo que nos dice que el campo de fuerza óptimo para esta molécula es el Universal, el más cercano a la cifra arrojada por el campo de fuerza experimental.  ÁCIDO BENZOICO: Experimental 3.214 Å, Universal 3.027Å, Compass 27 3.243Å y en Dreding 3.315Å.  El que más se aproxima al modelo experimental es el campo de fuerza Compass27 que permite la predicción precisa y simultánea de propiedades de fase gaseosa y propiedades de fase condensa. GLICINA: Universal 3,669 Å, Dreiding 3,602 Å, Compass 27: 3,529 Å y Cvff 4,177 Å. El campo a utilizar sería Compass27 lo cual derivaría a resultados con un mínimo margen de error y más cercanos a la realidad. COPROLACTAM:  Experimental 2.992Å, Universal 3.367Å, Dreiding 3.849Å, Compass 27: 3.306Å y Cvff 3.495Å. Los mejores resultados se obtuvieron con Compass27. En este verano fuimos espectadores de cuán importante es el elegir de manera acertada cada una de las moléculas a usar en el desarrollo de materiales, la investigación del doctor llamó nuestra atención debido a que con esto es capaz de cambiar la vida de cada una de las personas que necesita una prótesis y hacer que funcionen como aquello que perdieron, que resistan, que se adapten, que cumplan con las expectativas. Probablemente en la comodidad de consumidor se ignora el proceso antes de que las cosas estén en nuestras manos  de esta forma éste verano ha logrado despertar el instinto por lograr algo que vaya más allá de lo que tenemos en frente, sin duda ha sido una experiencia gratificante para entender que las pequeñas cosas hacen la diferencia.
Robaldi Vazquez Antonio Alonso, Instituto Tecnológico de Tapachula
Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula

DISEÑO, SIMULACIÓN Y CONSTRUCCIÓN DE ÁLABES PARA AEROGENERADORES A BAJAS VELOCIDADES PARA CASA HABITACIÓN


DISEÑO, SIMULACIÓN Y CONSTRUCCIÓN DE ÁLABES PARA AEROGENERADORES A BAJAS VELOCIDADES PARA CASA HABITACIÓN

Gomez Gutierrez Aurelio, Instituto Tecnológico de Tapachula. Robaldi Vazquez Antonio Alonso, Instituto Tecnológico de Tapachula. Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula



PLANTEAMIENTO DEL PROBLEMA

El consumo de combustibles fósiles actualmente es insostenible, solventarlo, conlleva una conciencia social, humana y ambiental, esto ha provocado que la demanda por fuentes de energía renovables crezca en los últimos años, la tecnología no contamina durante su operación. Sin embargo, se han presentado en parques eólicos impactos negativos en el paisaje, generando microclimas y afectando de forma directa la fauna del ecosistema. El conocimiento de la curva de potencia de un aerogenerador es de gran importancia, ya que define la potencia generada por el aerogenerador de acuerdo a la velocidad del viento a la cual está sometido, en este trabajo plantearemos 2 modelos de aerogeneradores residenciales, considerando no tener el impacto negativo que tienen los parques eólicos.



METODOLOGÍA

En el desarrollo de las actividades de este proyecto, se encuentra el diseño y la simulación de álabes que se puedan acoplar aun generador eléctrico, tomando como parámetros principales: baja velocidad del viento, bajos decibeles generados por el movimiento de los álabes y un diseño que pueda ser descrito matemáticamente. Para esto haremos la simulación de los modelos utilizando herramientas de mallado con el uso del software ANSYS y la configuración de solvers CFD (FLUENT & CFX). El primer modelo que emplearemos será el de la curva braquistócrona para la configuración horizontal del aerogenerador, agregando el mecanismo de veleta. El segundo modelo empleará el modelo de la curva tautócrona para la configuración vertical, agregando de igual manera el mecanismo de veleta La metodología empleada en esta investigación es cuantitativa, es decir, recurre a la definición, medición y al control de las variables traducidas en datos cuantificables y aplicables a las condicones aerodinámicas de los álabes utilizando técnicas estadísticas y modelos matemáticos.


CONCLUSIONES

Una vez desarrollado los diseños en las configuraciones planteadas con eje vertical y horizontal, nos damos cuenta de la importancia de las simulaciones y el impacto que tiene sobre los resultados, dejando interés y curiosidad en el uso y aplicaciones y la diversidad de modelos que se pueden crear.
Robledo Alemán Sonia Lizbeth, Universidad Autónoma de Tamaulipas
Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas

REPRESENTACIóN DEL CUERPO HUMANO PARA LA APLICACIóN ANDROID “DR. VIRTUAL”.


REPRESENTACIóN DEL CUERPO HUMANO PARA LA APLICACIóN ANDROID “DR. VIRTUAL”.

Robledo Alemán Sonia Lizbeth, Universidad Autónoma de Tamaulipas. Asesor: Mtro. Angel Mario Lerma Sanchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

1.- Representación del cuerpo humano en dispositivos computacionales. Hoy en día existe una gran variedad de software que nos permiten diseñar y dibujar diferentes maneras en muchas dimensiones. El software en el que nos centraremos es llamado MakeHuman encargado de diseños enfocados en área de anatomía humana. En él se permite el diseño de cuerpos humanos desde una deformación máxima hasta un cuerpo común de una persona. Es fácil de utilizar y está muy completo. En pocas palabras MakeHuman es un software para gráficos 3D por computadora para prototipado de humanoides fotorealisticos. 2.- Alternativas computacionales para representar el cuerpo humano. Una de la herramientas más usadas para el diseño humanoide en un ordenador es MakeHuman es más utilizada para el diseño de avatar en las siguientes imágenes se muestra un ejemplo. La interfaz de este software permite que los usuarios diseñen y crean avatar del cuerpo en diferentes maneras de tener un diseño exacto hasta llegar a una deformación abstracta. El segundo software que se utilizara para seguir con el desarrollo de este proyecto es llamado Blender: es un software de diseños 3D y nos ayudara a poder darle retoques y acabados a nuestra imagen diseñada en MakeHuman este software también es compatible con Android y así será más fácil el transporte del trabajo a una aplicación Android. Blender es utilizado comúnmente para crear animación muy completa.



METODOLOGÍA

3. Realización de bocetos del cuerpo humano en programa de software. Después de haber manejado el software MakeHuman antes mencionado se utilizaran los productos en Blender que es un software con más procesamiento de memoria y por ende es más robusto. El entorno de trabajo en Blender es sencillo y completo. De este software poder transportar el producto a Android y realizar retoques a la imagen ya generada. Blender contiene herramientas muy adaptables para manejar imágenes en 3D. Blender cuenta con un tipo de programación por comando para hacerlo más sencillo aun que como cada objeto tiene diferentes propiedades a su vez también tendrá diferentes programaciones. Así como también cuenta con una consola para Python.   4. Inserción o adecuación del boceto computarizado a aplicación móvil Android. El último software que se utiliza es Android Studio: encargado de diseño y creación de aplicaciones móviles para un teléfono con Sistema Operativo Android. En este apartado se realiza las adecuaciones para que el producto que se generó anteriormente en Blender se pueda manejar en este pro siguiente. Así también se pre visualizara el boceto de una aplicación que contendrá los diseños en 3D.


CONCLUSIONES

5. Pruebas de visualización de bocetos del cuerpo humano en aplicación móvil Android. Las primeras complicaciones que se presentaron es adaptar el archivo que se generó en Blender para poderlo importar al software Android Studio. Este software es muy especial en muchos aspectos ya que no reconoce muchos objetos que sean ajenos a este. Y el archivo que es compatible con él debe tener extensión fbx que es un archivo en formato de imagen 3D estándar que presenta un objeto tridimensional como coordenadas 3D, caras poligonales, mapas de texto y otras referencias a uno o más archivos. Logrando por fin resolver esto se presentan los resultados obtenidos. Terminar este proyecto permite tener una amplia imaginación en el diseño de software enfocado en la estructura humano. Siendo un apoyo en el entorno de salud. Los programas que se utilizaron son muy conocidos en el área de diseño e informática. Bibliografías. Título Arte, tecnología y feminismo: nuevas figuraciones simbólicas Autor Karla Jasso   Título Blender for Animation and Film-Based Production Autor Michelangelo Manrique  
Rocha Alfaro Nancy, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato

ESTRéS TECNOLóGICO EN ESTUDIANTES A DISTANCIA


ESTRéS TECNOLóGICO EN ESTUDIANTES A DISTANCIA

Baltiérrez Cortés Ana Lilia, Universidad de Guadalajara. Quintana González Yansy Corina, Instituto Tecnológico de Toluca. Rocha Alfaro Nancy, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El estrés relacionado con lo académico se conoce como estrés académico. El estrés académico se refiere a las situaciones psicológicas desagradables que ocurren debido a las expectativas académicas de los padres, maestros, compañeros y miembros de la familia. El estrés académico es una angustia mental con respecto a alguna frustración anticipada asociada con el fracaso académico o incluso una conciencia de la posibilidad de tal fracaso. El estrés académico entre los estudiantes ha sido investigado durante mucho tiempo, y los investigadores han identificado los factores estresantes como demasiadas tareas, competencias con otros estudiantes, fracasos y malas relaciones con otros estudiantes o profesores  (Maykel, Deleyer, & Bray, 2018). El concepto de tecnoestrés surge como una respuesta a los efectos perjudiciales de la exposición a las TIC. Su estudio cobra cada vez mayor relevancia debido al aumento de la importancia de las TIC y es considerado como uno de los estresores más importantes en la sociedad actual. De hecho, se ha calculado que una persona que utiliza el ordenador como herramienta de trabajo ejecuta entre 12.000 y 33.000 movimientos de cabeza y ojos, las pupilas reaccionan de 4.000 a 17.000 veces y además se suelen ejecutar unas 30.000 pulsaciones de teclado.  (Chinchilla, 2010).



METODOLOGÍA

Se llevó a cabo la aplicación de un instrumento de recolección de información virtual a 103 estudiantes de nivel superior mayores de 18 años y seleccionados por conveniencia debido a su facilidad de acceso, así como su disponibilidad en participar dentro del estudio. El instrumento se conforma por cuatro bloques relacionados con el estrés, TIC´s, distracciones y utilización de redes sociales. Se utilizó una escala Likert para clasificar las respuestas obtenidas.


CONCLUSIONES

De acuerdo con los resultados obtenidos, el estrés que se presenta en estudiantes se puede ver manifestado en la concentración y atención, es por lo que el 36.9% de los encuestados está totalmente de acuerdo que los niveles de estrés aumentan debido a la sobrecarga de tareas y trabajos ya que el 52.4% concuerda con esta teoría. La falta de motivación en los estudiantes trabajando desde casa también influye mucho en el ámbito académico, ya que el 24.3% está totalmente en desacuerdo porcentaje alto en relación con los que están totalmente en acuerdo que es del 3.9% cifra bastante significativa ya que la motivación es el interés de querer aprender. Por otra parte, Las Tics influyeron de manera una muy positiva pues el 37.9% de los estudiantes notaron que sus niveles de estrés aumentaban ya que el abuso de la tecnología genera sobrecarga mental y dificultades para recordar pensar y descansar.
Rodríguez Carreño Jorge Eduardo, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Mg. Carlos Alirio Díaz González, Universidad Autónoma de Bucaramanga

MODELADO MATEMÁTICO DE UNA CÁMARA DE COMBUSTIÓN DE LECHO FIJO


MODELADO MATEMÁTICO DE UNA CÁMARA DE COMBUSTIÓN DE LECHO FIJO

Rodríguez Carreño Jorge Eduardo, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Mg. Carlos Alirio Díaz González, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

Actualmente , la biomasa proporciona combustibles complementarios a los fósiles, ayudando al crecimiento del consumo mundial (y de sus correspondientes impactos ambientales), sobre todo en el sector transporte.​ El cisco (producto residual de la producción del café) y su combustión resultan ser una fuente sustentable en términos económicos para usarse como fuente térmica en procesos industriales e incluso en la generación de energía eléctrica.



METODOLOGÍA

Se modeló un proceso de combustión que podría ocurrir dentro de la cámara de ignición de un secador de biomasa, partiendo de las ecuaciones de conservación de masa y de energía, que pueden ser tratadas cada una como ecuaciones diferenciales de tipo ordinarias, pudiendo ser resueltas mediante un método ya sea analítico o numérico.  Para fines prácticos de simulación se optó por el método de Runge-Kutta de cuarto orden, primero de-construyendo ambas ecuaciones incluyendo magnitudes como volumen, densidad del gas, temperatura de la cámara de ingnición y volátiles (para este último se usó la ecuación de razón de volatilización de Fu-Zhang. Obteniendo asi 5 ecuaciones con 5 variables, llevadas al algoritmo de Runge-Kutta se pueden obtener aproximaciones numéricas con bastante precisión y una tasa de error despreciable. Algunas de las condiciones a usarse en el cálculo fueron 20 C/min de rapidez de calentamiento, 14 ml/min de flujo de nitrógeno molecular, 40 ml/min de oxígeno molecular, 2000 ml de volumen del reactor.


CONCLUSIONES

El estudio de fenómenos físicos puede ser modelado y estudiado como Ecuaciones Diferenciales, y para su análisis existen decenas de métodos, pero el de Runge-Kutta suele ser un método bastante aceptado debido a su precisión y rapidez de programar en un entorno matemático o de programación.
Rodriguez Cuevas Yosselin, Universidad de Sonora
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE NIVEL DE DAñO POR CORROSIóN DE PUERTOS MARíTIMOS MEXICANOS DE ALTURA Y SU RELACIóN CON LAS CONDICIONES TéRMICAS Y DE CARGA.


ANáLISIS DE NIVEL DE DAñO POR CORROSIóN DE PUERTOS MARíTIMOS MEXICANOS DE ALTURA Y SU RELACIóN CON LAS CONDICIONES TéRMICAS Y DE CARGA.

Rodriguez Cuevas Yosselin, Universidad de Sonora. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Autor.  Yosselin Rodríguez Cuevas   Asesores. Dr. Wilfrido Martínez Molina Mtro. Arreola Sánchez Mauricio Planteamiento del Problema. México es considerado uno de los mejores países posicionados en el globo terráqueo ya que tiene alcance a dos mares altamente demandados en importaciones y exportaciones los cuales son el pacifico y el atlántico. Por lo tanto, el país tiene varios muelles de altura y de cabotaje. Estos puertos son manejados por (Apis) las cuales se manejan por la (SCT) la secretaria de comunicaciones y transportes en México y son 16 los muelles principales dentro de ellos se encuentran el Puerto de Guaymas y de Coatzacoalcos en los cuales nos vamos a enfocar y estos tendrán una comparación significativa ya que se encuentran en los mares opuestos es decir el puerto de Guaymas se encuentra en el Pacifico y Coatzacoalcos en el Golfo de México o Atlántico.   Actualmente el gremio de la construcción está capacitado e incluso sigue capacitándose para poder realizar un análisis de las obras realizadas ya que es de suma importancia mantener una información actualizada y concisa del deterioro, esta para realizar restauraciones o incluso optar por una demolición si en el caso lo amerita. Hablando específicamente de los muelles de altura que es el tema a tratar, es igual de importante mantenerse al tanto del deterioro al igual que una escuela o iglesia, ya que en estos se mueve la carga nacional e internacional de importaciones y exportaciones esto quiere decir que es un ingreso económico a nivel nacional de gran impacto y la infraestructura es indispensable para estas transportaciones. Es por esto que el nivel de daño en corrosión se debe analizar constantemente para poder restaurar las zonas afectadas por este problema, en la cual influye de una gran manera el clima que es una de las variables en las cuales se enfoca el análisis sin dejar atrás las demás variables que complementar el deterioro. Dándole la importancia pertinente al desperfecto que causa en los muelles la salinidad del agua, esta puede variar dependiendo la zona las halocrinas oceánicas en ocasiones suelen ser evidentes a la vista y en otras no, más sin embargo el contenido de cloruro contribuye a que la corrosión.



METODOLOGÍA

Metodología Se realizó la investigación de Análisis de nivel de daño por corrosión de puertos marítimos mexicanos y su relación con las condiciones térmicas y de carga. Con este se obtendría un informe parcial y meramente investigado en fuentes confiables y no presenciales, recopilando datos del nivel de corrosión y su deterioro, por las condiciones térmicas y de carga. Meramente se obtuvieron datos confiables respectivos de análisis y reportes de años previos proporcionado por las páginas web del gobierno de la Coordinación general de puertos y marina mercante. En este, se tomarían en consideración algunas variables como lo son; el nivel de corrosión, la temperatura, salinidad y cargas recibidas anualmente.   El punto inicial que se analizaría sería el nivel de corrosión en los muelles; información que se obtuvo solo de algunos, Suficientes para hacer un análisis meramente comparativo. En algunos documentos encontrados se habla de porcentajes de daño y soluciones que podrían ser la mejor opción para una restauración de los deterioros.   Para proceder se analizó las importaciones y exportaciones en los muelles que tuvo lugar en entradas y salidas de cargas, factor calificado importante a considerar en el deterioro de cualquier obra civil es justamente la carga que se movilizan sobre estos; la información se analizó y se realizaron tablas comparativas para obtener diversas referencias ya que en cada puerto claramente el ingreso y egreso de cargas sueltas, agrícolas como también líquidos y fluidos entre otras, varía dependiendo la posición geográfica del muelle estratégicamente consideradas a nivel nacional.   La sociedad en general no muestra mucho interés en el nivel de salinidad en el océano, pero cuando una construcción se debe realizar dentro del mar esta se vuelve un factor en contra, ya que la halocrina oceánica es decir las diversas salinidades que en algunos sitios se puede distinguir más que en algunos otros lugares, esto debido a que la salinidad hace que haya más o menos densidad en el agua, en algunos casos los cloruros son un factor inminente para el daño a los muelles. Y es por esto que la Salinidad se volvió una variable a analizar en la investigación. La salinidad varia en verano e invierno sin importar la ubicación, en el Golfo de México el registro más bajo fue de 32.16 ups, en el Golfo de California hay registros de 34.6/35 ups. Y en ambos mares ya que son aislados pueden presentar más concentrado de cloruros y llegar hasta 37 ups. (Espino, 2001)   La temperatura es un factor no menos importante que los anteriores ya que en los muelles en los cimientos justamente en pilotes, son los que entran en contacto con el agua y suelen tener más factor de riesgo, probabilidades de que el material se corroa por la humedad y el secado del agua en este el ambiente es un factor clave y en algunas zonas al norte del país pueden llegar hasta 38° y en otros sitios al sur ronda los 27° por lo cual se consideró una variable con gran importancia. Las islas de calor que se forman por las construcciones cercanas se podrían considerar de alguna manera otro factor de relevancia que en esta ocasión solo será mencionado para tener el conocimiento de este elemento.


CONCLUSIONES

Conclusión. Las investigaciones constantes de un rubro tan importante para la sociedad como lo es la construcción debe de ser constante ya que estamos en contacto siempre con edificaciones, estructuras, monumentos etc… al formar parte del gremio se adquieren responsabilidades en las cuales está la evaluación de las obras civiles, aun ya terminadas para que estas no sean un factor riesgo para la sociedad y en este caso también para la economía de México ya que los muelles de altura son una entrada de economía para el país estando muy bien posicionado y teniendo acceso a dos rutas marítimas distintas.
Rodriguez Esteva Vhiany Araceli, Instituto Tecnológico Superior de Las Choapas
Asesor: M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas

REPRESENTACIóN DEL DOMINIO DE RESTAURANTES EN LA REGIóN DE COATZACOALCOS MEDIANTE UNA ONTOLOGíA


REPRESENTACIóN DEL DOMINIO DE RESTAURANTES EN LA REGIóN DE COATZACOALCOS MEDIANTE UNA ONTOLOGíA

Rodriguez Esteva Vhiany Araceli, Instituto Tecnológico Superior de Las Choapas. Asesor: M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La Internet ha cambiado nuestra forma de comunicarnos a todos los niveles, tanto personalmente como nivel profesional. Aunque hace 30 años la red de redes era una desconocida para la gran mayoría de las personas, en la actualidad, incluso los niños se manejan a la perfección dentro de ella. Pero la Internet no se queda aquí, las cosas siguen evolucionando y uno de los términos de los que más se habla, es la conocida como WEB SEMANTICA o WEB 3.0. La Web Semántica es un conjunto de actividades desarrolladas en el seno de WORLD WIDE WEB CONSORTIUM (W3C) con la tendencia a la creación tecnológica para publicar los datos legibles por aplicaciones informáticas. Es por este motivo que es considerada una extensión de la web actual.



METODOLOGÍA

Primero se realizó la especificación del dominio estableciendo alcances de la ontología, la cual mi dominio a desarrollar fue los restaurantes turísticos de mi región Coatzacoalcos, Veracruz. Una vez que se obtuvo la información como sus horarios, la ubicación de cada restaurante, los costos, los tipos de servicio que ofrece cada restaurante, las diferentes formas de pagos, etcétera, llevé a cabo la identificación de clases y subclases. e individuos luego se llevó a cabo la Después de analizar el dominio e identificar todos los elementos, se prosiguió a modelar dicha información utilizando una herramienta de edición ontológica llamada Protégé, en donde se estableció un orden jerárquico para cada una de las clases y subclases. Luego realizamos una tabla sobre la cual se analizaron las propiedades de objeto y de dato a través de las cuales podemos relacionar los elementos dentro de la ontología que estamos construyendo. Una vez que tuvimos identificadas todas las propiedades se procedió a modelarlas en la ontología utilizando Protégé y estableciéndolas como propiedades de objeto o propiedades de dato (según el caso) e indicando dominio y rango para cada una de ellas. El poblado de la ontología se realizó cargando los datos conocidos del dominio de restaurantes existentes en la región de Coatzacoalcos, Veracruz. Ya una vez que tuvimos toda la información modelada utilizando la herramienta Protégé, podemos decir que hemos desarrollado una ontología del dominio de restaurantes en Coatzacoalcos, Veracruz.


CONCLUSIONES

Durante la estancia virtual se logró adquirir conocimientos teóricos y técnicos de lo que es la web semántica, cuáles son los elementos que la conforman y su utilidad en el entorno de la Web. Para ello, llevamos a cabo de forma practica el desarrollo de un modelo ontológico utilizando como ejemplo de aplicación los restaurantes de un sitio concreto. Una vez que se cuenta con este modelo creado, es posible desarrollar sistemas informáticos o aplicaciones que utilicen la ontología como base de conocimiento para sobre ella realizar consultas de este dominio y obtener respuestas mas precisas.
Rodriguez Flores Lizeth, Universidad Politécnica de Tecámac
Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac

SISTEMA DE COMUNICACIóN WIFI CON ACCESORIOS ELéCTRICOS Y COMPUTADORA DE UN AUTOMóVIL PARA LA CONEXIóN CON EL IOT


SISTEMA DE COMUNICACIóN WIFI CON ACCESORIOS ELéCTRICOS Y COMPUTADORA DE UN AUTOMóVIL PARA LA CONEXIóN CON EL IOT

Buendia Martinez Cristian Antony, Universidad Politécnica de Tecámac. Flores Luis Fatima Alejandra, Universidad Politécnica de Tecámac. Matias Carmona Roberto, Universidad Politécnica de Tecámac. Rodriguez Flores Lizeth, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

El principal problema es que los usuarios no pueden detectar las fallas que presente su automóvil de manera rápida y cómoda, tienen que llevar sus vehículos a revisión para identificar la falla. En el mundo hay un automóvil por cada siete personas, según una estimación hecha por Enrique Koganen en el 2016. El problema también está presente en México, ya que, a nivel nacional se tiene una aproximación 3,565,469 de automóviles, estimación realizada por Enrique Koganen en el 2016. En la localidad de Tecámac según la estadística básica municipal de Tecámac, en el 2012 aproximan un total de 3,194 automóviles. En la actualidad la sociedad se ha acostumbrado tanto a vivir con electrodomésticos, autos y teléfonos celulares. Los automóviles son un medio de transporte muy útil, por lo que se busca un buen funcionamiento del mismo. Existen varios softwares y aplicaciones, pero no todos son amigables y funcionales para el usuario. Se requiere de un sistema para tener un control en los servicios mecánicos y manipulación de accesorios eléctricos del automóvil para un mayor confort.  



METODOLOGÍA

El presente trabajo presenta una metodología scrum que hace un énfasis especial en la consideración de los requisitos no funcionales características de este tipo de sistema como los requisitos temporales o la interacción con dispositivos físicos del vehículo. Además de que ejecuta el proyecto en fases cortas y permite mucha flexibilidad a la hora de acometer cambios a mitad del proyecto, ya que tras cada fase se replantean las tareas y los objetivos. Se analizaron las distintas plataformas para el desarrollo de aplicaciones móviles, siendo Xamarin, una extensión de Visual Studio la mas conveniente para este proyecto. Tambien se analizó el microcontrolador, en este caso se ocupó el ESP32 que se programa mediante el IDE de Arduino, ya que nos permitía alojar un Web Service y asi manipular los distintos elementos. Primero se logró crear un Web Service en el ESP32, al mismo tiempo que se realizó la conexión entre el ESP32 y una red Wifi. Posteriormente se logra que la aplicación elaborada en Xamarin se conecta al Web Service que está alojado en el ESP32, para que de esta forma se puedan hacer las solicitudes HTTP. La aplicación se diseñó y desarrolló en con tres vistas: 1. Es un inicio de sesión por parte del usuario, donde solo podrá ingresar con un correo electrónico y contraseña. 2. Despues del inicio de sesión se muestra un menú de dos opciones, donde la primera es un escaneo del vehículo, donde mostrará si este tiene alguna falla mecánica o eléctrica asi como su temperatura, velocidad y combustible. 3. La segunda opción es la de accesorios, donde muestra los elementos que puede controlar, por ejemplo, luces, ventilación, seguros, iluminación interna, etc


CONCLUSIONES

En el presente proyecto se concluye que la comunicación de la aplicación móvil con el microcontrolador ESP-32, fue de un 98 % aceptable en la transmisión de datos entre las diferentes secciones de medición, escaneo, instrucciones e información. Primero se logró crear un web-service en el esp32, al mismo tiempo que se logró la conexión entre el esp 32 y una red wifi. Posteriormente se logró que la aplicación elaborada en Xamarin se conectara al web-service que está alojado en el ESP32, para que de esta forma se puedan hacer las peticiones HTTP a través de Internet. Aunque todavía no se realizan las pruebas en un vehículo, se realizó una simulación con LEDS que representaban los distintos accesorios eléctricos del vehículo, con esta simulación se logró verificar que se pueden manipular correctamente los elementos del vehículo a través del web-service,El sistema se encuentra a más del 50 % de desarrollo, de tal forma podemos decir que el sistema es factible, ya que es una herramienta que ayudará a una gran cantidad de usuarios para que conozcan a tiempo las fallas que presenta su vehículo y de esta forma evitar fallas más graves en el futuro.
Rodríguez García Miguel Angel, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

DRON MANIPULADO A DISTANCIA PARA APLICACIONES DE ALMACéN INTELIGENTE MEDIANTE OPEN-SOURCE


DRON MANIPULADO A DISTANCIA PARA APLICACIONES DE ALMACéN INTELIGENTE MEDIANTE OPEN-SOURCE

Rodríguez García Miguel Angel, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Dron manipulado a distancia para aplicaciones de almacén                           inteligente mediante Open-Source   Los almacenes cada día requieren aumentar la automatización de su sistema de gestión (SGA) para cumplir en tiempo y forma el despacho de los productos que ingresan al almacén. Las industrias cada día aumentan la automatización en las fábricas o almacenes y es de suma importancia la gestión de espacio, ya sea para reducir tiempos de traslados o disminuir vehículos terrestres de carga, el problema es cuando un almacén por demanda comienza a crecer en su infraestructura, pero la planta ya no puede instalar más equipo de transporte o de gestión.



METODOLOGÍA

Se realizó una búsqueda del estado de la técnica en la bibliografía del área de estudio, así como sus aplicaciones, teniendo en cuenta que la aplicación de drones en las fábricas aun es nuevo su planteamiento, por lo que partimos desde la industria 4.0. Se delimitó el problema considerando el control del vehículo Aéreo no tripulado en interiores así que como objetivo del problema fue realizar una interfaz de control con software de libre acceso como Python. Fue elegido Python por la versatilidad del software en cuanto a aplicaciones y por el libre acceso, se consideró que fuera compatible con el dron comercial a usar que fue el dron Tello de la empresa ryze el cual tienen su SDK  liberado para desarrolladores y así aprovechar su hardware para el desarrollo de software de control. El dron elegido para el prototipo del sistema tiene como características de peso 80 g con hélices montadas y batería incluida, de dimensiones tiene 98 mm de largo por 92 de ancho x 41 mm de alto, es idóneo para pruebas en interiores. 


CONCLUSIONES

   Como resultado se obtuvo un programa que contiene la interfaz de control que permite el drone desplazarse de manera lineal en el eje plano coordenado, así como girar manteniendo su posición, con instrucciones de comando se realizaron los botones en la interfaz usando Python y una GUI para su desarrollo. El drone Tello se conecta a la PC mediante el protocolo de comunicación WIFI  que genera el drone una vez que se realiza la conexión visualizando el led del drone en verde la interfaz de usuario, desarrollada en la Pc es habilitada para iniciar el control a distancia del drone. La finalidad de este proyecto es destacar las aplicaciones que pueden tener los drones en la industria y el desarrollo de programación de drones a distancia, ya que un UAV solo se considera así, si es capaz de mantener estabilidad sin que un operador remoto este asistiendo al dispositivo. Es por eso que nuestro proyecto de software indica al dron el tiempo y distancia que debe desplazarse o mantener en el aire. La intención del desarrollo es para aplicarse en la industria en almacenes inteligentes y abrir camino al uso del drone.
Rodriguez Limon Luis Daniel, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Hector Cardona Reyes, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE UNA APLICACIóN INTERACTIVA DE REALIDAD VIRTUAL COMO SOPORTE PARA LA ADQUISICIóN DE HABILIDADES DE PILOTAJE DE UN DRON VIRTUAL, BAJO EL PROYECTO ROBóTICA Y REALIDAD VIRTUAL EN CIMAT, ZACATECAS.


DESARROLLO DE UNA APLICACIóN INTERACTIVA DE REALIDAD VIRTUAL COMO SOPORTE PARA LA ADQUISICIóN DE HABILIDADES DE PILOTAJE DE UN DRON VIRTUAL, BAJO EL PROYECTO ROBóTICA Y REALIDAD VIRTUAL EN CIMAT, ZACATECAS.

Rodriguez Limon Luis Daniel, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Hector Cardona Reyes, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La realidad virtual y aumenta son tecnologías que actualmente ha tenido un gran avance de aplicación en diversos campos, tales como la salud, la educación, la industria. En esta estancia se desarrolló una aplicación por medio de realidad virtual que permita al usuario aprender a manejar un dron virtual, con el objetivo de que el usuario pueda adquirir las habilidades para pilotear un dron en un entorno seguro y realizando dinámicas como evadir obstáculos para que más adelante pueda volar un dron real con mayor seguridad. Para ello, se utilizaron tecnologías como el motor de videojuegos UNITY y el SDK de Google Cardboard para la generación de aplicaciones móviles en realidad virtual. El objetivo es diseñar, implementar y probar una aplicación móvil basada en realidad virtual que permita al usuario aprender a manejar un dron virtual y que el usuario pueda adquirir las habilidades para pilotear un dron en un entorno seguro.



METODOLOGÍA

Inicialmente se comenzó a estudiar las plataformas que permiten la generación de aplicaciones en realidad virtual y aumentada y seleccionar aquellas que faciliten la implementación a una plataforma móvil. Se seleccionó Unity por su facilidad de uso, además ya se cuenta con un acercamiento previo a esta herramienta y dispone de un SDK que permite la integración del SDK Google Cardboard para la creación de aplicaciones en realidad virtual. Se crearon un escenario virtual con temática de una ciudad y campo abierto, se incorporó un dron a la escena y se programó para que pueda ser manejado por un control físico, además se crearon modelos 3D utilizando la herramienta MagicaVoxel, esta herramienta permite una rápida creación de modelos que pueden ser exportados a Unity. Para la animación de los modelos generados se utilizó la plataforma Mixamo, ya que cuenta con un catálogo amplio de animaciones que pueden ser incorporadas a modelos personalizados para su importación en la plataforma UNITY. Se añadieron elementos a la escena para dar más realismo como un sistema de peatones y una actividad de evasión de obstáculos. Por último, se crearon scripts de programación para dar comportamiento a los modelos generados y el comportamiento de los objetos en escena. Se diseñaron interfaces de usuario para la correcta navegación dentro de la aplicación y que pueda estar adecuada a una ejecución en plataforma móvil.


CONCLUSIONES

Durante la estancia de este verano se adquirió el conocimiento y habilidades en la temática de realidad virtual, llegando a conocer las herramientas para la generación de este tipo de aplicaciones, y como estas herramientas conjuntan las habilidades de diseño y programación. Se adentró también en la disciplina de interacción humano computadora. Durante el desarrollo de este proyecto se utilizaron diversas herramientas y programas de las cuales no se tenía conocimiento. Fue necesaria mucha investigación para el uso adecuado de estas herramientas y poder utilizarlas junto a Unity. Toda la investigación será de gran ayuda en futuros proyectos utilizando Unity ya que se ha expandido el área de oportunidades gracias a estas herramientas adicionales. A lo largo de las semanas se tuvieron por lo menos dos sesiones virtuales a la semana con compañeros del mismo programa Delfín y el Asesor de CIMAT en donde se pudieron compartir experiencias y hallazgos y obtener retroalimentación durante el desarrollo del proyecto. Debido a la contingencia sanitaria COVID-19 se tuvo la limitante de no poder asistir de forma presencial a la institución CIMAT Zacatecas por lo que el proyecto se tuvo que ajustar a las medidas de trabajo virtual.
Rodríguez Medina Cristina, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato

DISEñO DE EXPERIMENTOS DENTRO DEL PROCESO DE PRODUCCIóN DE PIMIENTOS DE LA AGRICULTURA PROTEGIDA EN MéXICO


DISEñO DE EXPERIMENTOS DENTRO DEL PROCESO DE PRODUCCIóN DE PIMIENTOS DE LA AGRICULTURA PROTEGIDA EN MéXICO

Castro Rivas Luis Orlando, Instituto Tecnológico Superior de Guanajuato. Lozano Retana María Azucena, Instituto Tecnológico Superior de Guanajuato. Pérez Hernández Nazareth Martín, Instituto Tecnológico Superior de Guanajuato. Rodríguez Medina Cristina, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una empresa grande del sector agrícola dedicada a la agricultura protegida realiza la siembra, cosecha y venta de sus productos, entre estos frutas y hortalizas. La empresa presenta problemas en el área de empaque; genera gran cantidad de desperdicio por deficiencias en el proceso de producción de pimientos. Se procedió a realizar un diagrama de Ishikawa para analizar los factores involucrados en el proceso y se identificó la causa principal de los desperdicios, concluyendo que los desperdicios se generan en la máquina de embolsado de pimiento. 



METODOLOGÍA

En el área de empaque de pimiento se detectaron factores causantes de gran cantidad de desperdicios por deficiencias del proceso en la máquina de embolsado. Por tal motivo se implementó la metodología Diseño de experimentos (DOE), la cual permite analizar las variables o factores independientes que intervienen en el proceso e influyen en la variable de respuesta de este, permitiendo obtener un mejor nivel de optimización (Hernández, De la Paz y García, 2015). Para realizar el estudio sobre DOE (Montgomery, 2004; Hernández 2014), se aplicaron los siguientes pasos: 1. Identificación y exposición del problema Se determinó que en la máquina de empaque se encuentra el mayor número de causas posibles de desperdicio, porque es en la maquina donde se tienen mayor número de factores que podrían ser más difícil de combinar correctamente. La máquina dos de embolsado se encarga de realizar el empaquetado del pimiento en cantidades de tres unidades por bolsa, en repetidas ocasiones provoca fisuras y aplasta el producto al sellar las bolsas, generando una considerable cantidad de producto dañado (Garza, 2014 ; López, Quiroga, Gómez y Barrando, 2012) 2. Elección de factores, niveles y rangos Las variables seleccionadas para el análisis estadístico deben ser variables que influyen directamente en el proceso y deben ser controlables (Abate, Deferrari y Martinez, 2017) por lo tanto se determinó que las variables de interés son, la velocidad de la maquina en un rango de acciona de 70 a 85% y la altura de las brochas de empuje de 2.9 hasta 3.4 pulgadas, estas son las variables que tienen la posibilidad de ser modificadas y controladas en el proceso y sus respectivos rangos de acción que serán utilizadas para el diseño. 3. Selección de la variable de respuesta Se determino como variable de respuesta o dependiente a la cantidad de producción de bolsas (Rendon, Gutiérrez y Duque, 2010), esta variable es afectada al modificar las variables de velocidad de la maquina y la distancia de las brochas de empuje del pimiento. 4. Elección del diseño experimental Se requiere de la aplicación de diseños de experimentos mediante la técnica de cuadros latinos, en la maquina dos de embolsado al momento de empacar pimientos de 3 pulgadas, ya que estos se producen en mayor volumen, se realizará con una matriz de 4 por 4 factores lo que conlleva cuatro tratamientos de la variable velocidad de la maquina y cuatro tratamientos de la variable altura de las brochas de empuje, con un total de 16 muestras. Estas corresponden a velocidad de la maquina 70, 75, 80 y 85 y la altura de la brocha de empuje 2.9 pulgadas, 3.0 pulgadas, 3,2 pulgadas y 3,4 pulgadas. Se debe de comenzar con la medida más baja y la velocidad más baja que es la altura de 70 y 2.9 pulgadas de altura de la brocha de empuje (Aguilar, Benzadon, De Leon, Sánchez, Cedeño, 2019), se debe de medir cantidad de productos embolsados con estas variables durante dos minutos lo que corresponderá a nuestra variable de respuesta, así sucesivamente se van aumentando las variables del diseño y tomando las variables de respuesta correspondientes a las combinaciones de las variables y se va realizando el registro de los resultados de las distintas combinaciones. 5. Realización del experimento. Se confirmo que las personas quienes intervienen en el proceso estuvieran perfectamente capacitados para la objetividad de los resultados y se realizó la recolección de datos (Diaz, 2009) con base en las combinaciones establecidas, posteriormente se desarrolló la metodología mediante cuadros latinos comenzando con la asociación de datos a letras de manera ordenada, se realizó una diferencia de estos datos con respecto a la media del total y se suman las filas y columnas para obtener Y que en este caso equivale a 19, se procedió a calcular las sumatorias correspondientes a cada una de las letras para obtener Yj donde se pudo comprobar que el valor de Y era el correcto al ser igual que Yj. Para realizar el análisis de varianza (Durakovic, 2017) se desarrolló una ecuación, para calcular la suma total de los cuadrados, que corresponde a la suma de la suma de cuadrados de regresión y la suma de cuadrados del error, como resultado de esta sumatoria, se obtuvo lo siguiente: SST=9448.4375, SSR= 49.1875, SSc=6443.6875, SSt=1109.1875, SSE=1846.375


CONCLUSIONES

Como resultado del diseño de experimentos se obtiene un ANOVA (analysis of variance), donde se evaluó si la variación de cada una de las variables analizadas afecta de manera considerable en nuestra variable de respuesta (Montgomery, 2017); para que una variable no afecte la variable de respuesta su valor de F debe de ser menor que el valor de Fisher correspondiente a los grados de libertad, que para este experimento corresponde a 4.76 y se observó que la variable de velocidad es donde se genera variación en el diseño debido el valor de F es igual a 6.979 y mayor que el valor Fisher este valor de 6.979 corresponde a la velocidad de la máquina, es decir que la velocidad de la maquina afecta de manera considerable en nuestro proceso de producción. Se realizó un gráfico radial donde se muestra el comportamiento de la producción con respecto a distintas combinaciones de variables mostrando cuál de ellas genera mayor eficiencia, las cuales corresponden a las velocidades de 80 y 85, se establece un objetivo de 210 bolsas por minuto y la mayor efectividad se genera a una velocidad de 85, independiente a la altura de la brocha manteniendo la producción constante y cercana al objetivo.  
Rodríguez Muñoz José David, Instituto Tecnológico de Nuevo Laredo
Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia

PROCESAMIENTO DE SEñALES PARA EL MEJORAMIENTO DE UN DISPOSITIVO AUDITIVO.


PROCESAMIENTO DE SEñALES PARA EL MEJORAMIENTO DE UN DISPOSITIVO AUDITIVO.

García Bedolla Dulce Guadalupe, Instituto Tecnológico de Morelia. Rodríguez Muñoz José David, Instituto Tecnológico de Nuevo Laredo. Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

La hipoacusia o sordera, es la disminución de la sensibilidad o capacidad de audición. La pérdida de audición puede clasificarse como leve, moderada, grave o profunda y puede afectar a uno o ambos oídos. Los factores de la pérdida de audición pueden derivarse de problemas congénitos, dificultades en el embarazo y/o parto, enfermedades o edad. Los factores ambientales también dañan la habilidad del oído para escuchar, provocando incluso pérdida total. Según la Organización Mundial de la Salud, en el mundo hay 466 millones de personas que padecen pérdida de audición discapacitante, de estas, 34 millones son niños. En México, de los 115.7 millones de personas de 5 años y más, 7.7 millones se consideran población con discapacidad. De estos 1.4 millones tienen discapacidad auditiva, siendo los adultos mayores los más afectados. Se calcula que en 2050 una de cada 10 personas sufrirá pérdida de audición en el mundo. Los problemas para las personas con discapacidad auditiva son: dificultad en la comunicación, falta de confianza y altos costos de los dispositivos auxiliares auditivos, afectando su calidad de vida. El dispositivo auditivo para personas con discapacidad auditiva depende de su nivel de sordera.



METODOLOGÍA

En este proyecto se elaboran algoritmos de programación en Matlab® para mejorar las funciones que ofrecen los dispositivos auditivos comerciales para personas con hipoacusia en alguna banda de frecuencia. En las pruebas se utilizan los recursos disponibles en una computadora (micrófono y bocinas). Las funciones se dividen en 4 etapas: Adquisición de audio en tiempo real. Utiliza el objeto audiorecorder de Matlab. Este objeto permite grabar audio usando el micrófono de la computadora y obtener una matriz de datos que se puede reproducir al terminar de grabar. Esto es un inconveniente dado que el sonido adquirido se reproduce hasta terminar la captura. Para solucionarlo se desarrolla una función asíncrona que se ejecuta cada cierto tiempo durante la grabación; esta función se ejecuta de manera paralela al proceso para modificar los datos y enviarlos a las bocinas. Esto permite escuchar audio en tiempo real, a medida que se adquieren los datos por el micrófono se liberan por las bocinas. El algoritmo usa una frecuencia de muestreo de 44100 M/s, utilizada por los dispositivos comerciales. La función asíncrona se ejecuta cada 100 ms para adquirir una matriz de audio de 4410 muestras a procesarse en etapas posteriores.  Eliminación de ruido. En esta etapa se desarrollan 3 algoritmos para atenuar ruido ambiental y ruido blanco usando los métodos: puerta de ruido, resta espectral y transformada wavelet. La puerta de ruido establece un umbral que la señal de audio debe superar. Si la señal es igual o mayor al umbral, los datos no se modifican, si no se atenúan para que no se escuchen. Este método elimina el ruido durante pausas o en instantes en que no se perciben sonidos; sin embargo, deja pasar el ruido combinado con la señal de audio al superar el umbral.  Por ello, se utiliza la resta espectral, que realiza una resta entre la magnitud de los números complejos (obtenidos de la Transformada Rápida de Fourier, FFT) del sonido adquirido y un ruido similar previamente grabado, por ejemplo, el ruido del ventilador de la computadora. Por último, se emplea la transformada Wavelet para eliminar el ruido blanco en la señal. División de la señal de audio en bandas de frecuencia. Separa el audio sin ruido en 7 bandas de frecuencia, para amplificarlas o atenuarlas dependiendo de las características auditivas definidas. Para conocer el valor de dB SPL de cada banda se utilizan como referencia las curvas isofónicas y pruebas de audiometría. Se usan dos métodos parala división en 7 bandas: FFT y filtros digitales IIR.   Al utilizar la FFT, en el dominio de la frecuencia se divide la matriz de números complejos en 7 matrices de diferente tamaño y cada una de estas se amplifica o atenúa posteriormente a un valor de dB establecido. Una vez modificada la amplitud de cada banda, se usa la Transformada inversa (IFFT) para recuperar los datos en el dominio del tiempo y reproducirlos. Las frecuencias de las bandas 1 a 7 se centran en 125 Hz, 250 Hz, 500 Hz, 1 kHz, 2 kHz, 4 kHz, 8 kHz, respectivamente. El segundo método emplea filtros IIR pasabanda elípticos; cada uno corta la señal de audio a frecuencias definidas para obtener 7 matrices en el dominio del tiempo (bandas); para modificar la amplitud de cada banda se utiliza una amplificación lineal (un coeficiente multiplica los datos de cada matriz). Desplazamiento entre bandas de frecuencia. Usa el algoritmo de división por FFT ya que para desplazar las bandas las matrices deben tener un número de datos múltiplos entre sí. Para desplazar de banda inferior a superior se interpolan las magnitudes obtenidas por la FFT. Por ejemplo, si se desplaza la banda 1 a la 2, la primera tiene 8 muestras y la segunda 16, por tanto, se rellena la primera con 8 valores interpolados. Para desplazar de banda superior a inferior se promedian dos muestras contiguas y el resultado es el valor que se pone en la matriz de menos datos.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos del procesamiento de señales aplicados en señales auditivas con técnicas de FFT, filtros IIR, sustracción espectral, puerta de ruido, transformada Wavelet e interpolación. Para dividir las bandas de frecuencia, la FFT toma menos tiempo de procesamiento, conveniente para tratar señales auditivas. Los algoritmos desarrollados se validaron considerando una persona con problemas auditivos y su audiometría clínica, se hicieron diferentes pruebas para determinar las mejoras en la percepción auditiva. Para el usuario, los mejores resultados fueron con cambio de frecuencias altas (2k a 8k Hz) a 1k Hz y con amplitudes de banda de 30 dBmV. A futuro se pretende implementar el código desarrollado en un dispositivo DSP, para ayudar a las personas con sordera de manera óptima.
Rodriguez Rodriguez Angel Gabriel, Instituto Politécnico Nacional
Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México

CREACIÓN DE AGENTE CONVERSACIONAL (CHATBOT) DEDICADO A LA REALIZACIÓN DE OPERACIONES MATEMÁTICAS BÁSICAS.


CREACIÓN DE AGENTE CONVERSACIONAL (CHATBOT) DEDICADO A LA REALIZACIÓN DE OPERACIONES MATEMÁTICAS BÁSICAS.

Diaz Mendoza Victor Eugenio, Instituto Tecnológico de Reynosa. Rodriguez Rodriguez Angel Gabriel, Instituto Politécnico Nacional. Torres Aguilar Ishmael Benjamin, Instituto Politécnico Nacional. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la tecnología ha ido mejorando, actualizando, adaptándose a las diferentes necesidades y problemáticas de los seres humanos , una de esas tecnologías que ha causado más revuelo es la A.I (Artificial Intelligence) o bien conocida como inteligencia artificial en la cual se ha intentado que las máquinas puedan tener la capacidad de pensar como lo hacen los seres humanos. Dentro de los avances que se han realizado dentro de la A.I son los Chatbots estos nos permiten mantener una conversación entre una persona y una máquina. Aunque estos ofrecen muchas ventajas para los negocios y servicios , muchos de estos negocios prefieren no implementarlos ya que muchos de los chatbots no proporcionan una interacción  tan natural como lo sería con una persona de por medio , ya sea porque el chatbot no tiene el suficiente conocimiento acerca del lenguaje natural de los usuarios , o la información que posee el chatbot es insuficiente o es acerca de un tema específico,etc.



METODOLOGÍA

Para el desarrollo de nuestro chatbot (agente conversacional) abarcamos muchas ramas de conocimientos para el aprendizaje de máquinas, incluyendo Machine Learning y Deep Learning, esto fue a través del lenguaje de programación Python ya que posee una curva de aprendizaje fácil y en la actualidad se encuentra en la vanguardia en este tipo de disciplinas. Lo primero realizado fue familiarizarnos con el lenguaje Python y aprender que es un chatbot, sus capacidades y limitaciones e ideamos cual seria la función de nuestro chatbot, la cual es resolver operaciones básicas y trigonométricas a través de una interacción natural entre humano y chatbot.   Una vez delimitando los límites y alcances de nuestro chatbot procedimos a programarlo usando un software llamado chatvoice proporcionado por nuestro asesor. La interacción humano - chatbot debe ser de la manera más natural posible, para esto nuestro chatbot necesita entender lo que dice el usuario y responder al usuario de manera lógica a lo que este dijo. Para lograr esto utilizamos una red neuronal la cual tuvimos que entrenar (término utilizado para lograr que una red neuronal aprende a reconocer patrones) con ejemplos de conversaciones y ejemplos de diálogos acordes a la funcionalidad de nuestro chatbot, diseñamos mas de 500 ejemplos de diálogo humano y logramos que nuestra red neuronal aprendiera a reconocer dichos patrones. Ya teniendo estos conocimientos y programas desarrollamos a nuestro chatbot y fue puesto en servidores con la finalidad de que personas ajenas a nuestro equipo de trabajo lo pudieran probar y así cotejar el nivel de efectividad y el nivel de entendimiento de nuestro chatbot, los resultados fueron satisfactorios y así fue como concluimos la estancia.


CONCLUSIONES

A través de la estancia se logró adquirir conocimiento sobre la creación de chatbots (Agentes conversacionales) tales como conocimientos sobre aplicaciones de redes neuronales aplicado al entendimiento del lenguaje, así como también se logró afirmar conocimiento en el lenguaje de Python, se concluyó correctamente el propósito de la estancia de investigación.
Rodriguez Ruiz Ileana Karina, Universidad de Sonora
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

TECNOLOGíA EDUCATIVA.


TECNOLOGíA EDUCATIVA.

Rodriguez Ruiz Ileana Karina, Universidad de Sonora. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Es bastante fácil notar que la tecnología está a nuestro alrededor y forma parte de nuestra vida cotidiana pues siempre estamos haciendo uso de algún dispositivo, software, o aplicación, con el propósito de hacernos la vida menos complicada, por lo tanto, es fundamental que las instituciones educativas impartan un lenguaje de programación ideal para que la enseñanza de los jóvenes sea significativa. Debido a lo anterior, en nuestra estancia de verano Delfín realizaremos una investigación sobre el lenguaje Python, con el propósito de conocer sus características, modo de uso y observar si es posible que un estudiante pueda aprender lo necesario a través de él, poniendo en práctica los conocimientos obtenidos.



METODOLOGÍA

Al inicio de la estancia, se comenzó por revisar la parte teórica del lenguaje de programación Python, donde aprendimos que fue creado por Guido van Rossum a principios de los años 90 y fue diseñado en base algunas ideas del proyecto ABC. También aprendimos que Python es de código abierto, por lo tanto, otros programadores alrededor del mundo pueden ser partícipes en las modificaciones de su código fuente y con esto realizar mejoras. Esto asimismo ha sido un factor para que cada cierto tiempo se estén realizando versiones actualizadas de este lenguaje, donde la versión más reciente hasta el momento es la 3.8.5. Conforme han pasado los años, ha logrado contar con una gran variedad de librerías que podrían ser funcionales para distintas áreas o ramas de conocimiento, como lo son: la ciencia, ingeniería, análisis de datos, machine learning, desarrollo web, estadística, entre otras. Machine learning se puede definir como una rama de la inteligencia artificial, en donde este recopila cierta cantidad de datos guardados para crear un patrón que ayudara a predecir futuros comportamientos. Entre las citas del sitio web de Python, se menciona que Google ha programado en este lenguaje con la finalidad de recomendar publicidad personalizada a sus usuarios a través las búsquedas que estos realicen. Revisamos sus principales ventajas y una de ellas es que es gratuito, por lo tanto, desarrolladores o estudiantes se evitarán la penosa necesidad de pagar por obtenerlo. Otras ventajas son que es un lenguaje de alto nivel, interprete y de sintaxis sencilla. En comparación, otros lenguajes son más complicados de escribir o entender por parte de un principiante, pues supongamos que un programa escrito en Python es alrededor de tres líneas, bueno pues en C++ o Java puede ser alrededor del doble o triple de líneas. Sin embargo, una desventaja de Python es que puede ser considerado un poco lento a comparación de otros lenguajes.    Entre los sistemas operativos en los que se puede manejar se encuentran como principales: Windows, Linux y Mac. Algunas comparaciones entre ellos son: Linux cuenta con una licencia de software abierto a diferencia de Windows y Mac que se debe pagar por la licencia. Windows es propenso a ser atacado por virus o malwares donde por el contrario Linux se encuentra más protegido ante esta clase de ataques. Para utilizar un sistema operativo Mac debes contar con un dispositivo Apple, a diferencia de los otros sistemas. Windows es de fácil uso y cuenta con más herramientas que el sistema operativo Linux.  Entonces, ¿Cuál de ellos es el mejor para programar con Python? A decir verdad, considero que eso es muy subjetivo a las preferencias de cada programador, sin embargo, Linux parece llevar la delantera. Al finalizar la parte teórica nos concentramos en conocer los requerimientos de instalación los cuales se pueden encontrar en su propia página de Python, y por lo general solo menciona el tipo de procesador que es necesario en su sistema operativo para que el proceso de instalación sea exitoso. El proceso de instalación me pareció muy sencillo. En mi caso, lo instale en el sistema operativo Windows debido a que es el que maneja mi computadora, pero si se desea instalar en otros sistemas, en la página web de Python se tienen enlaces de descarga para el de su elección. Una vez asegurada de cumplir con todos los requisitos, presione doble clic para comenzar la descarga y una vez descargado, lo ejecute. Una vez abierto el instalador, este indicó el proceso de instalación hasta su finalización. Después de instalar el lenguaje en el computador, nos dedicamos 100% a aprender los fundamentos y procedimientos básicos para poder escribir un programa tales como aprender su sintaxis, declarar variables, hacer uso de funciones, condicionales, entre otros. Una vez aprendido lo anterior, los comenzamos a poner  en práctica y a desarrollar problemas pequeños pero después subimos un poco más de nivel, con problemas que ya incluían declarar variables, identificar tipos de datos e ingresar entradas. Uno de los programas que realice fue el de calcular el índice de masa corporal de una persona y lo hice de la siguiente manera: peso_kg = input("¿Cuál es tu peso en kilogramos? ") estatura_m = input("¿Cuál es tu estatura en metros?") imc = round(float(peso_kg)/float(estatura_m)**2) print("Tu índice de masa corporal es " + str(imc)) Donde al iniciarse el programa se podía ingresar el peso, estatura y el programa se encargaba de mostrar el resultado.


CONCLUSIONES

Anteriormente yo había cursado dos materias de programación en Java y debo decir que fue algo difícil debido a que no tenía conocimientos previos y la sintaxis era más compleja que la de Python, por lo tanto, me he dado cuenta después de realizar esta investigación, que de haber llevado la materia con este lenguaje de programación en vez del que fue utilizado hubiera resultado más beneficioso y hubiera sentado una base para usar lenguajes más complejos en el futuro de a si quererlo, no obstante, no es necesario ya que Python es bastante beneficioso por sí solo.  Aunque no realizamos problemas muy complejos por cuestión de tiempo, lo aprendido nos da una pauta para seguir investigando y practicando por nuestra cuenta.
Rodriguez Sandoval Francisco, Universidad Autónoma de Guerrero
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEÑO DE UNA CASA AUTOSUSTENTABLE (INSTALACIÓN ELÉCTRICA Y APLICACIÓN DE LA DOMÓTICA PARA UNA CASA ECOLÓGICA AUTOSUSTENTABLE,MATERIALES DE CONSTRUCCIÓN,ELABORACIÓN Y DISEÑO DEL PLANO)


DISEÑO DE UNA CASA AUTOSUSTENTABLE (INSTALACIÓN ELÉCTRICA Y APLICACIÓN DE LA DOMÓTICA PARA UNA CASA ECOLÓGICA AUTOSUSTENTABLE,MATERIALES DE CONSTRUCCIÓN,ELABORACIÓN Y DISEÑO DEL PLANO)

Rodriguez Sandoval Francisco, Universidad Autónoma de Guerrero. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

En México existe un incremente del consumo energético para el acondicionamiento climático y lumínico de la vivienda lo cual tiene un impacto muy importante en la económica de los usuarios,  esta situación acentúa la dependencia del uso del combustible fósiles no renovables así como del impacto ambiental que este conlleva. Por esto se pretende aprovechar los recursos elebarondo estudios que nos ayuden a determinar que es la mas factible a utilizar para la creacion del diseño de una casa ecológica autosustentable Uno de los elementos más importantes que determinan los niveles de confort y de consumo energético en las viviendas, es su envolvente y su disposición a los factores climáticos naturales. Por regla general en nuestro país, las viviendas destinadas para el sector más desprotegido, se diseñan y construyen en función del costo de construcción y no en función a los costos de operación. Lo anterior se evidencía en la mayoría de nuevas edificaciones, las cuales reflejan altos consumos energéticos y serios problemas de confort ambiental, problemas que pueden ser solucionados mediante una correcta aplicación de una metodología de diseño bioclimático adecuada, sin que esto genere un impacto importante en el costo de la edificación.



METODOLOGÍA

La metodología que se utilizó fue de análisis y síntesis, se recaudó la información por separado del proyecto para después unirla ya analizada se utilizan las opciones más factibles para el diseño de la vivienda, se separaron los conceptos y las ideas lo que me permitió la comprensión plena de cada área que estaba conformando la vivienda una vez realizado esto y con los estudios del medio físico natural se procedió a la elaboración detallada del diseño de la vivienda teniendo en cuenta el asoleamiento como fuente principal para el aprovechamiento de la iluminación y crear así un estudio de lo que la vivienda en cuestión de electricidad requería. Una vez analizada la información no reuníamos con el equipo de trabajo para compartir ideas y llegar a la toma de decisiones que favorecieran al diseño de la vivienda.


CONCLUSIONES

El diseño de una casa autosustentable es sin duda uno de las mejores opciones para combatir el deterioro ambiental que se ha venido provocando por el mal aprovechamiento de los recursos, la arquitectura es el arte de construir espacios que sirvan como morada del hombre en la cual deba sentirse cómodo y feliz,  es el reflejo de culturas, costumbres, es sin duda una expresión del  pensar y el sentir de sus habitantes,  la arquitectura debe ser adaptable y dejarse apoyar por demás ciencias para así lograr su prometido, en este caso la casa ecológica autosustentable utilizando los estudios realizados de la tecnología y la domótica y con esto volvemos nuestra vivienda también una vivienda vernácula aprovechando todo lo que el medio nos brinda la distribución y el aprovechamiento de los espacio, los materiales de la región, el estudio de asoleamiento que garantiza una disminución en la utilización de energía eléctrica, el aprovechamiento de los vientos dominantes que  favorece a la ventilación interior  y con ayuda de la domótica también tenemos una vivienda automatizada la cual se adapta al medio en el cual se decida construir. Uno de los objetivos principales de esta vivienda era el económico aprovechando todo lo que se nos estaba brindado incluyendo las costumbres y tradiciones del sitio, con nuestro diseño logramos disminuir el gasto de construcción, aprovechamiento de los recursos naturales generando un diseño de vivienda ecológica autosustentable pero también vernácula y automatizada.
Rodríguez Torres Luis Daniel, Universidad de La Salle Bajío
Asesor: Mg. Royer David Estrada Esponda, Universidad del Valle

LA INTERACCIóN HUMANO COMPUTADOR EN EL CURRíCULO DE LAS INSTITUCIONES DE EDUCACIóN SUPERIOR DE MéXICO


LA INTERACCIóN HUMANO COMPUTADOR EN EL CURRíCULO DE LAS INSTITUCIONES DE EDUCACIóN SUPERIOR DE MéXICO

Cabrera Reynaga Gerardo Javier, Universidad de La Salle Bajío. Muñoz Rodríguez Jonathan Eduardo, Universidad de La Salle Bajío. Rodríguez Torres Luis Daniel, Universidad de La Salle Bajío. Sánchez Ramírez Nicolás de Jesús, Universidad de La Salle Bajío. Asesor: Mg. Royer David Estrada Esponda, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Los procesos de interacción que se dan entre los seres humanos y los sistemas informáticos que se desarrollan con el fin de contribuir a la satisfacción de diferentes actividades que dichos humanos realizan, representan un reto desafiante en el ámbito de varias temáticas, por ejemplo, la ergonomía, la accesibilidad y la usabilidad. Un ejemplo de dichos sistemas informativos están en el ámbito de las tecnologías de la información y la comunicación (TIC), que gracias a su aumento significativo han generado que se desarrollen servicios que potencialmente pueden transformar la vida de los usuarios, sin embargo dichos servicios o utilidades generalmente disponibles en internet son complejos y poco usables para un porcentaje de la sociedad. Por lo anterior, una de las áreas de estudio en el contexto de las ciencias de la computación es la Interacción Persona-Ordenador (Human-Computer Interaction o HCI en inglés o IPO en español), y en ese contexto figuran importantes cuerpos de conocimiento que incluyen la IPO/HCI como una arista importante en cualquier proceso en el ámbito de la Ingeniería de Software, este es el caso de SWEBOK, el cuerpo de conocimiento de la ingeniería de software que dedica un capítulo completo relacionado con la HCI. Paralelamente, el informe de ACM/IEEE-CS Joint Curricullum Task Force Computing Curriculla propuso al área de IPO/HCI como una de las nueve áreas de la formación del profesional de informática. También existen syllabus que buscan guiar la enseñanza de conceptos y por tanto la adquisición de habilidades en el contexto de la IPO/HCI. Sin embargo, aún no hay conceso sobre las múltiples temáticas que podrían incluirse en cursos de IPO/HCI y  por tanto lineamientos sobre cómo enseñar esas temáticas.



METODOLOGÍA

Con el propósito de identificar la cantidad de universidades mexicanas con programas que ofrecen asignaturas relacionadas con la IHC/IPO, User Experience, Customer Experience, Usabilidad y Accesibilidad, y que son importantes para que desde la formación de profesionales en ingeniería de sistemas se aborden temas, prácticas y conocimientos que contribuyan con la calidad de sistemas informáticos, su adecuada implementación en sectores productivos y la comodidad de uso para los usuarios finales, la investigación que aquí se presenta inició con un enfoque exploratorio, este tuvo por objeto abordar problemas de investigación poco estudiados o incluso problemas que nunca han sido objeto de estudio en contextos específicos. Adicionalmente, por lo general dicho enfoque contribuye a determinar tendencias e identificar relaciones potenciales entre variables.  


CONCLUSIONES

Una vez revisados los portales institucionales de las universidades mexicanas, se encontró que de las 5.343 universidades activas para el 2019, 1.266 ofrecen programas académicos de licenciatura profesional o tecnológica relacionadas con la Ingeniería de sistemas, Ingeniería informática y en general programas asociados al campo amplio de formación académico Tecnología de la Información y Comunicación. De las 1.266 universidades con oferta de los programas mencionados anteriormente, 539 tienen en sus planes de estudio asignaturas relacionadas con la HCI/IPO, 215 no tienen ninguna relación y en 512 universidades no fue posible realizar la verificación ya que los planes de estudio no estaban disponibles o incluso los portales institucionales de las universidades tampoco lo estaban.  Para complementar la fase de revisión se realizaron consultas en cuatro plataformas tecnológicas relacionadas con la publicación de vacantes, para ello se usaron palabras claves que fueron refinadas gracias a la revisión de los planes de estudio realizada. La Figura 4 refleja los resultados por cada plataforma. Las palabras claves usadas fueron UX, UI, Usabilidad, Diseño de Interacción, entre otras.
Rodríguez Villagrana Esther Abigaíl, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Jose Luis Reyes Barragan, Universidad Politécnica de la Zona Metropolitana de Guadalajara

EL MANEJO DEL POLIESTIRENO EXPANDIDO POST- CONSUMO EN LA FABRICACIóN DE HOGARES PARA MASCOTAS, HACIA LA REDUCCIóN DE LA HUELLA ECOLóGICA.


EL MANEJO DEL POLIESTIRENO EXPANDIDO POST- CONSUMO EN LA FABRICACIóN DE HOGARES PARA MASCOTAS, HACIA LA REDUCCIóN DE LA HUELLA ECOLóGICA.

Rodríguez Villagrana Esther Abigaíl, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Jose Luis Reyes Barragan, Universidad Politécnica de la Zona Metropolitana de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Anualmente, el mundo consume 5 billones de bolsas de plástico hechas con derivados de petróleo que pueden tardar hasta cientos de años en degradarse, entre estos derivados, se destaca el poliestireno expandido (EPS) o unicel, como usualmente lo llamamos en México. El EPS tiene diversas aplicaciones como envase y embalaje en diversos sectores de la industria, que a pesar de ser tan funcionales, posteriormente son desechados a la basura generando grandes problemas de contaminación ambiental, además, debido a sus compuestos químicos es un material toxico y no biodegradable. Por otro lado, en virtud de las características térmicas, acústicas y de resistencia a factores ambientales, de este material, se ha podido detectar una gran oportunidad para la construcción de hogares para mascotas.



METODOLOGÍA

En este proyecto se plantea trabajar con Poliestireno Expandido (EPS) post-consumo, el cual es desechado de cafeterías, restaurantes y/o reuniones familiares. Al comenzar, el EPS se debe triturar y unificar en fragmentos para ir formando una superficie plana de aproximadamente un espesor de 1cm a 2 cm. Con posterioridad se preparan 2 soluciones acuosas: a) Solución Ignifugante, esta es una solución acuosa que se prepara disolviendo H3BO3. Para luego mezclarse con la solución adhesiva. b) Solución adhesiva, se prepara en una mezcla de 3 partes de Acetato Polivinilo y 1 de Agua con una carga de aserrín. Se mezcla todo perfectamente y se agrega al EPS. Ulteriormente hay que dejar secar para finalmente evaluar sus características, mecánicas, térmicas y acústicas.


CONCLUSIONES

Bajo los criterios establecidos para el desarrollo de una parte experimental, es importante comentar que debido a las recomendaciones federales y estales de mantenerse en casa respetando la cuarentena por problemas del COVID-19, no fue ejecutada. Queda claro que este proyecto promueve el deseo de tener un centro de acopia de EPS post- consumo para la fabricación de casas hogares de mascotas y, por ende, disminuir la huella ecológica. Los resultados que de acuerdo a la literatura fueron documentados muestran un gran consumo de EPS en ciertas épocas del año. Por otro lado, los riesgos a la salud y al ecosistema son impactantes, la respuesta a este problema se sostiene en reutilizar el EPS y no consumiendo más recursos enérgicos como se ha planteado y por el contrario seguir con el ciclo de vida del EPS dando alternativas como fabricar las casas de los hogares para mascotas, de acuerdo con lo investigado no se encontró artículos de post-consumo.
Rojas Cecilio Cristina, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero

DESARROLLO DE UNA PRóTESIS PARA PERSONAS CON PéRDIDA DE EXTREMIDAD SUPERIOR (MANO)


DESARROLLO DE UNA PRóTESIS PARA PERSONAS CON PéRDIDA DE EXTREMIDAD SUPERIOR (MANO)

Escobar López Elizabeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rojas Cecilio Cristina, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

La pérdida de alguna extremidad, es uno de los factores comunes en diversas personas, desde niños, adolescentes, jóvenes y adultos, estas pérdidas se sufren mediante distintos factores como lo son enfermedades, descuidos en el trabajo, accidentes, entre otros, es por ello que las personas que tienen esta discapacidad sufren psicológicamente, emocionalmente pero el gran impacto que tiene es que no pueden realizar sus actividades y dejan de trabajar por tener una discapacidad. La mano es un instrumento para llevar a cabo muchas de nuestras acciones cotidianas, las manos son vulnerables a lesiones frecuentes, de acuerdo a las estadísticas de accidentes de trabajo, la mano es la región anatómica más afectada, pues se encuentra involucrada en el 26 por ciento del total de casos. Entre las primeras diez causas de enfermedad laboral, dos de ellas son en las manos.



METODOLOGÍA

Para poder empezar con la creación y modelado de una prótesis en 3D lo primero que se hizo fue buscar a una persona con amputación de los dedos o de la mano completa, para empezar a trabajar en el modelo de la prótesis de acuerdo con la forma de la mano. Se redactó un documento de consentimiento informado en el cual se especificaba todos los derechos que tenía la persona al aceptar ser parte de nuestra investigación. El señor Jaime Charco León, de 72 años de edad, nos otorgó su consentimiento para poder crear una prótesis basándonos en su mano derecha, la cual le hacían falta los dedos: índice, medio y anular, a consecuencia de un accidente industrial con una revolvedora de productos químicos. Se  aplicó la encuesta donde se le preguntaban datos que ayudaría con el diseño de la prótesis, como los problemas que le causaban la falta de sus dedos, medidas de su mano izquierda y de su mano derecha, su familiarización con algún tipo de prótesis, las repercusiones que tiene en su vida diaria la falta de sus dedos, entre otras.  El software que manejamos para comenzar a realizar el trabajo de modelado de la prótesis fue TinkerCAD y Solidworks, un software de diseño en 3D, debido a que cuenta con una interactividad amigable. Lo que este software permitió fue hacer el diseño, puesto que permitía trabajar sobre piezas previamente creadas y adaptarlas a la necesidad del señor Jaime. Una vez teniendo conocimiento del software de diseño, el investigador Giovani nos expuso los parámetros de la impresora 3D y el programa que utiliza llamado Repetier Host para determinar los parámetros de impresión. Los aspectos importantes al momento de imprimir son la posición del diseño en la cama térmica debe de ser centrada con respecto a las dimensiones de la impresora y acomodada a manera de que la superficie más grande del diseño sea la que repose sobre la cama térmica, de esta forma la impresora encuentra mayor apoyo y utiliza menos material para la impresión debido a que en la impresión 3D cuando existen partes de la pieza volando es decir, sin ningún tipo de soporte el programa crea unas columnas desde la base hasta la parte de la pieza que se desea imprimir haciendo que el consumo de filamento de plástico y el tiempo de impresión sean mayores. En los parámetros de la impresión se nos explicó la calidad recomendada para este tipo de impresión, esto quiere decir la distancia que existe entre cada capa de impresión, en nuestro caso, la calidad recomendada es de .2mm. Se hubiera podido trabajar con una calidad de .1mm. de esta manera la pieza podría salir con más detalle, pero al hacer esto el costo de impresión y el tiempo aumentan considerablemente. La velocidad de impresión se trabajó de entre 30 y 40 mm/s. No se necesitó de ningún tipo de enfriamiento al momento de la impresión porque el material con el que se estuvo trabajando es filamento de plástico PLA, el cual es un material muy noble y la misma temperatura ambiente hace que vaya tomando la dureza necesaria. Entrando con la configuración de la impresora los puntos importantes son los parámetros de la impresora, el extrusor y las dimensiones. Es importante revisar la temperatura de calentamiento del extrusor y la plataforma o cama caliente teniendo una temperatura de 240 y 100 grados para material ABS y 190 y 60 grados para PLA respectivamente. En las dimensiones de impresión lo que es importante verificar es el área de impresión (anchura, profundidad y altura); la impresora utilizada tiene unas dimensiones de impresión de 20cm x 20cm x 22cm. Para la impresión de la prótesis el programa calculó 18 horas de impresión continua. En proceso de detallado de las piezas (retiro de soportes, adherencias e impurezas) se calcula un tiempo de 6 horas para obtener una pieza lisa y sin ningún tipo de peligro para la persona que la utilice y con esto pasar al siguiente proceso. En el armado de la pieza se calcula unas 5, 6 horas, dependiendo de la habilidad del armador.


CONCLUSIONES

Durante la estancia de verano virtual se adquirieron diversos conocimientos teóricos de la impresión 3D, así como de los componentes necesarios para realizarla, desgraciadamente, a causa de la situación del COVID-19 que se está viviendo actualmente, fue poco el conocimiento práctico, pero gracias a la dedicación y el amor por la investigación por parte del investigador Giovani se logró completar la estancia virtual, con una cantidad basta de apoyo visual de igual manera se desarrollo el diseño de los dedos, el  investigador también nos mostro la forma en la que las impresoras imprimían algún diseño ya que nos mencionó que tenía en su posesión dos máquinas de impresión puesto que tenía contemplado recibir a 20 tutorados antes de la pandemia y por medios económicos propios decidió adquirir su segunda máquina. El proyecto de la prótesis de mano con dedos sigue en proceso y se piensa terminar inclusive después del programa delfín a razón del compromiso que se hizo con el señor Jaime de entregarle una prótesis para poder mejorar su vida diaria. No se terminará hasta entregar una prótesis funcional y adaptada a sus necesidades
Rojas de la Torre Daniela Fernanda, Instituto Politécnico Nacional
Asesor: Dr. Erik Ramirez Morales, Universidad Juárez Autónoma de Tabasco

SIMULACIóN DE LA TEMPERATURA PARA VER EL EFECTO EN LA LA EFICIENCIA TéRMICA Y POTENCIA DE SALIDA EN LOS SISTEMAS FOTOVOLTAICOS


SIMULACIóN DE LA TEMPERATURA PARA VER EL EFECTO EN LA LA EFICIENCIA TéRMICA Y POTENCIA DE SALIDA EN LOS SISTEMAS FOTOVOLTAICOS

Rojas de la Torre Daniela Fernanda, Instituto Politécnico Nacional. Asesor: Dr. Erik Ramirez Morales, Universidad Juárez Autónoma de Tabasco



PLANTEAMIENTO DEL PROBLEMA

Las altas temperaturas afectan a los sistemas fotovoltaicos lo que  traen como consecuencia por ejemplo la disminución en la eficiencia y la vida útil de los páneles solares. Mediante el uso de Ansys como software de simulación se mostrará la pérdida de eficiencia que presentan los módulos fotovoltaicos a altas temperaturas, lo cual nos ayudara para realizar mejoramientos en la disipación de calor al igual de considerar sistemas de enfriamientos en los sistemas. La principal problemática que los paneles solares han arrastrado desde su creación ha sido la eficiencia que estos generan al momento de convertir la energía solar en eléctrica. Uno de los factores que contribuye a la disminución de la eficiencia es la temperatura es por ellos que se planteó el estudio de la temperatura es importante ya que ésta es la que provoca un incremento de temperatura en la superficie de las celdas solares. Lo cual se propuso la simulación de paneles solares con un barrido de temperatura y ver como se afectan dos parámetros que son la eficiencia térmica y la potencia de salida, esto mediante el uso del sotware Ansys se llevará acabo una simulación que demuestre que entre más alta sea la temperatura sobre el panel solar, menor será su potencia de salida.



METODOLOGÍA

Con la finalidad de poder observar y comprobar este fenómeno térmico que afecta la eficiencia en un simulador, se usará el software Ansys, el cual es un paquete para el modelado de elementos finitos con propósitos generales, con el fin de resolver numéricamente una amplia variedad de problemas mecánicos (Stolarski, T., Nakasone, Y., y Yoshimoto, S. 2018). Utilizamos este software ya que es fácil de usar y con él podemos resolver problemas de transferencia de calor como el que simularemos. Modelamos un panel solar con las siguientes carácterísticas: Volumen:  0.003307 m3 Área total del vidrio PV: 3.4027 m2 Área total del marco (frame): 0.4914 m2 También se tabularon las características de los materiales usados para modelar el panel: Aluminio, Silicio, Vidrio, EVA y Fluoruro de Polivinilo. Condiciones de frontera usadas para la simulación: Flujo de calor promedio para todas las simulaciones de 1000 W/m2. Cuatro temperaturas ambiente diferentes: 25, 30, 35 y 40 grados Celsius. Velocidades del aire de los meses elegidos, las cuales representan el promedio de la velocidad del aire correspondiente a estaciones del año en el municipio de Valle de Bravo, Estado de México (NASA 2020). Esta ciudad fue elegida de manera arbitraria para ejemplificar la teoría. Marzo es el mes que registra la velocidad promedio del invierno. Mayo registra la velocidad promedio de la primavera y del año. Agosto registra la velocidad promedio del verano. Valores del coeficiente de convección correspondientes a las velocidades promedio del aire: h = 25 W/ grado C m2 h = 22 W/ grado C m2 h = 18 W/ grado C m2 Los resultados de las simulaciones fueron tabulados y se resaltaron las temperaturas mínimas y máximas registradas. Posteriormente en la Tabla 4 se tabularon las pérdidas de eficiencia por cada grado Celsius, así como la disminución de cada potencia de salida. Para el cálculo de las potencias se usaron los siguientes valores: Área activa del panel: 1.7 m2   Irradiación solar: 1000 W/ m2 Potencia máxima: 266 W/h  


CONCLUSIONES

En este artículo se comprueba cómo el aumento de la temperatura de operación provoca una disminución en la eficiencia. Se obtuvo una desmejora del 42.024% para la potencia de salida de 111.784 W/m2 comparada con los 266 W/m2 que se tomaron como iniciales, por lo tanto, la mayor desmejora se ve reflejada durante el verano cuando la temperatura ambiente es de 40 grados Celsius. Es importante recordar que durante el verano se registran temperaturas superiores a los 40 grados Celsius en varias partes del mundo, por lo que, en ambientes mas extremos, como las regiones cercanas al ecuador y los desiertos, la desmejora es mucho más significativa; especialmente en los desiertos si también tomamos en cuenta que el polvo reduce un 60% la eficiencia. El verano, que es la estación con menor velocidad en el viento, mayor temperatura y menor coeficiente de convección trae consigo el menor rendimiento posible del panel solar. Por estas razones la convección forzada es necesaria especialmente en las épocas más cálidas.
Rojas Rubio John Rafael, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana

DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO


DISEñO DE DISIPADORES DE FLUIDO VISCOSO PARA EDIFICIOS DE LA CIUDAD DE MéXICO

Hernández Casarrubias Natividad, Instituto Tecnológico de Chilpancingo. Jacobo Cuenca Luis David, Instituto Tecnológico de Chilpancingo. Medina Valdes Hector, Instituto Tecnológico Superior de Uruapan. Muñoz Flores José Gilberto Otoniel, Benemérita Universidad Autónoma de Puebla. Rojas Rubio John Rafael, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Orlando Cundumi Sánchez, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Históricamente los fenómenos naturales como huracanes, tsunamis, terremotos, etc., han generado desastres de gran magnitud, dejando a su paso una considerable cantidad de estructuras colapsadas, extensas regiones naturales devastadas y aún más, una gran pérdida de vidas humanas. Se calcula que en promedio más de diez mil personas pierden anualmente la vida, debido a este tipo de eventos.   El estudio del comportamiento de las estructuras ante la presencia de cargas generadas por sismos ha sido y es de gran interés en el área de la ingeniería de terremotos y en la dinámica estructural. En los años más recientes, el avance en este campo, con el fin de minimizar la respuesta (aceleración, velocidad y/o desplazamiento) en las estructuras civiles (edificios, puentes, hospitales, escenarios deportivos, etc.), ha sido bastante significativo. Una de las alternativas para mitigar los daños, causados por un sismo, en una estructura es reducir la demanda de la energía absorbida por la estructura. Dentro de esta alternativa, existen los sistemas o equipos de control, los cuales pueden ser pasivos, activos o semiactivos. El disipador de fluido viscoso se cataloga como disipadores pasivos y pueden disminuir considerablemente desplazamientos, y aceleraciones producidas por un sismo. Los dispositivos de fluido viscoso disipan energía forzando el flujo de un fluido a través de un orificio, su comportamiento depende netamente de la velocidad. Los amortiguadores viscosos han sido utilizados con éxito en estructuras civiles, especialmente en áreas geográficas de alta sismicidad. La adición de amortiguadores viscosos a una estructura puede elevar el amortiguamiento de la estructura a un 30 % del amortiguamiento crítico o más. Por consiguiente, esta adición puede reducir las aceleraciones y desplazamientos laterales por un 50% respecto a la estructura sin amortiguadores (Constantinou y Symans, 1992). Ecuación de balance de energía Ei=Ek+Es+Ea+Ed Donde: Ei= Energía de entrada por el sismo Ek= Energía cinética Es= Energía de deformación elástica Ea= Energía de amortiguamiento Ed= Energía de deformación inelástica o ductilidad



METODOLOGÍA

Metodología de la investigación Estudio del estado del arte: Ecuación de movimiento armónico con amortiguamiento Disipación de energía Disipadores viscosos Macheo de acelerogramas Obtención del espectro de diseño símico utilizando el programa SACID de la Ciudad de México. Búsqueda y obtención de 7 acelerogramas de magnitud mayor a 6.5 Diseño de 3 modelos estructurales en el software SAP2000 v22, de 5, 7 y 9 niveles. Revisión de las distorsiones de cada edificio para cada uno de los 7 acelerogramas Diseño del disipador sísmico de fluido viscoso Modelado de los edificios con disipadores en SAP2000 v22 Resultados


CONCLUSIONES

Conclusión Las distorsiones que se presentaron para cada uno de los sismos deben ser controladas por el disipador viscoso que resulte del diseño. Se debe revisar el diseño de los modelos ya que las secciones son robustas. Una vez que tengamos el modelo adecuado se revisarán de nuevo las distorsiones, estas distorsiones deberán ser controladas en un porcentaje por el disipador de fluido viscoso. Las distorsiones obtenidas por medio del análisis dinámico en los modelos, fueron menores a la distorsión máxima que exige la Norma Técnica Complementaria de la Ciudad de México 2017, resultado de un correcto dimensionamiento de las secciones para los elementos estructurales.
Román García María Fernanda, Instituto Politécnico Nacional
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

TRATAMIENTOS COMBINATORIOS BASADOS EN POLíMEROS, NANOPARTíCULAS, NANOCOMPUESTOS Y PéPTIDOS ANTIMICROBIANOS PARA EL COMBATE DE BACTERIAS RESISTENTES A ANTIBIóTICOS.


TRATAMIENTOS COMBINATORIOS BASADOS EN POLíMEROS, NANOPARTíCULAS, NANOCOMPUESTOS Y PéPTIDOS ANTIMICROBIANOS PARA EL COMBATE DE BACTERIAS RESISTENTES A ANTIBIóTICOS.

Román García María Fernanda, Instituto Politécnico Nacional. Ulloa Ramirez Martha, Universidad de Guadalajara. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

En 1928 comienza la era de los antibióticos, gracias al descubrimiento de la penicilina por Alexander Fleming; a pesar de que estos novedosos compuestos ayudaron bastante para frenar el crecimiento de enfermedades e infecciones causadas por bacterias, su uso persistente y su automedicación ha favorecido a que dichas bacterias desarrollen versátiles y sofisticados mecanismos de resistencia contra agentes antibióticos clínicamente esenciales. Esta amenazante realidad deja alrededor de cientos de miles de muertes por año, y de continuar de esa manera, el alarmante pronóstico para el año 2050 es que haya alrededor de 10 millones de muertes por la resistencia bacteriana. En este contexto la Organización Mundial de la Salud (OMS) ha declarado la resistencia bacteriana como un problema de salud pública de interés internacional; dando a conocer en 2017, una lista de patógenos de alta prioridad en la que se destacaban Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa y Enterobacter spp, (ESKAPE). Por esta razón, en la actualidad se ha puesto especial atención en el desarrollo y la investigación de nuevos tratamientos que aporten contra la resistencia a los antibióticos, en este caso, se decidió elaborar un artículo de revisión acerca de los tratamientos combinatorios que hasta el momento se han estudiado y que muestran una alta efectividad contra este problema.



METODOLOGÍA

Para comenzar con la realización del artículo se definieron los temas principales que contendría, iniciando por el planteamiento de una visión general de la resistencia bacteriana y las principales bacterias a combatir, los mecanismos de acción más comunes (modificación enzimática del antibiótico, las alteraciones en la permeabilidad de las membranas, los transportadores de efluentes y la modificación del sitio de unión); las actuales acciones que se han tomado para combatir la resistencia bacteriana y las conclusiones. Posteriormente, se definen cuatro subtemas principales en relación a los tratamientos combinatorios. El primero acerca de la combinación de dos o más antibióticos, el segundo abarca las nuevas estrategias combinatorias, entre los cuáles se definieron como subtemas secundarios los tratamientos con polímeros, tanto naturales como sintéticos; con nanopartículas inorgánicas, principalmente metales; y finalmente híbridos o nanocompuestos de nanopartículas y polímeros. Por último, se plantearon los temas de péptidos antimicrobianos en combinación con antibióticos y nanopartículas. Una vez repartidos los temas a desarrollar, se comenzó la búsqueda de bibliografía principalmente de artículos científicos publicados en revistas indexadas; los cuales se podían encontrar en bases de datos bibliográficos, bibliotecas virtuales y motores de buscadores confiables, como PubMed, Scopus, Wiley, Springer, entre otras. Después de obtener los artículos más relevantes para la investigación, se llevó a cabo la lectura de éstos y la extracción de las ideas principales. Una complicación durante el proceso fue que todas las fuentes bibliográficas se encuentran escritas en inglés, por lo que fue necesario utilizar herramientas de traducción que permitieran una mejor comprensión del texto. Una vez con las ideas principales, se procedió a redactar de manera simple y concisa los resultados más esenciales de los estudios que se realizaron acerca de los temas ya mencionados. Para citar correctamente cada fuente consultada utilizamos el programa Mendeley para recolectar los datos bibliográficos de los artículos consultados y poder agregar esta citas de acuerdo al formato de la revista Frontiers in Microbiology. Además, se tomó en cuenta las cinco estrategias propuestas por la Organización Mundial de la Salud en el plan de acción con respecto a la resistencia antimicrobiana: la optimación de la concientización y comprensión de la resistencia antimicrobiana, el refuerzo de los conocimientos por medio de la visualización e investigación, la reducción la incidencia de infección, la mejora del uso de los agentes antimicrobianos y el garantizar una gestión apropiada y financiación de la innovación en las alternativas terapéuticas.


CONCLUSIONES

Ya que las condiciones sanitarias actuales no permitieron una estancia presencial, los principales conocimientos y resultados obtenidos durante la investigación fueron principalmente teóricos, pues además del tema principal del artículo de revisión, se tuvo acceso a pequeñas clases de los temas relacionados a la línea de investigación y a un curso detallado del proceso de planeación, escritura y publicación de artículos de divulgación científica. La importancia de participar en este tipo de veranos de investigación es justamente el colaborar al desarrollo de la ciencia y la tecnología, además de adentrarnos en una edad temprana a la investigación, así como en este caso por ser de una manera virtual a su redacción. Además, fue una oportunidad para hacer una red de contactos para futuras colaboraciones tanto del área de la investigación como la divulgación científica entre diferentes planteles educativos fuera y dentro del país. Sin embargo, conforme a la transcendencia del artículo de revisión, es significativo mencionar que, con el paso de los años, las problemáticas en el área biomédica y biotecnológica cambian conforme al desarrollo de los nuevos medicamentos, así como su metodología de empleo y es por ello que debemos seguir muy de cerca el progreso e investigación de éstos para poder hacer una predicción de futuros inconvenientes que puedan causar, además de ser una problemática de salud pública de suma importancia para el mundo.
Román Medina María Guadalupe, Universidad Autónoma de Chiapas
Asesor: Mg. Javier Alexander Perez Caicedo, Pontificia Universidad Javeriana

ANáLISIS DE FALLAS EN PAVIMENTO FLEXIBLES POR MEDIO DE VEHíCULOS AéREOS NO TRIPULADOS IMPLEMENTANDO LA METODOLOGíA VIZIR


ANáLISIS DE FALLAS EN PAVIMENTO FLEXIBLES POR MEDIO DE VEHíCULOS AéREOS NO TRIPULADOS IMPLEMENTANDO LA METODOLOGíA VIZIR

Román Medina María Guadalupe, Universidad Autónoma de Chiapas. Asesor: Mg. Javier Alexander Perez Caicedo, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Actualmente se requiere de una infraestructura extensa de red de caminos para poder transportar de manera terrestre personas y mercancía. Hay que mencionar, además que es de suma importancia la conexión entre puertos, aeropuertos y ferrocarriles. Según el Foro económico mundial, mediante informes anuales de competitividad global, evalúa el crecimiento económico de los países teniendo en cuenta la educación, la infraestructura, salud, entorno macroeconómico, tecnología de competitividad. El índice de competitividad Global 4.0, cubre 141 economías, es así que México se encuentra en el lugar 47, donde se compara la competitividad de 141 países y Colombia se encuentra en el lugar 57, definida como el conjunto de instituciones, políticas y factores que determinan el nivel de productividad. Chile ocupa el primer lugar en infraestructura carreteras, por su red de 77.764 kilómetros que incluye 2.387 kilómetros de autopistas, y las buenas condiciones en que las mantiene. En calidad de infraestructura México se encuentra en el lugar 54 de 141 países y Colombia en el lugar 62, Colombia se encuentra en el lugar 35 de 141 países en calidad de carreteras y México se ubica en el lugar 49. Mencionado lo anterior, podemos concluir que la infraestructura y la calidad de carreteras es importante para la productividad de un país. Las carreteras  de un país son uno de los principales ingresos al producto interno bruto, aportan, entre un 15 y 25 %. Los proyectos de infraestructura involucran un monto no negligible de complejidad en su planeación, financiación, construcción operación y mantenimiento, le dice a BBC Mundo Pablo Rodríguez de Almeida, jefe de infraestructura en el Foro Económico Mundial. Por consiguiente, es necesario conservar adecuadamente la infraestructura de las carreteras, con el fin, de conservar y maximizar los beneficios que nos otorga, la calidad de carreteras depende del deterioro en las vías; el deterioro en las vías son causadas por la falta de mantenimiento, Procesos constructivos erróneos, incumplimiento de las especificaciones técnicas de los materiales al momento de la construcción o reparación, entre otros. Los costos de restauración y mantenimiento de carreteras  requieren una inversión alta y continua, dadas las necesidades de infraestructura, de aquí al año 2030 los países desarrollados deben invertir el 3.5% del Producto Interno Bruto (PIB) por año; y los países emergentes, entre el 6 y el 8%; en el caso latinoamericano es de aproximadamente el 5% del PIB según un estudio (Revista Dinero, 2014). Expuesto lo anterior puedo decir que los países cuenten con una red vial de carreteras en excelentes condiciones, para poder contar con calidad en carreteras se debe establecer una metodología que permita la evaluación de carreteras pavimentadas de forma cualitativa y cuantitativa de los deterioros de la red vial. Por todo esto es necesario que cada entidad encargada del mantenimiento de redes viales cuenten con nuevas tecnologías que permitan realizar un inventario de diferentes deterioros que afectan la estructura de pavimentos, así saber la condición en la que se encuentra y así están entidades podrán saber que método de reparación aplicar. Para lograr este objetivo las instituciones se pueden apoyar de nuevas tecnologías como son los vehículos aéreos no tripulados (VANTs), se han ido introduciendo en varios campos laborales de la vida diaria, gracias a su gran capacidad de poder volar y proporcionar imágenes que llenan la brecha entre las imágenes costosas dependientes de la meteorología  y baja resolución de satélites. Se propone la alternativa de evaluación de pavimento por medio del método VIZIR, con ayuda de los VANTs  y la fotogrametría, podemos lograr la apreciación de tramos de pavimentos a evaluar con una calidad de apreciación y precisión excelentes.



METODOLOGÍA

Recolección de datos en campo la cual se hizo de la siguiente manera: Se seleccionó el tramo vial de prueba, en este caso los tramos seleccionados fueron de Cali, Colombia  los cuales se obtuvieron por medio del Investigador Peréz Caicedo Javier Alexander. Se realizó un vuelo aéreo con VANTS, se obtuvieron imágenes las que fueron procesadas a través del SOFTWARE PIX 4D. Después de obtener el modelo tridimensional procesado se hizo la visualización en el software Acute 3D. Continuamos realizando un inventario de fallas que se encontraban en la vía con la que se trabajó, se realizó una matriz de fallas en las que se agregaron áreas y longitudes que se midieron con el software Acute3D, posteriormente se indicó la gravedad de cada falla de acuerdo al manual INVIAS, el cual indica que la gravedad de cada  1 indica condición buena, condición regular y 3 condición mala. El método comenzaba obteniendo el índice de fisurasion y posteriormente el índice de deformación, después de obtener estos dos valores encontramos el índice de deterioro superficial. Como resultado se obtuvo la condición estructural del pavimento la cual obtuvo un índice de deterioro superficial de 8 que representa una condición mala. Esto fue plasmado en un formato de método VIZIR realizado por la MI. Diana Marcela Ortega Rengifo.    


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la metodología VIZIR, manejo de drones, software de modelos tridimensionales, identificación de fallas en pavimentos, entre otros; estos conocimientos adquiridos fueron llevados a práctica con técnicas de análisis, al ser un trabajo extenso aún se va a llevar a cabo la revisión de más tramos de pavimentos, así poder exponer la implementación de estas tecnologías. Se espera que la metodología propuesta sea empleada en varias instancias para el mantenimiento de carreteras.
Romero Calixto Giselle Joseline, Instituto Tecnológico de Tláhuac
Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México

TRAZABILIDAD DE LA INFORMACIóN SOPORTADA POR BLOCKCHAIN


TRAZABILIDAD DE LA INFORMACIóN SOPORTADA POR BLOCKCHAIN

Romero Calixto Giselle Joseline, Instituto Tecnológico de Tláhuac. Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Actualmente en la vida cotidiana ocupamos la tecnología para la mayor parte de las cosas que realizamos, tramites, permisos, pagos, recibos, la implementación de estas herramientas a nuestra vida diaria es de gran utilidad en México, poco a poco esta demanda ha ido creciendo de manera exponencial, además de que nos brinda comodidad y seguridad. Es necesario tener un control de la información y poder saber la trazabilidad de esta, esto es crucial ya que la información es de gran poder para la mayoría de las empresas públicas y privadas del país. 



METODOLOGÍA

Inicialmente se realizó el estudio del estado del arte, sobre criptografía y seguridad, así como temas del marco teórico (Blockchain, Trazabilidad de la información, Bitcoin y Cadena de Hashes) esto con la finalidad de conocer ampliamente el problema a resolver y tener un panorama completo del tema. Así como la lectura de libros y artículos. Se realizó la documentación y resúmenes correspondientes para poder sistematizar la información de manera correcta y dar seguimiento a la investigación, con la finalidad de realizar un artículo.


CONCLUSIONES

Dentro de la estancia se lograron adquirir conocimientos teóricos sobre Blockchain en México, para poder sentar bases sólidas para implementar algoritmos que ayuden a verificar el seguimiento de documentos de suma importancia y con carga de datos personales. Teniendo como objetivo terminar dicho artículo de investigación.
Romero Caratachea Mariana, Universidad Politécnica de Tecámac
Asesor: Mtra. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac

DISEñO E IMPLEMENTACIóN DE APLICACIóN CLIENTE SERVIDOR CON PHP PARA EVENTOS ACADéMICOS. CASO UPTECáMAC


DISEñO E IMPLEMENTACIóN DE APLICACIóN CLIENTE SERVIDOR CON PHP PARA EVENTOS ACADéMICOS. CASO UPTECáMAC

Almaraz Becerra Isai, Universidad Politécnica de Tecámac. Flores Torres Karime Vianey Morelia, Universidad Politécnica de Tecámac. Mondragon Hernandez David, Universidad Politécnica de Tecámac. Romero Caratachea Mariana, Universidad Politécnica de Tecámac. Asesor: Mtra. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Las grandes instituciones cuentan con una infraestructura tecnológica que soporta todas las actividades operacionales y administrativas por ende la Universidad Politécnica de Tecámac al ser una institución en constante crecimiento pretende mediante una plataforma tecnológica optimizar sus procesos administrativos relacionados con la feria académica.  El proceso de registro a este evento dentro de la institución actualmente en su mayor parte se realiza a mano con el auxilio del software de hoja de cálculo como lo es Excel para el seguimiento de los equipos, el tipo de proyecto, su lugar asignado, entre otras cosas; y la herramienta de formularios de Google. La asignación de los profesores para la evaluación de proyectos resulta ser tediosa para los PTC (Profesores de Tiempo Completo) dentro de la institución siendo los únicos capaces de cumplir esta tarea muchas veces no se les notifica sobre su papel de evaluadores dentro de la feria académica lo que causa conflicto puesto que proyecto queda sin evaluación, aquí es donde el factor humano complica las cosas estando siempre propenso a equivocaciones poniendo en riesgo toda la organización el evento.   



METODOLOGÍA

La metodología propuesta es Scrum, la cual destaca que es un desarrollo incremental en lugar de la clásica planificación del desarrollo completo de un producto o servicio. Los equipos Scrum se caracterizan por ser auto-organizados. Y se centra en el producto final, en la calidad del mismo, siendo así que cada integrante del equipo o responsables de sus roles, pueda adaptarse con independencia y trabajar simultáneamente. Fases en las que se divide el proceso: Se desea lograr el óptimo desarrollo de una aplicación web que ayudará a simplificar y agilizar el proceso de registro de estudiantes para la feria académica, la cual se y tiene ubicación en la Universidad Politécnica de Tecámac a través del siguiente contenido: El proyecto tiene lugar de desarrollo dentro de la Universidad Politécnica de Tecámac, siendo así, el equipo de trabajo tiene un asesor empresario asignado, quien dictamina los requerimientos para la aplicación. Es necesario precisar que el plazo de término del desarrollo de software será el 29 de Julio, gracias al cronograma establecido, es más sencillo llevar cabo cada proceso y terminarlo en las fechas estipuladas. El contenido del desarrollo se presenta de la siguiente manera: Primero se planea una reunión con el asesor académico, quien es el profesor que da un panorama general del funcionamiento de los procesos que se llevan a cabo de forma manual desde el registro de los estudiantes hasta la asignación de docentes que serán los evaluadores y estimación de resultados. Luego, para es necesario tomar en cuenta los roles estipulados anteriormente para comenzar con el diseño de las vistas y su respectivo funcionamiento. Posteriormente, según el entorno de trabajo con el que se trabaje, se desarrolla todo lo relacionado con el código, elección de paradigma a usar e implementación a las vistas. Como se dijo con anterioridad, el framework propuesto para este proyecto es Laravel y con el enfoque a modelo vista controlador, empleando el lenguaje de programación php y el sistema de plantillas del mismo framework para generar HTML. Una vez terminada la fase de codificación, será necesario realizar las pruebas de todas las vistas para dar un panorama general de cómo es que funciona todo el sistema y asegurar que tanto cada una de ellas y sus funciones trabajen respectivamente a los requerimientos de los usuarios. La planificación de dicho proyecto tuvo inicio en mayo de 2020, según a lo correspondido en el cronograma, se debe iniciar con el mockup de la aplicación, un bosquejo de cómo se muestran las vistas y lo que deberá contener cada una de ellas. Para posteriormente, comenzar con el proceso de codificación con ayuda del lenguaje de programación PHP y Laravel Framework, con un estimado de entregar vistas generales y funcionamiento en el mes de junio. Fases La reunión principal con el asesor empresarial (primer sprint) en la que se tiene asistencia previamente para la explicación y levantamiento de requerimientos, expresar todas las dudas existentes acerca del funcionamiento de cada proceso, esto ayuda a que se pueda realizar el bosquejo de las vistas que se obtendrán.  En cuanto a la base de datos, con anterioridad ya se había trabajado en su creación y análisis, ya que el desarrollo de este sistema se había quedado pendiente y no se había reanudado.  Para las revisiones en cuanto al código, estás se realizan cada veinticuatro horas. Esto hará que el proceso de prueba sea más eficiente y evitar en la medida de los posible tener errores (sintaxis, enlazado, ejecución y lógicos) Los sprints correspondientes que se establecieron son cada mes, estas reuniones con el usuario final tendrán como objetivo que se revise el avance del desarrollo y que el mismo pueda visualizar el funcionamiento de cada proceso y dictaminar su conformidad a los aspectos previamente expuestos. Finalmente, una vez terminado el desarrollo de la aplicación web, será necesario mantener el sistema e incluso implementar mejoras, ya que según lo mencionado estará sujeto a cambios por autoridades superiores, en el sentido de que se añadirán más categorías de evaluación.


CONCLUSIONES

El proyecto de investigación realizado pudo solucionar la problemática que se tenía respecto a los eventos académicos, en específico de la Feria Académica que se lleva a cabo en la Universidad Politécnica de Tecámac, ya que se logró agilizar y automatizar los procesos que se llevan a cabo, partiendo desde el registro de los proyectos del alumnado participante hasta la evaluación de estos, en una plataforma por medio de una aplicación web. Guiándonos con nuestro método, y respectiva metodología realizamos los estudios pertinentes para visualizar la problemática desde diferentes perspectivas y de ese modo abarcar totalmente una solución integral. Con los buenos resultados que obtuvo el proyecto, nos percatamos de que tiene la posibilidad de a futuro convertirlo en una plataforma para otras actividades escolares, ya sean culturales, ambientales o de otra índole.
Romero Mora Miguel Ángel, Universidad Santo Tomás
Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales

ANáLISIS ESPACIO-TEMPORAL DEL POTENCIAL DE INSTALACIóN DE SISTEMAS DE ENERGíA SOLAR FOTOVOLTAICA EN LOS DEPARTAMENTOS DE CALDAS Y VALLE DEL CAUCA, COLOMBIA.


ANáLISIS ESPACIO-TEMPORAL DEL POTENCIAL DE INSTALACIóN DE SISTEMAS DE ENERGíA SOLAR FOTOVOLTAICA EN LOS DEPARTAMENTOS DE CALDAS Y VALLE DEL CAUCA, COLOMBIA.

Romero Mora Miguel Ángel, Universidad Santo Tomás. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de las energías renovables en Colombia ha venido avanzando de manera significativa en los últimos años. Sin embargo, existe una dependencia mayoritaria y estricta de las energías convencionales, que se caracterizan por generar un impacto ambiental elevado y propiciar las condiciones para que el cambio climático siga produciendo efectos negativos a nivel mundial. El 80% de la energía que se consume en Colombia proviene de la extracción y procesamiento del petróleo y sus derivados, en contraposición con la energía de origen renovable, que no supera el 3% de participación en la matriz energética nacional. Sin duda, el fomento de iniciativas y proyectos relacionados con las energías renovables, particularmente la energía solar fotovoltaica, traería enormes beneficios económicos, ambientales y sociales.  La excelente posición geográfica de Colombia, hace que tenga las condiciones climáticas para llevar a cabo la instalación de sistemas de energía solar fotovoltaica. Gran parte del territorio cuenta con un potencial considerable y, particularmente los departamentos de Caldas y Valle del Cauca, se caracterizan por tener niveles elevados de radiación y brillo solar, pero el avance en los proyectos de evaluación de la instalación y operación de sistemas fotovoltaicos es mediano. Por tanto, el desarrollo del presente proyecto plantea la identificación de las zonas de los departamentos analizados con el mayor potencial de instalación de energía solar fotovoltaica, la estimación de la energía que se podría generar mes a mes y la incidencia de la temperatura en el rendimiento de los sistemas, con el fin de contribuir no solo a la identificación de las zonas, sino a generar conocimiento en este tipo de energías y contribuir al cumplimiento de los Objetivos de Desarrollo Sostenible.   



METODOLOGÍA

Se llevó a cabo un análisis espacio-temporal de la instalación de sistemas de energía solar fotovoltaica usando Sistemas de Información Geográfica para determinar el comportamiento y la distribución de las variables que más influyen en el proceso. Para tal fin se recolectó la información del Instituto de Hidrología, Meteorología y Estudios Ambientales, (IDEAM), así como del Atlas Global de Radiación y los modelos digitales de elevación de terreno del Servicio Geológico de los Estados Unidos. Con la ejecución de diversos geoprocesos, se elaboró la cartografía que permitió identificar las zonas de los departamentos con el mayor potencial, y se estimó la energía que se podría obtener derivada de la instalación sistemas fotovoltaicos. 


CONCLUSIONES

El desarrollo de este tipo de investigación es fundamental para contribuir no solo con la identificación de las zonas que cuentan con el mayor potencial para la energía solar fotovoltaica, sino que además, se convierte en una herramienta que permite dinamizar los territorios y generar iniciativas que se acoplan al cumplimiento de los Objetivos de Desarrollo Sostenible.  Durante la estancia, se logró la apropiación de una gran cantidad de conocimientos, y ya que el tema es muy amplío, se puede desarrollar más a profundidad con datos de mediciones específicas en lugares previamente escogidos, para evaluar de la manera más adecuada y correcta, el rendimiento de los sistemas de energía solar fotovoltaica.
Romero Reyes Luisa Fernanda, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Post-doc Juan Camilo Ramírez Idárraga, Universidad Antonio Nariño

MACHINE LEARNING


MACHINE LEARNING

Romero Reyes Luisa Fernanda, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Post-doc Juan Camilo Ramírez Idárraga, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

La insuficiencia cardíaca es el estado en el que los músculos de la pared cardíaca se debilitan y agrandan, lo que limita el bombeo de sangre del corazón. Los ventrículos del corazón pueden volverse inflexibles y no llenarse adecuadamente entre latidos. Con el paso del tiempo, el corazón deja de satisfacer la demanda adecuada de sangre en el cuerpo y, como consecuencia, la persona comienza a sentir dificultad para respirar. Con base a un caso de estudio, el cual estaba centrado en el análisis de pacientes con insuficiencia cardiaca el cual estima la tasa de mortalidad de estos pacientes con base en ciertos factores de riesgo tales como plaquetas, creatinina, fosfoquinasa, anemia, presión arterial, diabetes, tabaquismo, solo por mencionar algunos. Entonces, en el tiempo del verano de investigación se pretendía generar algunos modelos de aprendizaje automático que ayudarán a predecir si algún paciente con insuficiencia cardiaca podría agregarse a la tasa de mortalidad, así como evaluar los diferentes modelos para ver si se podrían mejores resultados que los del propio estudio.



METODOLOGÍA

Para desarrollar dichos modelos se requería contar con un archivo .csv el cual contendía a los 300 pacientes con sus variables de entrada, que sería los factores de riesgo, que servirían para entrenar al modelo y así generar la variable dependiente, que sería si se genera o no el evento de mortalidad. Support Vector Machine es un conjunto de métodos de aprendizaje supervisado que sirve para clasificar, hacer regresiones y detecta valores atípicos, por lo cual era un modelo ideal para hacer nuestra clasificación sobre la mortalidad en los pacientes con insuficiencia cardiaca. Para generar el modelo de SVM se utilizó el lenguaje de programación Python, en el cual se puede trabajar con Scikit-learn que es una biblioteca para el machine learning que incluye el algoritmo de máquinas de vectores de soporte, además que es compatible con otras librerías como NumPy, la cual también fue usada ya que permite un mayor soporte para vectores y matrices. Para la evaluación del modelo se usó ROC-AUC, ROC representa el rendimiento del modelo de clasificación, con dos parámetros: verdaderos positivos y falsos positivos. Para calcular los puntos en la curva ROC, ésta el algoritmo AUC, el cual nos ayuda a medir toda el área debajo de la curva ROC. AUC oscila entre 0 y 1, entre más acercada este la predicción a 1.0 más correcta es. También se usó la métrica F1, la cual calcula el rendimiento del modelo con las medidas de precisión y exhaustividad.


CONCLUSIONES

El objetivo principal no se cumplió ya que solo se logró generar solo un modelo de aprendizaje automático y eso no puedo permitir comparar el resultado con otros métodos, pero durante la estancia me quedo conforme con los conocimientos que adquirí y con ganas de aprender mucho más.
Roque Gutiérrez Ariadna Joselinne, Instituto Tecnológico de Toluca
Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo

CóDIGO QR: INTERACCIóN SOCIAL DIGITAL PARA LA SEGURIDAD SANITARIA DE LOS USUARIOS EN EL EMPORIO TEXTIL DE GAMARRA EN EL DISTRITO DE LA VICTORIA, LIMA – PERú, 2020.


CóDIGO QR: INTERACCIóN SOCIAL DIGITAL PARA LA SEGURIDAD SANITARIA DE LOS USUARIOS EN EL EMPORIO TEXTIL DE GAMARRA EN EL DISTRITO DE LA VICTORIA, LIMA – PERú, 2020.

Hernández Retana Luis Fernando, Instituto Tecnológico de Toluca. Roque Gutiérrez Ariadna Joselinne, Instituto Tecnológico de Toluca. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo



PLANTEAMIENTO DEL PROBLEMA

Gamarra es considerado el emporio comercial textil más grande de Latinoamérica, dado que recibe entre 300 y 500 mil clientes por día (INEI, 2019) según la publicación Características de las Empresas del Emporio Comercial de Gamarra. Además, Gamarra, cuenta con más de 5000 edificios o predios divididos por galerías y actualmente con la pandemia del COVID 19, el departamento de Lima Perú cuenta con aproximadamente 167,571 contagios, siendo Gamarra el segundo paradero más vulnerable para la transmisión de COVID-19, con un porcentaje del 25.33% en casos positivos. Con ello, la problemática que se visualizó es que cuando una persona visita Gamarra, tiene que entrar a las galerías, caminar de un lado a otro hasta encontrar los productos que necesita, por lo que actualmente con la pandemia, se convierte en uno de los focos de infección ya que existe una alta densidad de usuarios afectando así en el cumplimiento de protocolos, entre más tiempo pasen los usuarios en Gamarra, existe más probabilidad de contagio. Además, en dicho tiempo de estadía conlleva a las personas a buscar una fuente de alimentación dentro de las calles de Gamarra, ya sea en puestos ambulantes o en restaurantes, donde cientos de personas podrían tocar el mismo menú que sería pasado de comensal en comensal y sin tener el conocimiento de si se están siguiendo las medidas sanitarias necesarias para salvaguardar la integridad de los clientes.



METODOLOGÍA

El proyecto que se presentó es una aplicación móvil de realidad aumentada, donde el usuario al visitar Gamarra enfoca un código QR establecido en una calle, avenida o edificio y la app muestra información específica de las tiendas (nombre, artículos que vende, rangos de precio) ayudando a realizar de manera rápida sus compras, yendo al lugar específico y su tiempo de visita en Gamarra no sea prolongada. La investigación está basada en la metodología cuantitativa, detectando el porcentaje de personas con celular y accesibilidad a internet, teniendo como resultado que el 82% de la población peruana de más de 6 años tiene un teléfono móvil con WiFi, según el informe del Instituto Nacional de Estadística e Informática (INEI) elaborado en base a la Encuesta Nacional de Hogares (ENAHO) del 4° trimestre del 2018 en el Perú. Con esto tenemos claro que la mayoría de la población tiene acceso seguro a un smartphone reduciendo uno de los mayores riesgos del proyecto, el cual es que una persona no tuviera celular pues es la principal herramienta para poner en práctica el proyecto, se espera que la aplicación pueda trabajar sin internet teniendo un base de datos interna. Con los datos que nos han sido proporcionados tanto de los residentes de la Ciudad de Lima como los obtenidos en la investigación, sabemos que existen varios establecimientos registrados que se dedican al sector alimenticio, restaurantes y fondas, sin embargo también existe un alto número de vendedores ambulantes, por lo que es alta probabilidad de contagio de manera indirecta, al tocar superficies contaminadas como menús o cartas de los establecimientos, las investigaciones e información difundida indican que una superficie puede permanecer contaminada hasta por 9 días si no se hace su correcta desinfección y dada la concurrencia de personas en Gamarra se duda de la desinfección posterior a cada uso de las cartas o menús, por ello también se la app escanea otros códigos QR posicionados en las mesas de los restaurantes para evitar el contacto directo con los menús y ayudar a la disminución del uso de papelería por parte de los negocios pues al actualizar los menús bastaría con cambiar el menú en la app lo que evitaría gastos a largo plazo en papelería. Se plantea en un futuro realizar la solicitud de orden de comida y el pago de esta mediante la misma app para así disminuir la exposición de las personas a superficies contaminadas y a personas sospechosas de contagio. Aunado a esto el brindar dichos servicios hará que internamente se pueda llevar el registro de varios aspectos sanitarios, esto logrado con la recopilación de la metadata que cada usuario proporcione a la app mediante el uso de la misma, dentro de los parámetros que se obtendrán estará el seguimiento de personas y registro de concurrencia en los restaurantes con lo que se podrá mantener un registro de las personas que se encuentran en un mismo establecimiento y al compararlo con el aforo del mismo se pueda mandar alertas a las autoridades de si en algún lugar no hacen cumplimiento de las medidas sanitarias, la aplicación al recabar estos datos podrá dar un panorama de cuántas personas asisten diariamente a cada establecimiento de comida para tener un control de la aglomeración de las personas.


CONCLUSIONES

Una vez realizadas las investigaciones pertinentes y en base a los resultados, se considera que el proyecto es factible de realizar, esto porque actualmente vivimos en un mundo amenazado por el COVID-19, por ello se optó por sacar provecho de todos los servicios, como tecnológicos y móviles, ya que como se sabe, la aplicación móvil evitará que la gente que visite Gamarra pase demasiado tiempo ahí y así tratar de evitar más la propagación o contagio del virus, si bien la aplicación es básica se espera que en algún momento pueda volverse más dinámica y divertida para los usuarios. Además, ofrece una nueva manera de interactuar entre los restaurantes y los comensales para incorporarse a la nueva normalidad, se optó por dicha modalidad ya que el uso de smartphones cada día es más habitual entre los habitantes de Gamarra, por ello hace que el uso de dispositivos móviles y aplicaciones digitales sea la opción idónea para dar solución a la mayoría de las problemáticas por las cuales pasa hoy en día el emporio Textil de Gamarra. El trabajar con colegas de diferentes áreas ayuda a vislumbrar un contexto panorámico de las problemáticas y las posibles soluciones el cual se vio plasmado con las propuestas conjuntas realizadas en el verano de investigación científica y tecnológica. Finalmente podemos mencionar que pueden existir maneras para implementar gráficamente el código QR.
Rosas Benigno Liseth, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Carlos Alirio Díaz González, Universidad Autónoma de Bucaramanga

ESTUDIO PARAMéTRICO DE LA GASIFICACIóN DEL CUESCO DE LA PALMA MEDIANTE EL SOFTWARE ASPEN PLUS


ESTUDIO PARAMéTRICO DE LA GASIFICACIóN DEL CUESCO DE LA PALMA MEDIANTE EL SOFTWARE ASPEN PLUS

Rosas Benigno Liseth, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Carlos Alirio Díaz González, Universidad Autónoma de Bucaramanga



PLANTEAMIENTO DEL PROBLEMA

En el departamento de Santander, Bucaramanga asi como los otros departamentos de la region de Colombia se presenta la problemática de la disposición de los residuos obtenidos en todo el proceso productivo y a la disminución de gases de efecto invernadero provenientes de los mismo, es por ello que se busca una alternativa para el aprovechamiento estos residuos orgánicos para la obtención de un combustible y que por medio de este combustible reemplace al carbon de baja calidad que se emplean en los departamentos de la region de Colombia y con el uso de este residuo generado por la agroindustria se utilice como biomasa para la gasificación y obtención del SYNGAS.



METODOLOGÍA

Realizar una revisión bibliografica y detallada de las propiedades físico químicas del cuesco de palma de aceite, teniendo en cuenta las etapas de la gasificación y los parámetros de operación. Posteriormente se tendrá la ejecución de la simulación en el software Aspen Plus con las condiciones de funcionamiento y las reacciones para cada proceso. Finalmente se muestran los resultados obtenidos, teniendo en cuenta el análisis de los criterios de comparación entre los indicadores que fueron obtenidos para poder determinar las características y condiciones adecuadas del proceso de gasificacion del cuesco de palma de aceite.


CONCLUSIONES

En este estudio Paramétrico de la gasificación del cuesco de la palma de aceite mediante el Software Aspen Plus, se verificaron los escenarios para la producción del SYNGAS y se demostró que a mayor temperatura mayor será la composición del gas y que a menor temperatura será menor la composición del SYNGAS, tambien se demostró que el cuesco de la palma aceite es una de las alternativas por las cuales se puede reemplazar el carbón de baja calidad de este departamento con el uso de este residuo orgánico para su aprovechamiento y obtención de SYNGAS, es una forma a la contribución de comunidades sostenibles sin afectar al medio ambiente dándole un segundo uso a estos residuos orgánicos generados por las actividades de la agroindustria. También cabe resaltar en esta investigación que si influye los factores de la producción del SYNGAS son factores muy determinantes en este caso la temperatura y el agente gasificante serán los más primordiales que afectan al proceso y contemplar la velocidad de la reacción, como es el consumo de reactivos para la producción productos.
Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora

APLICACIóN DE UN DISEñO INSTRUCCIONAL BASADO EN UN MODELO CONSTRUCTIVISTA QUE MEJORE EL RENDIMIENTO ACADéMICO EN EL TECNOLóGICO DE ZAMORA


APLICACIóN DE UN DISEñO INSTRUCCIONAL BASADO EN UN MODELO CONSTRUCTIVISTA QUE MEJORE EL RENDIMIENTO ACADéMICO EN EL TECNOLóGICO DE ZAMORA

Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán. Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán. Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán. Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Hoy en día los avances en la tecnología de la comunicación han producido cambios muy significativos en la educación tradicional. Un gran número de instituciones educativas están ofreciendo aprendizaje a distancia o virtual a través del internet. Ahora estos docentes se enfrentan con el reto de cambiar el diseño instruccional tradicional para que sus cursos sean efectivos en línea. En el Instituto Tecnológico de Estudios Superiores de Zamora, normalmente cada docente tiene sus propios cursos en diversas plataformas virtuales, sin embargo, no se cuenta con un diseño instruccional que permita estandarizar las actividades que se pretenden y que el curso contenga todo lo necesario para que el estudiante aprenda. Los cursos no presentan el uso de diferentes actividades que proporciona la plataforma utilizada. Las reducidas actividades que actualmente proporcionan los profesores de estos cursos virtuales no promueven la característica principal del constructivismo social que es la de relacionarse socialmente para aprender. Esto a pesar de que el modelo educativo basado en competencias se fundamenta en la teoría constructivista.



METODOLOGÍA

Esta investigación es de tipo experimental. El proceso secuencial se efectuaría de la siguiente manera: Investigación documental. Técnicas de investigación de campo. Recopilación de la información. Análisis de la información obtenida. Interpretación de la información obtenida. Conclusiones y recomendaciones. Definir los resultados obtenidos. Determinar las causas y los efectos de dichos resultados. Precisar la alternativa más conveniente. Reporte final de investigación. Metas: A corto plazo se pretende aplicar el diseño instruccional en una clase con un grupo ya formado para llevarlo a cabo como una prueba piloto, se presentará al estudiante los temas y subtemas que contiene alguna unidad y se describirá la importancia de la misma. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. A mediano plazo se implementará en una materia completa, en donde cada unidad contenga todos los elementos del diseño instruccional constructivista. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. A largo plazo se implementará en una carrera, en donde todas las asignaturas cuenten con el diseño instruccional constructivista, de igual forma se emplea con los anteriores, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir. Finalmente, se incluirá, cómo se llevaron a cabo las actividades de aprendizaje, Éstas se realizarán a través de las actividades que proporciona Moodle como son: wikis, diario, glosario, cuestionario, encuesta, tareas, foros, crucigramas y chat. 


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos acerca del diseño instruccional basado en un modelo constructivista y poner en práctica esos conocimientos tomando el rol de profesores, donde nos dimos cuenta que la labor de un docente no es nada fácil, tienen que pasar por una etapa de organización demasiado detallada para que todo cuadre a lo largo de lo que se imparte la materia, además de cumplir con los objetivos de la asignatura a base de las actividades que se van dejando. También aprendimos a utilizar las plataformas virtuales con Sway, para apoyarnos en presentaciones dinámicas y Educaplay para actividades interactivas. ---Andrea Guadalupe Rosas Miranda   La educación en línea tomó por sorpresa a muchos, pensando en esto, se realizó una plantilla de diseño instruccional constructivista, la cual, estandariza la manera en la que el docente impartiría sus clases, es importante que los estudiantes se instruyan de manera efectiva y dinámica, estimulándolos a la investigación, proporcionándoles la inquietud y el interés por aprender cosas nuevas, por lo que se propusieron actividades de aprendizaje con distintas plataformas virtuales, entre ellas: Moodle, Genially, Sway, Visual Paradigm, Educaplay, Zoom, Meet Google, entre otras. Algunos docentes todavía son tradicionales en su forma de enseñanza y como estudiantes, a veces no nos percatamos del esfuerzo y dedicación de nuestros profesores, el tomar el papel de docente en esta investigación nos hizo valorar aún más dicha profesión, que dicta de la paciencia y el entusiasmo de enseñar. ---María José Carrillo Núñez   Mi participación en el programa Delfín, sin duda alguna fue de las mejores experiencias que he tenido, porque he aprendido a trabajar en equipo de una mejor manera. Los conocimientos que adquirí fue el trabajar mediante un modelo constructivista para acoplar una página, en la cual los estudiantes puedan tomar clases de manera virtual, de forma más sencilla, ordenada y didáctica. Sin dejar de lado la experiencia de trabajar de manera virtual en el desarrollo de este proyecto, ya que fue un verdadero reto, debido a que se presentaron muchos inconvenientes como fallas con el internet, entre otras cosas, que hicieron un poco más complicado el desarrollo del proyecto, aunque no imposible. ---Verónica Guadalupe Martínez Mora   Jamás tuve experiencia relacionada con elaborar contenido educativo en las ya conocidas plataformas virtuales, como estudiante únicamente estaba del lado de tener que introducirme a nuevas plataformas. Realizando mi estancia me percaté que tenía que utilizar un lenguaje para el desarrollo de páginas web; que es una asignatura que vi en mi carrera. Comprendí que ser docente no es simple, que con los límites que nos impidan asistir a la escuela, aún así, los docentes tienen que adaptarse y aprender a utilizar estas tecnologías para seguir enseñándole a sus alumnos. Mi punto de vista sobre las plataformas virtuales y el docente cambiaron considerablemente, fue algo que admiré mucho y que estaría dispuesto a hacer si en algún momento a mí también me toca compartir mis conocimientos. ---Fermín Lara Chávez      
Rosas Rojas Lisset, Universidad Mexiquense del Bicentenario
Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

SUSTENTABILIDAD EN LAS CADENAS DE SUMINISTRO, Y LAS áREAS DE OPORTUNIDAD ENTRE LOS SECTORES.


SUSTENTABILIDAD EN LAS CADENAS DE SUMINISTRO, Y LAS áREAS DE OPORTUNIDAD ENTRE LOS SECTORES.

Galindo Somoza Oscar Jesús, Universidad Politécnica de Sinaloa. Rosas Rojas Lisset, Universidad Mexiquense del Bicentenario. Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La problemática de estudio se centró en conocer los conceptos y beneficios inmersos en las cadenas de suministro sustentables y el modelo de la manufactura circular, para conocer su difusión y aplicación en el sector industrial y encontrar las brechas entre las prácticas actuales a nivel Nacional e Internacional.



METODOLOGÍA

La metodología es de tipo cualitativa, ya que la intención fue conocer los conceptos y beneficios de sustentabilidad en las cadenas de valor y la manufactura circular. Contiene una revisión de 50 marcos teóricos de artículos científicos sobre los conceptos relacionados a la sustentabilidad y a la manufactura circular. Como caso de estudio se eligió el sector automotriz por ser la actividad económica inmersa en la Región de la investigación. El objetivo se centró en realizar un cuadro descriptivo comparativo sobre las prácticas sustentables y detectar las áreas de oportunidad, asimismo señalar las diferencias para efectuar una manufactura circular como modelo de negocio actual de las empresas y como estrategia de competitividad en la operación de las cadenas de suministro.


CONCLUSIONES

Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de sustentabilidad del sector industrial automotriz a nivel Nacional e Internacional. Asimismo, se identificó el papel de cada actor de la cadena de suministro para implementar las acciones sustentables, y se realizó un rediseño a un instrumento previo estándar. Existe gran brecha entre la sustentabilidad de las cadenas y la manufactura circular. Los procesos industriales actuales, en su mayoría, adoptan un modelo lineal basado en la extracción de materiales, su transformación, su uso y su eliminación. Se encuentra descuidada la evaluación sobre el uso racional de los recursos, más aún la valoración del reúso de materiales que pueden ser funcionales para la elaboración de nuevos productos. Este modelo de producción, genera altas pérdidas económicas, por la alta generación de residuos, lo que impide una reincorporación de componentes o materiales que todavía tienen valor en la transformación de productos con valor comercial. Por lo que, resulta crucial acelerar la transición hacia la economía circular, aprovechar los factores económicos, tecnológicos y sociales para migrar el sistema lineal actual de producción.
Rufino Nicolás Estefania, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Mg. Samir Isaac Meramo Hurtado, Fundación Universitaria Colombo Internacional

OPTIMIZACIóN DE CADENAS DE SUMINISTRO DE BIOCOMBUSTIBLES EN MéXICO


OPTIMIZACIóN DE CADENAS DE SUMINISTRO DE BIOCOMBUSTIBLES EN MéXICO

Angeles Jose Norma Lilia, Tecnológico de Estudios Superiores de Jocotitlán. Rufino Nicolás Estefania, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Samir Isaac Meramo Hurtado, Fundación Universitaria Colombo Internacional



PLANTEAMIENTO DEL PROBLEMA

En México la mitad del consumo de energía lo hace el sector autotransporte, a diferencia de otros países, eso significa que una tercera parte de las emisiones de gases efecto invernadero en el país, provienen del sector autotransporte. Este sector abarca vehículos que usan gasolina y diésel. Actualmente en México se encuentran algunas plantas dedicadas a biocombustibles esto debido a que la producción del biodiesel no es una tarea fácil pues se han llegado a cerrar 3 plantas que estuvieron en proceso de instalaciones, una de las principales causas de estas clausuras ha sido la escasez del producto. Aunado la importancia que tiene el cambio climático ya que ha jugado un rol importante en la actualidad, una vez más se demuestra que podemos tomar el lado positivo para aprovechar los recursos que tenemos a nuestro alcance y convertirlos sin afectar el medio ambiente. Por esta razón se busca optimizar en gran medida los costos que intervienen en la cadena de suministro de los biocombustibles, reducir el nivel de gases efecto invernadero derivado de este proceso y considerar otras vías de distribución de los biocombustibles.



METODOLOGÍA

En este trabajo se plantea una optimización de la cadena de suministro de los biocombustibles considerando aspectos de sostenibilidad, mediante la identificación de la situación actual del tema en México, con el objetivo de crear un modelo matemático que permita la optimización de las cadenas de suministro de biocombustibles en el país. Para ello, se realiza un diagnostico de la situación actual de los biocombustibles en México, para identificar las plantas que se encuentran en funcionamiento, la producción anual y como se maneja la cadena de suministro. Con base a esto se realiza una delimitación del estado (caso de estudio) para futura aplicación, considerando el nivel de producción. Se estudiaron los diferentes tipos de costos que son aplicables y el análisis del ciclo de vida para identificar los efectos ambientales en las diferentes etapas de la cadena de suministro. Finalmente se realiza una aproximación matemática del modelo de optimización con datos variables y fijos (nivel de impacto en el medio ambiente, emisiones de efectos invernadero y los costos).


CONCLUSIONES

Con la metodología aplicada en las plantas seleccionadas se espera: Minimizar los costos de materia prima, producción y transporte Reducir los niveles de impacto en el medio ambiente y el porcentaje de gases de efecto invernadero. Reactivar e incrementar la producción de biocombustibles en México considerando aspectos de sostenibilidad.
Ruiz Enriquez Daniel, Universidad de Guadalajara
Asesor: M.C. Nancy Aguas García, Universidad del Caribe

SISTEMA DE ABASTO IMSS


SISTEMA DE ABASTO IMSS

Galeano Ospino Saray, Universidad de Medellín. Ruiz Enriquez Daniel, Universidad de Guadalajara. Asesor: M.C. Nancy Aguas García, Universidad del Caribe



PLANTEAMIENTO DEL PROBLEMA

En el Hospital de Gineco Pediatría No. 7 de la Delegación Quintana Roo se llevan a cabo diversos procesos para proveer consumibles e insumos a los usuarios a través del departamento de abasto.  Actualmente, se surten los insumos de manera periódica conforme a lo programado por las áreas y se sigue un procedimiento para la compra emergente de bienes de consumo en las Unidades Médicas, mismo que se realiza de forma manual con apoyo de algunos formatos elaborados en herramientas ofimáticas. Debido a la atención que se tiene en el hospital, diariamente se solicitan insumos de diversas áreas de la unidad, para ello se sigue el procedimiento de solicitud que suele ser tardado y requiere llenar muchos documentos, en algunas ocasiones a pesar de hacer todo el procedimiento existe la negativa de abasto debido a la falta de existencia en el almacén.  Se realiza entonces el proceso de compra, el cual dependiendo del tipo de insumo o consumible y del proveedor, tendrá un tiempo de respuesta variable. Esta compra emergente se presenta con frecuencia debido a que no existe un adecuado proceso de programación y por ende el impacto en las unidades es grande pues afecta directamente a los derechohabientes del hospital. Se propone el desarrollo de una aplicación web tanto para la gestión de solicitudes por parte del usuario hacia la jefatura del departamento de abastos, como para el manejo del inventario por la misma jefatura de abastos; las personas involucradas en el proceso de abasto tendrán acceso personal a un perfil propio, adaptando las funciones a cada uno de ellos. La primera parte, que es la gestión de las solicitudes, permitirá tanto generarlas como dar seguimiento a las mismas, pasando por cada uno de los roles involucrados manteniendo una secuencia conforme al proceso actual, añadiendo también la función de firma digital. El manejo de inventario, que sería exclusivo de la jefatura de abastos, tendrá diferentes funciones, entre ellas: consulta de información y stock de los insumos, gestión de los datos de los insumos, registro de nuevas compras, sistema de alertas de productos a punto de agotarse, y un dashboard.



METODOLOGÍA

Objetivo General Construir un prototipo de plataforma basada en los principales elementos de un sistema de abasto. Objetivos Específicos Identificar el conjunto de elementos que hacen parte de un sistema de abastecimiento. Definir la metodología para la construcción de un prototipo. Diseñar un prototipo que integre los principales elementos de un sistema de abastecimiento. La metodología con la que se llevó a cabo este proyecto fue Design Thinking [8], gracias a que nos ayuda no sólo a definir o desarrollar el proyecto, sino a entender más a fondo la problemática que se está tratando, esto con el fin de resolverla de una forma creativa e innovadora, basándose en técnicas centradas en el usuario. Este método consta de cinco fases: 1.      Empatizar: en esta fase se realizan algunas entrevistas, y se utiliza la herramienta de mapa de empatía, con el objetivo de obtener el conocimiento y las dificultades asociadas al proceso de abasto en el IMSS. 2.      Definir: una vez realizadas las entrevistas y que se conoce mejor el proceso de abasto y las actividades que se llevan a cabo, se identifican las tareas a optimizar, así como las necesidades específicas de cada uno de los principales roles involucrados (jefa de abasto y jefa de enfermería), además de los aspectos en los que repercutiría la atención a estas necesidades; esto se realizó por medio de la herramienta Point of View. 3.      Idear: luego de analizar la información y definir los problemas en función de los usuarios, se generaron ideas a través de la técnica de lluvia de ideas. Para el desarrollo de esta técnica se utilizó la plataforma padlet.com; posteriormente, estas ideas fueron filtradas para utilizar las más plausibles. 4.      Prototipar: se diseña el prototipo de la plataforma por medio de mockups, con ayuda de la plataforma virtual NinjaMock. Estos diseños constan de dos principales partes: la gestión de solicitudes y el inventario. 5.      Testear: al finalizar los mockups correspondientes a la fase de prototipado, se hacen pruebas a los usuarios para conocer su opinión, y saber si los procedimientos diseñados cumplirían realmente las tareas que ellos llevan a cabo.


CONCLUSIONES

En este trabajo se construyó un prototipo de una plataforma para mitigar los problemas en el proceso de abasto del IMSS. Además, se identificaron los principales elementos que hacen parte de un sistema de abastecimiento. De acuerdo a los objetivos definidos en este proyecto se seleccionó la metodología Desing Tinking para la construcción de un prototipo que permita mejorar los problemas del proceso de abasto del IMSS.  En la construcción de este prototipo, y según las fases de la metodología seleccionada, se utilizaron las siguientes técnicas: en la fase de empatizar se trabajaron los mapas de empatía el cual permitió identificar los dolores y aspiraciones de los usuarios entrevistados. Seguidamente en la segunda etapa, a través de los POV, se definieron las principales necesidades y los aspectos que podrían mejorarlas sorprendentemente. Luego, en la tercera etapa se desarrolló una lluvia de ideas que guiaron el desarrollo de prototipos en la cuarta fase. Por último, estos prototipos fueron testeados con los usuarios con el propósito de optimizar y perfeccionar las ideas para que realmente solucionen los problemas en el proceso de abasto. Finalmente, para dar continuidad a este proyecto se propone la construcción de un sistema de abasto para el IMSS, basado en los prototipos y las especificaciones tecnológicas descritas en el marco teórico. Existe un grupo de estudiantes de la Universidad del Caribe interesados en dar continuidad a este proyecto para su implementación, y así, obtener la titulación de ingenieros en datos e inteligencia organizacional. Estos jóvenes son: Shamed Calderon, Cristian Cauich e Ivan Galindo, quienes serán asesorados por la M. C. Nancy Aguas.
Ruiz Gaytan de León Omar, Universidad de Guadalajara
Asesor: Post-doc Celene Milanés Batista, Universidad de la Costa

EDIFICIOS ALTOS: VISIóN DESDE SEIS REGIONES


EDIFICIOS ALTOS: VISIóN DESDE SEIS REGIONES

Ruiz Gaytan de León Omar, Universidad de Guadalajara. Vasquez Jalpa Carlos Alberto, Instituto Politécnico Nacional. Asesor: Post-doc Celene Milanés Batista, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Existen contradicciones terminológicas para nombrar los edificios altos, a la vez que se desconocen las variaciones en las alturas que tienen estos tipos de edificios y su relación directa con el crecimiento de la población mundial en algunas de las regiones más importantes del mundo. 



METODOLOGÍA

 Se toma como punto de partida la base de datos global de edificios altos (www.skyscrapercenter.com). Mediante los datos publicados en este sitio, se analizan seis importantes regiones del mundo clasificadas por los autores como clúster -Asia, África, Europa, Sudamérica, Norteamérica, y Oceanía. Para cada clúster se determina la correspondencia que existe entre los edificios altos y las soluciones más viables que permiten hacer frente al fenómeno global del rápido aumento de la población y el incremento de la urbanización. Los autores examinamos empíricamente más de 20 ciudades distribuidas dentro de los 6 clúster. Describimos cuantitativamente las variaciones en las alturas de más de 30 edificios en las ciudades analizadas.  


CONCLUSIONES

Como resultados encontramos varios tipos de edificios (agrupaciones) que capturan la diversidad global de las configuraciones espaciales en cuanto a su altura población y el año. Se determinan que los seis clúster o regiones analizadas dan testimonio de los espacios geográficos-culturales creados y los puntos comunes encontrados entre ellos. Algunos clústeres son en gran medida congruentes con unidades espaciales y edificaciones ya bien conocidas en Europa y el mundo islámico.   El estudio confirma la diversidad de criterios para nombrar los edificios en altura, así como las condiciones culturales, socioeconómicas, demográficas o políticas similares que producen configuraciones urbanas morfológico-espaciales similares en el modo de construir los edificios en altura, su riqueza arquitectónica, variedad tipológico-constructiva y diversidad de altura. 
Ruiz Moreno Cristóbal, Universidad Autónoma de Guerrero
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

ECO LADRILLO TIPO LEGO UNA IMPLEMENTACIÓN SOSTENIBLE PARA PUEBLOS EN DESARROLLO DEL ESTADO DE GUERRERO


ECO LADRILLO TIPO LEGO UNA IMPLEMENTACIÓN SOSTENIBLE PARA PUEBLOS EN DESARROLLO DEL ESTADO DE GUERRERO

Ruiz Moreno Cristóbal, Universidad Autónoma de Guerrero. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

La industria de la construcción tiene un efecto en el desarrollo de las naciones, estableciendo estructuras para el desarrollo de las actividades humanas. Sin embargo dicha industria, es considerado una fuente de contaminación medioambiental (Enshassi, Kochendoerfer, & Rizq, 2014).   La elaboración de ladrillo, es uno de los que aporta agentes contaminantes, la obtención del producto final requiere de energía, obtenido por medio del calor (cocción), es sometido a temperaturas que oscilan de los 900-1200°C, se emplean hornos cerrados (Zea Osorio, 2005). El combustible que se utiliza para el proceso de cocción son: llantas usadas, materiales plásticos, leña, aserrín y viruta de madera, carbón de piedra, petróleo diésel y petróleo residual, etc.   Durante el proceso de producción se tiene emisión  de compuestos volátiles, como lo afirma el ex rector de la UAQ, José Alfredo Zepeda Garrido emiten altas concentraciones de dióxido de azufre, óxidos de nitrógeno y otros compuestos tóxicos (Zepeda Garrido, 2013).   Debido al impacto ambiental que provoca el desarrollo de ladrillos de arcilla (tradicional), lo convierte en una actividad contaminante de alta importancia, es por ello que se deben optar por otras alternativas, sustentables y del mismo modo económicas. Para lo cual en una búsqueda entusiasta, se encontró una posible solución, el eco ladrillo tipo lego, compuesto principalmente por suelo, cemento hidráulico y agua, para después ser compactada y curada.



METODOLOGÍA

La investigación no es experimental, se desarrolla por información, datos y caracteres previos, que fueron realizados por sus respectivos autores (artículos, tesis, y diferentes textos donde se indago lo requerido).   Se inicia por una explicación fundamentada del problema, por lo cual, se formulan preguntas, causo interés propio, a pesar que no existen normas mexicanas para enriquecer, sin embargo se planea guiar por las normas existentes, sin olvidar la calidad del producto final.   Para la producción del ladrillo es indispensable una maquina generadora de eco ladrillos tipo lego, que son de las medidas aproximadas al tradicional, se caracterizan por tener 2 orificios, por donde pueden realizarse varias técnicas de reforzamiento (hormigón/acero). Son piezas que encajan unos con otros, ofrecen un buen acabado, además de ser una tarea sencilla, reduciendo tiempo de trabajo.   Debido a que es un producto desconocido, podría generar desconfianza, y considerando ese aspecto, se realizó una comparación del ladrillo tradicional (arcilla) y el eco ladrillo (suelo-cemento). Los beneficios que tiene el utilizar dicho producto son: Fácil colocación del acero de refuerzo Uso innecesarios de encofrados Permite el paso instalaciones hidráulicas, eléctricas, etc, sin dañar los elementos (rotura de paredes) Aislamiento térmico y acústico, gracias a los orificios No representan reacciones de alcalinidad 40% más económico en comparación al tradicional El proceso de curado se realiza con agua y sombra No se utilizan combustibles en su fabricación, el proceso es ecológico La obra es más limpia, no genera desechos durante la ejecución Reducción de cantidades de mortero   Debido a la problemática económica que vive la población del estado de Guerrero, se busca ser una alternativa viable, para el desarrollo de los pueblos, que tienen poco acceso a los materiales de construcción más utilizados o de los que se ofrecen en el mercado.


CONCLUSIONES

La utilización del suelo (materia prima del producto), como un material alternativo y de solución a la problemática económica-sustentable. Desde hace mucho tiempo se utilizó la tierra por diversas civilizaciones y culturas, y hace poco fue una forma de construcción más implementada en los pueblos.   En general el eco ladrillo (suelo-cemento), surge de la mezcla de suelo, cemento, los cuales en dosificaciones determinadas, se homogeniza con agua, son compactados y curados, para obtener su resistencia a los agentes ambientales y esfuerzos.   Los efectos del cemento en el suelo son: disminuir el peso específico seco, aumentar la resistencia a la compresión, disminuir la sensibilidad a  la acción del agua, disminuye la retracción por secado y aumenta la resistencia a la erosión. (Holgado Cornejo & Prado Salinas, 2015)   Para unir los eco ladrillos, se recomienda utilizar cola industrial a base de polímero de vinilo, como el utilizado para la madera.   Las pruebas de laboratorio que se planean realizar  son:  Resistencia a la compresión (NMX-C-036-ONNCCE) (NMX-C-464-ONNCCE) Absorción (NMX-C-037-ONNCCE) Contracción por secado (NMX-C-404-ONNCCE) Adherencia entre piezas y mortero (NMX-C-082-ONNCCE) Y posiblemente algunas otras mas pruebas par garantizar la calidad del eco ladrillo.
Saaravia Guerrero Neftali, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. César León Ramírez Chávez, Tecnológico de Estudios Superiores de Jocotitlán

CONTROLADOR FUZZY PARA LA REGULACIóN DE PH


CONTROLADOR FUZZY PARA LA REGULACIóN DE PH

Saaravia Guerrero Neftali, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. César León Ramírez Chávez, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de pH han sido reconocidos como uno de los problemas SISO más difíciles en el área del control de procesos, puesto que en el proceso se ven involucradas más de una sola variable tanto de salida como de entrada (solución ácida, solución base, buffer). Además, se considera el control de pH como un sistema no lineal, debido a que el pH es un factor logarítmico, y se define como el logaritmo negativo de la concentración de iones hidrógeno en una solución. Es decir: pH = - log [ H+] Por lo tanto, la relación logarítmica hace al proceso muy sensible a pequeños cambios en la cercanía del punto de neutralización. Esto es mostrado por una pendiente casi infinita en el pH = 7 de la curva característica del proceso. Otra variable a considerar dentro del proceso de control de pH es el tiempo, el cual, es el tiempo de estabilidad, su intervalo de duración depende de la variación en el volumen, el flujo de entrada y la velocidad del mezclado.



METODOLOGÍA

Se estudió sobre la lógica difusa, su definición, características y/o propiedades, ejemplos, manejo de la herramienta fuzzy en Matlab, etc. Y de esta forma darnos cuenta de cómo funciona la lógica difusa y cómo se aplica para el control de procesos. Se Investigó sobre proyectos realizados sobre controladores basados en lógica difusa para la neutralización en el tratamiento de aguas residuales, al igual que en los diferentes procesos industriales donde se realiza la neutralización de pH. Se estudió el comportamiento y/o el funcionamiento del modelo de planta para la neutralización de pH  y el proceso de instrumentación de la misma. Se realizaron ejercicios y diseños de controladores con la herramienta fuzzy de Matlab y se simularon, esto para ir aprendiendo más sobre diseño de controladores basado en lógica difusa. Se desarrolló el modelo matemático y/o químico de la neutralización de pH de la planta en simulink de Matlab mediante diagramas de bloques. Una vez que se obtuvo el modelo, se desarrolló un controlador PI digital propuesto para la planta. Se prosiguió a insertar los parámetros o valores de las variables que utiliza tanto la planta como el controlador PI digital en la plantilla principal de Matlab necesarias para poder simular el modelo de la planta. Por lo tanto el siguiente paso fue simular  el controlador PI digital en la planta en Matlab. Se desarrolló el diseño del controlador basado en lógica difusa  con la herramienta Fuzzy de Matlab para la neutralización de agua residual, se simulo el controlador basado en la técnica Takagi - Sugeno. Una vez que logramos simular nuestro controlador con la planta, se analizaron los resultados obtenidos de las simulaciones para verificar si en verdad cumplen con los parámetros requeridos, lo mismo pasó para la parte del controlador difuso, se analizó para observar si la respuesta presentaba una reducción en el sobre impulso. Por último, después de analizar las respuestas tanto de la planta como del controlador difuso por separado, juntamos ambas partes, es decir, se introdujo el controlador difuso a nuestra planta.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los controladores difusos, el proceso de neutralización de pH  y la forma en la que se simulan, sin embargo, al ser un extenso trabajo no fue posible aplicarlo de manera práctica en la planta de aguas residuales, pero el objetivo que se tenía en este  proyecto solo abarcaba la parte de la simulación de la planta aplicando el controlador difuso lo cual si fue posible terminar, se obtuvieron respuestas muy favorables. Por lo tanto concluyo que se logró cumplir con el objetivo.
Saavedra González David, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez

DESARROLLO DE UNA BASE DE DATOS DE LA MTG (MICRO TURBINA DE GAS) Y DEL RC (RECUPERADOR DE CALOR) PARA LA VISUALIZACIóN EN UN DISPOSITIVO MóVIL (ANDROID).


DESARROLLO DE UNA BASE DE DATOS DE LA MTG (MICRO TURBINA DE GAS) Y DEL RC (RECUPERADOR DE CALOR) PARA LA VISUALIZACIóN EN UN DISPOSITIVO MóVIL (ANDROID).

Saavedra González David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Las microturbinas de gas son turbinas de combustión de baja potencia, que actualmente pueden suministrar entre 30 y 500 kW como una fuente independiente de energía. Están dotadas de generadores de alta velocidad de imán permanente que pueden girar a la misma velocidad que la turbina de gas. La generación distribuida mediante microturbinas de gas constituye una solución efectiva, alterna o complementaria a la instalación de nuevas plantas de producción de energía eléctrica. Probablemente las características mas importantes del sistema de producción distribuida de electricidad basado en las microturbinas de gas, sea el bajo nivel de emisiones y de ruido, y el reducido peso y dimensiones de la instalación. Por ello, pueden ser colocadas en sitios donde se requiera la producción de energía eléctrica, calor y/o frio, pero exista una limitación de espacio, o en lugares sensibles a la contaminación ambiental o acústica. Por todo esto, surgió la necesidad de poder monitorear de manera remota en un solo dispositivo todos los parámetros que la microturbina de gas junto con el recuperador de calor en tiempo real y tener una base de datos para ver el comportamiento en un determinado tiempo transcurrido. Y así el operador pueda tener un mejor control y retroalimentación de como es que está funcionando en las condiciones a las que se encuentra operando.



METODOLOGÍA

Se realizo una búsqueda documental en más de 20 revistas especializadas sobre el estado del arte del funcionamiento y operación de las microturbinas de gas y recuperador de calor. Así como también se analizaron los sistemas relacionados con la eficiencia basada en estos sistemas. Se sintonizaron los diferentes sistemas ya existentes y se presento la propuesta de vialidad sobre el desarrollo de los sistemas seleccionados en nuestra búsqueda. Tuve que tomar 4 cursos de programación de aplicaciones Android, programación en java, programación en Python y diseño de bases de datos para poder complementar mis conocimientos y así poder juntar de manera adecuada todos los puntos que mi proyecto necesitara en su momento. Una vez con toda la información y conocimiento obtenido en las primeras semanas, se comenzó con la programación de lo que fue el registro e inicio principal de la aplicación, todo esto en la plataforma Android Studio. Utilice Mysql para la creación y diseño de la base de datos, Xampp para crear el servidor local y Firebase de Google para crear el registro de los usuarios de la aplicación. Transcurridas las semanas, es tiempo de realizar las pruebas generales, para verificar que la aplicación sea totalmente funcional o en un 80%, corrigiendo los errores que se pudieran genera y modificar algunos parámetros necesarios.


CONCLUSIONES

Durante la estancia de verano virtual, se logró adquirir conocimientos prácticos de la programación de aplicaciones Android y creación de bases de datos en tiempo real y remota. Por medio de la industria 4.0, el internet de las cosas y las Smart cities se logro crear de manera real una aplicación que pudiéramos implementar y comprender todo el alcance que esta podría tener.
Sáenz Salazar César David, Instituto Tecnológico de Chihuahua II
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

MODELO DE INTELIGENCIA ARTIFICIAL PARA LA DETECCIóN DE ENFERMEDADES CARDIOVASCULARES.


MODELO DE INTELIGENCIA ARTIFICIAL PARA LA DETECCIóN DE ENFERMEDADES CARDIOVASCULARES.

Hernandez Carmona Josue Jyaru, Instituto Politécnico Nacional. Lecona Valdespino Carlos Natanael, Instituto Politécnico Nacional. Magaña Medina Jesus Omar, Universidad Autónoma de Sinaloa. Sáenz Salazar César David, Instituto Tecnológico de Chihuahua II. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Actualmente existen muchos métodos y herramientas para la detección de enfermedades cardiovasculares. Los doctores y personal médico de los hospitales utilizan diversos instrumentos para poder hacer la detección de enfermedades, además de contar con preparación dentro del área en que se desenvuelven para concluir con un diagnostico basado en síntomas previos del paciente. El objetivo del modelo desarrollado es agilizar la manera en la que se pueden detectar enfermedades cardiovasculares, de tal forma que, al introducir ciertos valores por computadora se obtiene como resultado un diagnostico fiable el cual determina si el paciente diagnosticado cuenta con presencia de alguna enfermedad o no. De esta manera el personal medico puede auxiliarse y obtener resultados mas rápidos de los pacientes diagnosticados.



METODOLOGÍA

Los métodos adecuados a aplicar en el trabajo de investigación de este proyecto son el deductivo, cuantitativo, cualitativo y comparativo. Se utilizaron con el objetivo de analizar diferentes algoritmos de inteligencia artificial, sin embargo, previo al análisis se preprocesaron los datos con ayuda del lenguaje de programación Python. Los algoritmos utilizados fueron Regresión Múltiple Lineal, Redes Neuronales, Random Forest, Vecinos Cercanos y Maquinas de Vectores de Soporte (algunos de ellos basados en probabilidad y estadística). De esta manera se compararon los resultados obtenidos con dichos algoritmos y se pudo determinar el mejor de ellos para el caso utilizado. Los datos utilizados previamente al preprocesamiento fueron proporcionados por un repositorio de machine learning, donde el crédito de los datos utilizados de Cleveland se le atribuyen a V.A. Medical Center, Long Beach and Cleveland Clinic Foundation: Robert Detrano, M.D., Ph.D.


CONCLUSIONES

Los resultados en porcentaje de exactitud obtenidos de la aplicación de cada algoritmo en los datos preprocesados fueron los siguientes: Regresión Múltiple Lineal: 57% Redes Neuronales: 89% Random Forest: 74% Vecinos Cercanos: 95% Máquinas de Vectores de Soporte: 41%
Saiz Gomez Danna Natalia Naola, Instituto Tecnológico de Matamoros
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

ANÁLISIS DE LA FACTIBILIDAD EN LA INCORPORACIÓN DE PET COMO ADICIÓN/SUSTITUCIÓN EN EL CONCRETO HIDRÁULICO, PARTIENDO DE LA REVISIÓN DEL ESTADO DEL ARTE RESPECTO AL TIPO Y USO DE PET EMPLEADO


ANÁLISIS DE LA FACTIBILIDAD EN LA INCORPORACIÓN DE PET COMO ADICIÓN/SUSTITUCIÓN EN EL CONCRETO HIDRÁULICO, PARTIENDO DE LA REVISIÓN DEL ESTADO DEL ARTE RESPECTO AL TIPO Y USO DE PET EMPLEADO

Saiz Gomez Danna Natalia Naola, Instituto Tecnológico de Matamoros. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El estado del arte es un estudio analítico del conocimiento acumulado que hace parte de la investigación documental (Vargas, G., Calvo, G., 1987). Su estudio considera todas las teorías que se relacionan con el tema que se está estudiando y en ser capaces de comprender las diferencias y semejanzas entre las ideas. La adición de fibras como el PET al concreto disminuye el comportamiento mecánico de los elementos a compresión y flexión, la incorporación mejora las características físicas de la mezcla. (Ramirez C., Lara G., Montes de Oca, López G., Velázquez P., 2019), esta es una de las opiniones encontradas en la investigación, pero en diversos documentos recopilados se tienen opiniones contrarias, por ejemplo: El uso de fibra de PET incorporada en el concreto es una alternativa sostenible para el destino del PET descartado al medio ambiente. Los resultados mostraron que esta adición no garantiza una gran ganancia de resistencia a la compresión, pero minimiza el comportamiento frágil del concreto convencional. Por ello, es viable su aplicación. (Da Silva M., Barros M., Morais A., Roma A., 2018). El concreto hidráulico es una combinación de cemento Portland, agregados pétreos, agua y en ocasiones aditivos, para formar una mezcla moldeable que al fraguar forma un elemento rígido y resistente. (NOM, 2004). El PET es un material caracterizado por su gran ligereza, resistencia mecánica a la compresión y reciclable al 100%. Puede ser utilizado como sustituto/adición del agregado pétreo en las mezclas de concreto hidráulico.(Hachi Quintana J., Rodriguez Mejía J., 2010) A partir de la identificación de todos los aspectos que rodean al área del concreto hidráulico; asi como, del material de PET usado en el concreto, se decidió desarrollar un estudio del estado del arte sobre investigaciones realizadas del 2015 a la fecha, respecto a la incorporación de PET como adición/sustitución en el concreto hidráulico, específicamente al tipo y uso de PET empleado, para analizar si es factible o no el desarrollo de nuevas mezclas de concreto con PET.



METODOLOGÍA

El presente estudio, tiene como objetivo principal, encontrar las semejanzas y diferencias de las ideas de los autores a partir de realizar graficas estadísticas. El desarrollo de la investigación constó de los siguientes pasos: Participación en 35 ponencias desarrolladas por investigadores del Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil (UMSNH) las cuales ayudaron a asentar las bases teóricas respecto al tema de estudio Investigacion documental, en buscadores académicos guiada por coordinadores del tema en estudio Creación de una tabla de registro, para el vaciado de información de los trabajos obtenidos en los buscadores Selección y clasificación de los documentos encontrados por título de investigación, para despues proceder a la lectura, revisión y copiado textual de la información requerida según las categorías en la tabla de registro. Se consultaron un total de 63 documentos de diversos tipos y se destacaron los archivos con una fecha de publicación no menor a cinco años de antigüedad, dejando un total de 46 textos Se desarrollaron graficas estadísticas a partir de la contabilización de la información recopilada de acuerdo con el tipo y uso de PET empleado Con las gráficas se realizó el análisis de resultados, para determinar si es factible realizar nuevas investigaciones sobre adicionar material PET a las mezclas de concreto. Se llegó a los siguientes resultados: Solo 10 de las investigaciones están orientadas a la aplicación de mezclas de concreto con adición/sustitución de PET en pavimentos El 65% de las investigaciones utilizaron fibras de PET en las mezclas de concreto y el 30% usaron diferentes tipos de material en fibra en las mezclas El tipo de fibra más utilizado fue el PET reciclado, ya que el 41.3% de los autores lo utilizaron y el 58.7% restante se dividió entre diferentes materiales utilizados Se comprobó que el 54% de los documentos utilizaban PET en cualquiera de sus formas para su uso en el concreto hidráulico y el 41% lo utilizaba en otro tipo de materiales El 87% de los autores utilizaron para sus investigaciones PET reciclado El proceso más utilizado para el reciclaje de PET fue el proceso mecánico ya que el 59% de los autores lo utilizaron


CONCLUSIONES

Analizando los resultados de las gráficas se llega a la conclusión que es factible utilizar el PET como adición/sustitución de agregados pétreos en el concreto hidráulico, sin embargo, esto dependerá de los resultados que se quieran obtener, ya que al agregar el PET a una mezcla de concreto se pueden obtener beneficios en su desempeño mecánico, pero reducción en su trabajabilidad. Por otra parte, de acuerdo a la forma del PET este puede generar vacios en la mezcla de concreto lo que ocasionaría una reducción de la resistencia y durabilidad del concreto. Es por ello que, para poder conocer adecuadamente la influencia que tiene la incorporación del PET, en sus diferentes formas, en el concreto hidráulico, se necesita que las nuevas investigaciones además de analizar cómo se comporta la mezcla con PET en pruebas mecánicas también se consideren las pruebas de durabilidad; ya que, al realizar el estudio del arte, uno se puede dar cuenta que las investigaciones difieren en resultados. Esto quiere decir que en algunos casos donde en las pruebas de durabilidad la adición del PET tenía un comportamiento favorable en las pruebas de resistencia mecánica dicha adición afectaba su rendimiento. Al realizar esta investigación, nos da la oportunidad de darnos cuenta que existe aún un gran horizonte de posibilidades de estudiar mezclas de concreto hidráulico modificadas con PET reciclado en sus diferentes formas, siendo que existe una gran cantidad de autores actualmente trabajando con este tipo de material, el cual representa un problema a nivel mundial una vez que se convierte en un residuo plástico expuesto al medio ambiente.
Salas Flores Daniel Guadalupe, Universidad Autónoma de Guerrero
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE NIVEL DE DAñO POR CORROSIóN DE PUERTOS MARíTIMOS MEXICANOS DE ALTURA Y SU RELACIóN CON LAS CONDICIONES DE MAREA Y DE CARGA.


ANáLISIS DE NIVEL DE DAñO POR CORROSIóN DE PUERTOS MARíTIMOS MEXICANOS DE ALTURA Y SU RELACIóN CON LAS CONDICIONES DE MAREA Y DE CARGA.

Salas Flores Daniel Guadalupe, Universidad Autónoma de Guerrero. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La corrosión es el deterioro de las estructuras de concreto reforzado por un agente externo, en el mundo hay miles de puertos marítimos que están en proceso de corrosión en este momento. Tan solo en EUA cuesta el 3% del PIB para mantener sus puertos e infraestructura. México cuenta con alrededor de 115 puertos marítimos a lo largo de su territorio donde diariamente se realizan movimientos de mercancías, para mantener todos los puertos de México sería un costo millonario. En este verano se está estudiando las diferentes variables de los puertos marítimos más importante de México para observar su nivel de daño por corrosión.



METODOLOGÍA

Los puertos que estudiar son: Lázaro Cárdenas ubicado en Michoacán, Puerto Progreso ubicado en Ciudad Progreso Yucatán. Para realizar el análisis de corrosión de los puertos marítimos mexicanos se dividieron en variables, las cuales son: nivel de corrosión, tipo y cantidad de movimientos de cargas, nivel de salinidad y longitud de mareas. Estas 4 variables se estudiaron para observar la relación que tienen entre sí. Nivel de corrosión  Para el puerto de Lázaro Cárdenas se buscó en literatura especial y de la SCT obteniendo que el nivel de corrosión es menor que 10 KΩ-cm de acuerdo la prueba de resistividad eléctrica esta prueba se realizó solo en un cabezal del puerto. Para Puerto Progreso su nivel de daño en pilotes se dice que el 87.251% requiere de reposición de nivel 1 y nivel 2, mientras el 12.749 no presenta daño por el momento. Tipo de movimientos de cargas Los datos que se presentan a continuación son los movimientos de cargas de los dos puertos, esta información se obtuvo de las páginas de la API de cada puerto. Niveles de carga para Puerto Progreso, se realizó un estudio histórico desde el año 2,000. Las cargas estudiadas son: General contenerizado, General suelto, Granel agrícola, Granel mineral, Fluidos, Petróleos y derivados. Toatal carga 2000 - 3,315,100 2001 - 3,316,500 2002 - 3,243,400 2003 - 3,686,600 2004 - 3,695,900 2005 - 4,142,500 2006 - 4,183,100 2007 - 4,303,400 2008 - 4,659,175 2009 - 4,411,630 2010 - 4,021,048   Niveles de carga para puerto Lázaro Cárdenas desde el año 2010 hasta 2019. Las cargas estudiadas son: General contenerizado, General suelto, Granel agrícola, Granel mineral, Fluidos, Petróleos y derivados. Total  carga 2010 - 27,827,624 2011 - 29,653,152 2012 - 30,671,994 2013 - 32,769,610 2014 -  28,189,486 2015 - 26,437,913 2016 - 27,086,385 2017 - 29,791,045 2018 - 31,184,989 2019 - 31,544,387   Nivel de salinidad México tiene 3 tipos de mares: océano pacifico, golfo de México y mar caribe. En este caso el puerto de Lázaro Cárdenas se encuentra en el océano pacífico mientras que Puerto Progreso en el golfo de México, cada uno de ellos contiene diferentes niveles de salinidad, las cuales son las siguientes: Puerto Progreso: para el Golfo de México el nivel de salinidad oscila entre 36.6 y 37 ups Lázaro Cárdenas: el nivel de salinidad para el océano Pacifico oscila entre 34.5 y 35 ups. Longitud de mareas Puerto Progreso. Para el año 2010 la bajamar más baja fue de -0.5 m y la pleamar más alta fue de 0.7 m. lo que quiere decir que hubo un rango de 1.2 m.


CONCLUSIONES

Para ambos puertos el nivel de corrosión es alto de acuerdo con la información encontrada. El tipo de movimientos de carga con el paso del tiempo es mayor lo que quiere decir que se va a necesitar mejorar la infraestructura de cada puerto. Los niveles de salinidad son un poco agresivos así que el agua poco a poco con su salinidad va debilitando la estructura. Finalmente, el índice de mareas, la bajamar y pleamar afectan también a la estructura debido a que los puertos están en contacto con el agua salina. Como observamos estas 4 variables tienen algo en común y es que cada una va deteriorando la estructura de cada puerto una más que otra, por ello se llevó a cabo esta investigación para dar a conocer que tan dañada esta la estructura para poder rehabilitarla en un futuro. Cabe mencionar que además de la investigación, la universidad dio clases con temas relacionados con la investigación, esto con el único fin de obtener un mejor conocimiento.
Salas Luque Vanya Sinai, Universidad Autónoma de Sinaloa
Asesor: Dr. Alfredo Eduardo Cervantes Martínez, Instituto Tecnológico de Sonora

ANáLISIS DE LAS PROPIEDADES MECáNICAS DE PIEZAS FABRICADAS MEDIANTE IMPRESIóN 3D UTILIZANDO SIMULACIóN POR EL MéTODO DE ELEMENTOS FINITOS


ANáLISIS DE LAS PROPIEDADES MECáNICAS DE PIEZAS FABRICADAS MEDIANTE IMPRESIóN 3D UTILIZANDO SIMULACIóN POR EL MéTODO DE ELEMENTOS FINITOS

Salas Luque Vanya Sinai, Universidad Autónoma de Sinaloa. Asesor: Dr. Alfredo Eduardo Cervantes Martínez, Instituto Tecnológico de Sonora



PLANTEAMIENTO DEL PROBLEMA

Actualmente las industrias están pasando por una transición tecnológica provocando una transición hacia la llamada industria 4.0. Una de las tecnologías involucradas en esta llamada 4 revolución industrial es la Manufactura Aditiva. La manufactura aditiva juega un papel importante en la industria manufacturera ya que permite incrementar la productividad, disminuir costos de fabricación, personalizar productos y fabricar piezas de bajo volumen. En el 2017 la industria de manufactura aditiva, creció 21% , alcanzando un valor de USD 7,3 billones. En México experimento un crecimiento de un 200% en un lapso de 3 años, estimándose que en el año 2025 tendrá un valor de 550 mil millones de dólares anuales. Dentro de la fabricación aditiva una de las técnicas más popularizadas y desarrolladas ha sido el de modelado por deposición fundida (FDM), el cuál utiliza materiales plásticos para la fabricación de prototipos y productos. Sin embargo, aún y cuando esta tecnología ha sido ampliamente popularizadas y es muy utilizada en la industria para desarrollar fixturas o pequeños componentes, estos siguen presentando deficiencias en el diseño debido principalmente al desconocimiento de las propiedades mecánicas de las piezas fabricas mediante este método ya que los objetos fabricados mediante este método son anisotrópicos. El objetivo de este proyecto es caracterizar las propiedades mecánicas de piezas de PLA y ABS fabricadas mediante FDM utilizando la simulación por el metodo de elemento finito.



METODOLOGÍA

La realización de la estancia se dividió en 3 etapas, mismas que consistieron en revisión del estado del arte, capacitación para sobre el método por elemento finito y uso de software CAD/CAE y por último desarrollo de simulaciones. En la revisión del estado del arte se consideraron solamente artículos del 2013 a la fecha, enfocándonos principalmente en aquellos en los que se utilizó simulación numérica en el análisis de elementos fabricados con PLA y ABS. En este sentido, en los artículos revisados no se encontró un modelo matemático único, sin embargo debido a las características del proceso de fabricación mediante FDM, varios de ellos sugieren modelar estas piezas como si fueran materiales compuestos. Además, se observó que no todos los artículos coinciden en los resultados reportados ya que existen muchos parámetros que impactan en las propiedades mecánicas de piezas fabricadas por FDM. Como segunda parte, se realizó una capacitación, se inició repasando brevemente los temas a tratar para tener las bases necesarias, además se analizó un problema aclarando sus condiciones de frontera y cuáles son los pasos a seguir para resolverlo adecuadamente. Se explicó en qué consiste en método finito y el manejo del software que utilizaríamos. Algunas de las cosas que observamos fue que no es nada sencillo realizar la simulación, por qué son propiedades isotrópicas y se realiza el proceso capa por capa . Uno de los problemas puede ser la variación que existen entre el material que usemos, su color, su orientación y si son reciclados o vírgenes, ya que todos afectan sus propiedades. Como parte final del trabajo de la estancia, empezamos a desarrollar la simulaciones mediante el uso del software solidworks, que en nuestro caso sirvió solo como introducción a la simulación. Los experimentos que se desarrollaron fueron de flexión y de tracción. En ambos casos se consideraron dos materiales diferentes: acrilonitrilo butadieno estireno (ABS) y ácido poliláctico (PLA). Para el caso específico del PLA fue necesario introducir las propiedades fisicoquímicas en el software. Para llevar a cabo la simulación se llevó a cabo un análisis estático siguiendo el modelo de vonMises y utilizando un mallado estándar con una densidad media. Así mismo, para el comienzo de este proyecto se consideró que las piezas no presentaban anistropía. Para llevar a cabo los experimentos de flexión se consideró la configuración de cantiliever o viga en voladizo, variando la forma de su sección transversal (cuadrada y rectangular), la carga se impuso en una de las aristas de la cara opuesta a la fija, y el valor asignaod fue de 100 N. Los resultados obtenidos mostraron una mayor resistencia cuando la viga tenía una sección transversal cuadrada respecto a la rectangular, así mismo se observó que el PLA es más flexible que el ABS, resultados que fueron conforme a lo esperado y que nos permitieron verificar que se estaba utilizando el modelo adecuado. Para las pruebas de tracción se utilizó un modelo de probeta tipo I de acuerdo al estándar D638 de la American Society for Testing and Materials (ASTM). En estos experimentos consideramos 3 probetas diferentes, una completamente sólida, otra con un porcentaje de relleno del .10 y un patrón lineal de relleno con un ángulo de impresión a 90 y por último se consideró una probeta con los mismos patrones de relleno pero con un ángulo de impresión de 45 grados. Los resultados preliminares mostraron que el ABS tienen mayor resistencia a la deformación en comparación con el PLA, así mismo, en el caso de las probetas con una orientación a 90 grados se observó que estas presentan mejores propiedades mecánicas que aquellas en las que se imprime con un ángulo de orientación a 45 grados.


CONCLUSIONES

Durante mi estancia virtual en el programa logre adquirir conocimientos sobre cómo realizar una simulación por elemento finito para calcular propiedades mecánicas de piezas o componentes, pude constatar que el proceso de simulación no es sencillo. A su vez pude hacer un balance sobre las ventajas las ventajas y/o desventajas que este tipo de pruebas pueden tener. Cabe mencionar que aunque se obtuvieron resultados conforme a lo esperado, las pruebas se realizaron considerando que el material era isotrópico sin embargo en los hechos esto no es cierto por lo que es necesario considerar la anisotropía, también es importante mencionar que este proyecto requiere de más tiempo para poder llevar a cabo una caracterización completa de las propiedades mecánicas.
Salazar Aguilar Karina, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

LA CAPACITACIóN COMO ELEMENTO CLAVE DE LA IMPLEMENTACIóN Y EL SOSTENIMIENTO A LP DE LA METODOLOGíA 6 SIGMA


LA CAPACITACIóN COMO ELEMENTO CLAVE DE LA IMPLEMENTACIóN Y EL SOSTENIMIENTO A LP DE LA METODOLOGíA 6 SIGMA

Correa Rojas Vianey Ernestina, Universidad Politécnica de Sinaloa. Salazar Aguilar Karina, Tecnológico de Estudios Superiores de Valle de Bravo. Sánchez Osuna Dania Lorena, Universidad Politécnica de Sinaloa. Vanegas Ramírez Eva María, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La presente investigación se centró en conocer las buenas prácticas documentadas de la implementación de seis sigma en los sectores de industrial y de servicio, desde el punto de vista Nacional e Internacional, asimismo diseñar un instrumento que permita concentrar el uso de herramientas de la metodología en sus etapas y analizar la línea base inicial y el alcance de la misma al implementar la metodología seis sigma, todo ello en un muestreo de empresas. Por lo que, el problema que se abordó en la investigación fue atender la falta de instrumentos de dominio público para implementar la metodología 6 sigma en las empresas, de manera sencilla y práctica.



METODOLOGÍA

La metodología es de tipo cualitativa, ya que la intención fue conocer la difusión de la metodología seis sigma como estrategia competitiva de las empresas, contiene una revisión de 50 marcos teóricos de artículos científicos las buenas prácticas de calidad seis sigma documentadas a nivel nacional e internacional. Asimismo, investigar sobre el papel de la capacitación como estrategia clave en la implementación y sostenimiento a Largo Plazo de seis sigma. Posteriormente revisar un instrumento previo de análisis de la metodología seis sigma, para proponer un rediseño más funcional.


CONCLUSIONES

Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de la metodología seis sigma a nivel nacional e internacional. Asimismo, un instrumento rediseñado para analizar la implementación de la metodología y el desarrollo de las herramientas. Finalmente se obtuvo un borrador de un artículo de divulgación sobre el papel de la capacitación como estrategia clave en la implementación y sostenimiento a largo plazo de seis sigma.
Saldívar Villalobos Esmeralda, Universidad Autónoma de Chiapas
Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo

ARQUITECTURA EDIFICADA EN MADERA


ARQUITECTURA EDIFICADA EN MADERA

Rentería Sosa Darío Francisco, Universidad Autónoma de Guerrero. Ricardo de Jesus Brenda Liz, Universidad Autónoma de Guerrero. Saldívar Villalobos Esmeralda, Universidad Autónoma de Chiapas. Soto Ruiz Miriam Sofía, Universidad de Sonora. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Una de las principales problemáticas socioeconómicas a nivel país en México es la vivienda. Estadísticamente se tiene que el 75% del uso de suelo en México va destinado al uso de vivienda, como aproximadamente el 85% del PIB es producido en ciudades se genera la necesidad de establecer una alternativa de construcción sustentable que pueda reducir la huella de carbono en asentamientos de alta densidad poblacional como las ciudades, de modo que se cumpla con el postulado ambiental de la sustentabilidad, en busca de una construcción que pueda ser considerada sustentable en el entorno posmoderno.



METODOLOGÍA

Mediante estudios cualitativos se observaron las distintas propiedades de la madera, analizando en ellas la conductividad térmica, propiedades acústicas, comportamiento ante el fuego, comportamiento higrotérmico, permeabilidad al agua, entre otros. Bajo esta premisa se estudiaron distintos sistemas constructivos especializados en construcción con madera de ingeniería, por medio de los cuales realizaríamos un proyecto de construcción tentativo edificado en madera que supliera alguna necesidad o servicio de una comunidad, de tal manera que cumpliera con las tres dimensiones de la sustentabilidad.


CONCLUSIONES

La construcción en madera no es algo nuevo, sin embargo, es una metodología olvidada en lo que se refiere a construcción metropolitana, hasta tiempo reciente cuando fue retomada como parte del movimiento arquitectónico posmoderno, donde ha mostrado una especie de renacimiento. La construcción en madera ofrece un gran número de beneficios que no son evidentes a simple vista, como es el caso de su ligereza en comparación a las edificaciones construidas en concreto, propiedad misma que les confiere una mayor resistencia a los sismos, sin mencionar que durante el proceso constructivo la emisión de material particulado, dígase PPM y CO2 se ve disminuida en gran medida con respecto a su contraparte en concreto. Las propiedades de la madera la convierten en una alternativa constructiva amigable con el ambiente, sin embargo, aún existe escepticismo al respecto, debido a la falta de cobertura que tuvo durante el periodo moderno arquitectónico.
Salvador Alcala Karla Luz, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

LEVANTAMIENTO Y CATALOGACIÓN DE VIVIENDAS VERNACULAS EN SAN PABLO ETLA, OAXACA


LEVANTAMIENTO Y CATALOGACIÓN DE VIVIENDAS VERNACULAS EN SAN PABLO ETLA, OAXACA

Salvador Alcala Karla Luz, Universidad Autónoma Benito Juárez de Oaxaca. Velasco Hernandez Ivonne, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Realizar el levantamiento de casas vernaculas en Oaxaca para conocer los sistemas constructivos en nuesto estado y principalmente en valles centrales. Se opto por comunidad de San Pablo Etla, (Etla significa: "Donde abunda el fríjol", se compone de las voces Etl: "fríjol" y Tla: "abundancia".  San Pablo en honor a los 12 apóstoles de la religión católica). Se localiza en la parte central del estado, en la región de los Valles Centrales, pertenece al distrito de Etla.



METODOLOGÍA

El adobe es un ladrillo de barro sin cocer secado el sol. Lo más importante en el momento de fabricar esta pieza es la selección de la tierra que lo compone. Algunos estudiosos del tema dicen que el sol y el viento son los mayores enemigos de los nuevos bloques, pues ambos los secan rápidamente y como consecuencia, las piezas se fisuran. Según esta teoría hay que proteger los adobes durante cinco días y después pueden apilarse durante un período de secado de treinta días. En cuanto a la materia prima, lo constituye la tierra humedecida. Dependiendo de la zona geográfica encontramos aditivos como la paja, la cal, el yeso, piedras, etc. En cuanto a su fabricación, se debe hacer sobre una base de suelo húmedo, ahí se realiza la mezcla de tierra y agua adecuada, añadiéndole los aditivos de que dispongamos como puede ser la paja. En este proceso se utilizan palas, rastrillos y los propios pies pisando el barro. Realizada la mezcla, se deposita en los moldes de madera que tienen el tamaño adecuado de la pieza. Se desmoldan y se dejan secar entre dos y tres días, protegidos de la lluvia. Los adobes permiten ser reutilizados, convirtiendo las piezas viejas en nuevo barro, gracias a la absorción de agua, volviéndola a moldear y secar. El abobe es uno de los materiales más ecológicos que poseemos. Una vez secos se limpian y se mojan antes del asentamiento para que no absorban el agua del mortero, el cual se prepara con barro y paja en forma similar a la mezcla de fabricación. La proporción en volumen de los materiales es de 1 de barro, por 1 de paja. Para saber si tenemos un buen adobe, debemos tener en cuenta que el barro adecuado posee una tonalidad amarillo - grisáceo claro. Su textura es irregular, sobre todo si se incluye paja en la mezcla. El adobe se elabora con una mezcla de un 20% de arcilla y un 80% de arena y agua, se introduce en moldes, y luego se deja secar al sol por lo general unos 25 a 30 días. Para evitar que se agriete al secar se añaden a la masa paja, caca de caballo, que sirven como armadura. Las dimensiones no son universales, pero un promedio es 35cm de largo, 7 cm de alto y 25 de ancho las juntas del adobe suelen ser con un barro más pegajoso en donde añaden piedras, para la unión entre muros se endosan los mimos adobes, sin necesidad de confinamientos, para la colocación de ventanas o puertas se colocan pretiles de madera.La obtención de los elementos del adobe es de la misma región de San Pablo Etla.La teja se adquiere de otra región de Oaxaca que es Santa Lucia del camino. Durante el verano otra de las actividades que realizamos todos los días con un horario de 10:00 am a 12:30 pm aproximadamente de lunes a viernes, fue participar en conferencias las cuales trataban de diferentes temas los cuales son: Clasificación de Materiales, Utilización de fibras deshidratadas de nopal en muretes con mortero base cal, Evaluación Física: Resistividad Eléctrica, Desempeño mecánico de mezclas de concreto hidráulico y ensayo de penetración rápida de cloruros, Antecedentes, situación actual y supervisión en obra del Concreto elaborado con Cemento Portland, Recubrimientos fotocatalíticos, Empleo de Pruebas No Destructivas en Caracterización de Materiales de Construcción, Diseño de mezclas de mortero, Diseño de mezclas  de concreto método Abrams, Estancias en el Extranjero y proyecto GRENECO, Auscultación de pavimentos en la república mexicana y bases estabilizadas con asfalto espumado, Agregados de concreto reciclado en mezclas asfálticas, Evaluación Química: Carbonatación ,Análisis de Ciclo de Vida de materiales de la construcción, Caracterización de arenas, Caracterización de gravas, Diseño de mezclas  de concreto método ACI, El calor antropogénico vehicular y su influencia en la planeación urbana, Regresión lineal por mínimos cuadrados en pruebas de laboratorio con Matlab,Corrosión, Velocidad de Pulso Ultrasónico y Ataque acelerado  en sulfato de sodio, El uso de las rocas en la construcción, materiales pétreos e ignimbritas, La influencia de las propiedades de los suelos para el diseño de Cimentaciones Offshore, Clasificación de Fragmentos de Roca y Suelos (SUCS), Análisis comparativo del Precio Unitario para un metro cúbico de Concreto, mediante los métodos ACI Vs Abrams, Caracterización de grietas en concreto presforzado, dañado por corrosión, La cal, usos y ventajas en la construcción sustentable, Control de calidad de una mezcla asfáltica en caliente, La resistividad eléctrica como parámetro de durabilidad del concreto, Caracterización y propiedades índices en arcillas, Prueba triaxial en limos, Propiedades de los agregados reciclados con dos diversos mecanismo de trituración, Diseño de mezclas por el protocolo AMAAC, Construcción con tierra. Perspectiva actual y problemáticas en los inmuebles históricos Pruebas Físico-Mecánicas en Morteros Base Cal, Proceso de clasificación de asfalto por grado PG (grado de desempeño), Estabilización con asfalto espumado. Previo a cada conferencia realizamos lecturas previas sobre el tema a exponer y posteriormente para reafirmar lo expuesto en la sesión contestamos una evaluación correspondiente.  


CONCLUSIONES

Las casas vernáculas en la actualidad ya no se conservan al cien por ciento, ya que por los años y el comportamiento de los materiales van perdiendo sus propiedades por consecuencia las requieren de una restauración, pero a falta de conocimiento las personas suelen arreglarlo con materiales mejorados (concreto, laminas galvanizadas) haciendo que se pierda el sistema constructivo original.    
Sampablo Cuevas Paulina Lizbeth, Universidad de Guadalajara
Asesor: Dra. Luisa Nicté Equihua Anguiano, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO DE ANCLAS-PLACA PARA ESTRUCTURAS OFFSHORE CON ELEMENTOS FINITOS.


ESTUDIO DE ANCLAS-PLACA PARA ESTRUCTURAS OFFSHORE CON ELEMENTOS FINITOS.

Sampablo Cuevas Paulina Lizbeth, Universidad de Guadalajara. Asesor: Dra. Luisa Nicté Equihua Anguiano, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

México es un país que por su ubicación territorial es bastante favorecido en el sector de hidrocarburos siendo el tercer proveedor de aceite crudo de los Estados Unidos, el tipo de estructuras usadas en nuestro país son plataformas fijas ubicadas en aguas someras en el Golfo de México. A pesar de tener una ubicación estratégica para la implementación de energías renovables tales como, eólica o de marea, no se le ha dado la importancia suficiente, es necesario que exista mayor investigación en esta área y se deje la dependencia al petróleo; el desarrollo de estas energías además de traer beneficios a la calidad de vida requieren de múltiples disciplinas para su desarrollo como la construcción y diseño de la Infraestructura civil. Debido a lo expuesto anteriormente, el objetivo principal de este trabajo es el desarrollo, mediante el método de elementos finitos (FEM) en Plaxis ®, de simulaciones (modelo bidimensional) de la interacción entre suelo-cimentación a diferentes profundidades en un suelo arcilloso, el análisis se hará usando como cimentación un ancla ya que, estas son las más usadas para transmitir esfuerzos a varias profundidades en los suelos colindantes.  



METODOLOGÍA

La metodología descrita a continuación es la que se llevó a cabo para un análisis de la interacción suelo-ancla, se realizó de manera bidimensional (2D) mediante el método de elementos finitos en Plaxis®. Características y parámetros simulados El análisis se llevó a cabo simulando numéricamente un ancla-placa la cual se consideró como un plato en el software Plaxis®. La placa estará sometida a cargas de arrancamiento (F) además, de que se presenta el estudio para diferentes profundidades de desplante (D), con la finalidad de analizar en qué proporción varía la capacidad al arrancamiento en función de la profundidad de desplante. En la Tabla 1 se muestran las geometrías propuestas para el ancla siendo seleccionada la tercera como la mejor opción para este análisis; la fuerza axial (EA) y la rigidez a la flexión (EI) son los parámetros utilizados para el cálculo del espesor de la placa (d), mediante una fórmula automática del programa, por eso en la tabla se observa las variaciones realizadas a estos buscando que el ancla simulada no sufriera daño estructural. El suelo simulado es una arcilla media (suelo semi- rígido); se usó como modelo constitutivo el de Mohr-Coulomb y, se tomó el suelo en condiciones no drenadas. En la Tabla 2 se muestran los parámetros geotécnicos utilizados en el modelo.  Además, el valor de la interface usada es de Rinter= 1, es decir, el ancla está totalmente adherida al suelo. El valor de la carga F se incrementó en etapas, con el objetivo de conocer hasta qué punto deja de presentarse un incremento lineal en la capacidad y con respecto al desplazamiento de la placa; se realizaron principalmente 3 pruebas para averiguar la cantidad de incrementos de carga necesarios para que gráficamente los resultados fueran más precisos. A continuación, se describen las pruebas mencionadas anteriormente. En esta prueba solo se tuvo la fase inicial (condiciones in situ) y una primera fase en la que se agregó la placa y una carga distribuida q = 15.00 kN/m/m. Los resultados obtenidos no fueron los esperados debido a que la placa se flexionaba. Se agregaron tres etapas más acomodadas de la siguiente manera: Fase inicial: condiciones in situ. Fase 1: colocación del ancla-placa. Fase 2: adición de la carga distribuida q = 15.00 kN/m/m. Fase 3: incremento de la carga distribuida a q = 30.00 kN/m/m Fase 4: incremento del 30% en la carga distribuida, q = 39.00 kN/m/m Al no presentarse tantos valores de carga F, los resultados de los desplazamientos no fueron los suficientes para apreciar de forma precisa el comportamiento de la carga. Finalmente, se agregaron 3 etapas más con incrementos en la carga; en el gráfico obtenido se apreció de mejor manera el comportamiento de la carga con respecto a los desplazamientos. En la Tabla 3 se observa el acomodo final de las etapas. Las profundidades (D) sobre las cuales se hará el análisis son las siguientes: 3.0, 6.0, 9.0, 12.0, 15.0, 18.0 y 21.0 m; la importancia de que estas sean incrementadas se debe a qué queremos conocer que influencia tiene la profundidad sobre la placa y la capacidad de carga. Generación de la malla La geometría de la malla en el plano bidimensional (2D) tendrá una distribución fina, su número de elementos finitos es de 15 Nodos, y sus dimensiones son de 60 m x 50 m; en la Figura 3‑3 se muestra el detalle de la malla usada.


CONCLUSIONES

El estudio realizado en este análisis fue simple pero cumplió con el objetivo planteado inicialmente; el uso de anclas-placas como nuestra cimentación se debió a la manera en la que esta trabaja para la transmisión de fuerzas a los suelos a diferentes profundidades (Equihua-Anguiano, Orozco-Calderon, & Foray, 2012), además de ser considerada económica a comparación de otros tipos de cimentaciones. Los resultados obtenidos en el estudio nos indican que la profundidad de desplante es un factor importante para saber el comportamiento que tendrá nuestra ancla, en el análisis realizado a los 3.0 m se tuvo un desplazamiento total de 1.96 cm, mientras que en el estudio a una profundidad de 21.0 m el resultado arrojado fue de 0.95 cm, es decir, hubo una disminución de aproximadamente el 49% del desplazamiento total por lo tanto, a mayor profundidad tendremos mayor capacidad de carga. Además, los mayores desplazamientos a cualquier profundidad se dieron principalmente en la parte superior del ancla. Es importante entender la manera en que la cinemática se va comportando en cuestión de las profundidades para así poder conocer la capacidad de carga en las superficies de ruptura y poder tomar mejores decisiones respecto al diseño de nuestra estructura y, además, evaluando la factibilidad técnica y económica para la instalación de las anclas-placas.  
Sampayo Sebastian Berenice, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Ismael Urbina Salas, Instituto Tecnológico Superior de Guanajuato

IMPRESORA 3D CON TECNOLOGíA IOT


IMPRESORA 3D CON TECNOLOGíA IOT

Delgado Vega Brenda del Rosario, Instituto Tecnológico Superior de Guanajuato. Sampayo Sebastian Berenice, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Ismael Urbina Salas, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente la manufactura de piezas por medio de impresoras 3D se ha vuelto muy habitual, debido a la gran velocidad para obtener las piezas, que además vienen con una buena calidad y a un bajo costo. Permitiendo agilizar el periodo de producción, ya que minimizan el tiempo de trabajo en cualquier área (mecánica, eléctrica, electrónica, etc.). El proyecto titulado Impresora 3D con tecnología ioT, se fundamenta en la construcción de una impresora 3D de modelo artesanal con componentes electrónicos obtenidos de aparatos electrónicos en mal estado, el cual tiene como objetivo diseñar un objeto en cualquier programa CAD (Diseño Asistido por Computador) e imprimir el diseño en la realidad por medio de la impresora 3D y así obtener un objeto tridimensional.



METODOLOGÍA

Para el cumplimiento del objetivo, antes descrito, se prosiguió a realizar las piezas de acrílico manualmente, esto para la elaboración de la estructura de la impresora 3D, así mismo como su ensamblaje y las pruebas de la programación de los controladores para su correcto funcionamiento. Esto con el fin de que sea capaz de producir un diseño 3D creado con el ordenador en un modelo 3D físico (real).


CONCLUSIONES

El presente proyecto de investigación busca tener tanto un impacto social como un impacto ambiental en donde se desarrollará y aplicará ya que se incentivará a utilizar residuos de plásticos convertidos en filamentos para impresora 3D por medio del desarrollo de una máquina de inyección de plástico, cuya función consista en que por medio de un molino se destruya y se empuje el plástico mediante un torno, para posteriormente disolverlo y deslizarlo por una boquilla que hace que el plástico salga como un filamento muy delgado el cual es el material imprimible de la impresora 3D.
Sánchez Aguilar Estefany Amairany, Universidad Autónoma del Estado de México
Asesor: Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar

TRANSFORMACIóN DIGITAL EN LAS MIPYMES UTILIZANDO COMO HERRAMIENTA DE ESTUDIO LA FUNCIONALIDAD DE LA OMNICALIDAD PARA LA GESTIóN DE CLIENTES EN LAS MIPYMES (MéXICO Y COLOMBIA)


TRANSFORMACIóN DIGITAL EN LAS MIPYMES UTILIZANDO COMO HERRAMIENTA DE ESTUDIO LA FUNCIONALIDAD DE LA OMNICALIDAD PARA LA GESTIóN DE CLIENTES EN LAS MIPYMES (MéXICO Y COLOMBIA)

Sánchez Aguilar Estefany Amairany, Universidad Autónoma del Estado de México. Asesor: Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar



PLANTEAMIENTO DEL PROBLEMA

El objetivo general del presente es analizar la funcionalidad de la omnicanalidad en la gestión de clientes en las MIPYMES colombianas y mexicanas. Teniendo como horizonte de investigación la importancia en las empresas con utilización de las TIC y como estas se convierten en su mejor aliado para la competitividad empresarial. Lo anterior acompañado de un análisis de los diferentes factores de mercado, que obligan a las MIPYMES a introducirse en el mercado digital. La interacción de los clientes con las empresas está sufriendo cambios de gran impacto. El alto crecimiento de los dispositivos inteligentes está habilitando un incremento sin precedentes de las interacciones entre clientes y empresas, entre clientes y clientes y entre empresas y empresas. Asimismo, el uso constante de servicios por medios digitales permite que los clientes vivan distintas experiencias con actores variados, de diversos sectores de actividad y países. Aumentando así sus expectativas con respecto a cómo se le brindan los servicios. Es así como las MIPYMES se han visto obligadas por atender a sus clientes mediante distintos canales. Son los mismos consumidores los que se han encargado de transformar la multicanalidad en omnicanalidad. La omnicanalidad nace a partir de la experiencia del usuario, ofreciendo los servicios de forma conjunta, es decir, mantiene enlazada la información del usuario a todos sus canales.



METODOLOGÍA

Fase de planeación: Se identificaron los temas de estudios, conforme a la pertinencia de formación de los investigadores. Seleccionando las herramientas utilizada para la Transformación Digital en las MIPYMES de Colombia y México como estrategia de éxitos de relacionamiento y gestión de sus clientes.  Fase de Definición de alcance: De acuerdo con la información encontrada y estudiada, en los procesos de Transformación Digital en las empresas, se seleccionado la Omnicanalidad como herramienta de estudio para el relacionamiento y gestión de los clientes en las MIPYMES Fase de Recolección de información: Se investigan las diferentes definiciones y alcance de la Omnicanalidad en las MIPYMES, teniendo los siguientes resultados: La omnicanalidad ha llegado para quedarse, ofreciendo un valor añadido para los clientes, ya que son ellos quienes eligen cómo y cuándo, desde cualquier lugar o dispositivo podrán ponerse en contacto para comprar. Las tecnologías de la información y comunicación (TIC) en las MIPYMES actualmente juegan un rol de suma importancia ya que gracias a estas se puede crear una competitividad de alto nivel, logrando sobresalir del mercado. Históricamente México ha invertido un bajo porcentaje de su PIB en las TIC, comparado con Colombia La generación Z es la principal culpable de obligar al mercado laboral a tener un grado de flexibilidad mucho mayor e incorporar decididamente la tecnología de forma definitiva en todas las fases del desarrollo de sus productos o servicios. Las MIPYMES han adaptado sus estrategias y sus canales a las necesidades y a los hábitos de consumo de la generación Z. Las MIPYMES, de alguna u otra manera, y con mayor o menor éxito, están trabajando conceptos como mobile first, omnicanalidad, experiencia de usuario, marketing de recomendación, influencers, entre otros; obteniendo economías más dinámicas, más creativas y sobre todo más eficientes, el objetivo de las empresas en estos momentos es ser digitales, ante todo, independientemente del tamaño y del sector. Las redes sociales son un ecosistema de medios tecnológicos que permiten rapidez en la trasferencia e intercambio de información con códigos para el flujo de información inmediata para fines diversos. El marketing de recomendación Es una gran herramienta para que los adolescentes de esta generación puedan recomendar productos a sus iguales y les inspiren, mientras que las marcas pueden mediante este contenido alcanzar a esta maravillosa nueva generación. Fase de resultados: Esta investigación tiene como resultado el estudio de la Omnicanalidad y la generación de   un modelo de implementación y funcionamiento para las MIPYMES.


CONCLUSIONES

El proceso de transformación en ámbitos sociales, familiares, económicas, de consumo, de intereses políticos y de evoluciones comunicacionales son objeto de especial interés de estudio. En la historia han existido otros avances tecnológicos, pero este es particularmente innovador por la velocidad de los cambios y el grado de expansión de sus consecuencias y repercusiones para toda la sociedad. México se encuentra en bajos niveles de TIC en comparación con Colombia por lo que se ve comprometido a seguir creciendo e invertir en las mismas, así mismo apoyar a las MIPYMES interesadas, cada vez es más fácil unirse a este mundo digital y es necesario evolucionar la forma de participación económica, social, educacional, entre otras ramas. La omnicanalidad ha llegado para quedarse y se ha convertido en una gran ventaja para las MIPYMES ya que surgen de manera digital sin la necesidad de iniciar de manera física, lo que ayuda a disminuir costos y obtener más utilidades. Gracias a la digitalización las empresas pueden identificar a su mercado y de esta manera innovar y alcanzar la fidelidad de los usuarios, así como crear nuevos servicios que sus propios usuarios requieren o aún mejor crear una necesidad contando con los datos del usuario. El anterior documento fue desarrollado con el propósito de recolectar información necesaria para la elaboración futura de un modelo de implementación y funcionamiento para las MIPYMES en un lapso aproximado de 3 a 4 meses. Dicho lo anterior cabe aclarar que la investigación continua.
Sanchez Garcia Karla, Universidad Mexiquense del Bicentenario
Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México

USO DE CONTRATOS INTELIGENTES PARA LA COMPRA-VENTA DE BIENES TANGIBLES


USO DE CONTRATOS INTELIGENTES PARA LA COMPRA-VENTA DE BIENES TANGIBLES

Sanchez Garcia Karla, Universidad Mexiquense del Bicentenario. Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Actualmente el avance exponencial de la tecnología ha logrado automatizar la mayor parte de las actividades de la vida cotidiana, permitiendo realizar procesos en linea como tramites y pagos de una forma rápida, cada día la implementación de estas tecnologías aumenta, por lo que la información se maneja en un formato digital que puede estar expuesta a riesgos como: al acceso no autorizado y manipulación de datos. Por tal motivo es necesario tener un control de la información para mantener su integrad, los usuarios deben de estar consolidados usando un sistema confiable y transparente que garantice el resguardo de sus datos de sus datos de un intermediario poco confiable.



METODOLOGÍA

Al hablar de una tecnología que fundamenta la seguridad de operaciones en internet un término popular es Blockchain; que forma parte de las tecnologías de registro distribuido (DTL, distributed ledger technologies), son tecnologías que permiten a partes sin confianza el uno por, el otro; intercambiar cualquier tipo de datos digitales en una relación de igual a igual sin intermediarios. Los datos podrían ser: transacciones de dinero, pólizas de seguro, contratos, títulos de propiedad, registros médicos, compra/venta de bienes, etc. Las DLT son tipos de bases de datos en las que se registran datos compartidos y sincronizados a través de un sistema distribuido en una red de computadoras o participantes. Por tanto, Blockchain es un subconjunto de DLT, que emplea técnicas criptográficas para almacenar y sincronizar datos en una "cadena de bloques", que es la traducción de blockchain en español; es llamada asi debido a que esta tecnología es formada por bloques entrelazados que contienen información codificada de una transacción en la red. Blockchain funciona de forma descentralizada en múltiples nodos que dan seguimiento a las transacciones de los datos, los cuales son registrados y verificados únicamente por los participantes. Para llegar a un acuerdo confiable, se emplea un protocolo de consenso que regula la forma en que los nodos son minados y añadidos a la cadena, lo que garantiza la inmutabilidad de las transacciones; su funcionamiento consiste en transmitir la transacción (o este caso un contrato) entre todos participantes, para que en conjunto validen la operación acordando algunas reglas ya estipuladas. Una vez aprobadas y validadas por todos los participantes en automático se creará un nuevo bloque que será añadido a la cadena de bloques y finalmente la transacción estará completada. Contratos inteligentes La tecnología blockchain se emplea para implementar varios procesos descentralizados y un servicio que opera bajo esta tecnología son los llamados contratos inteligentes. El término contrato inteligente fue usado inicialmente por Nick Slabo en la época de los noventas, con la idea de desconfianza entre las partes involucradas de un contrato tradicional. Sin embargo, fue hasta 2009 con la aparición de la criptomoneda Bitcoin, que se hizo factible debido a su sistema de transacciones virtuales.                        Los contratos inteligentes son programas computacionales capaces de llevar a cabo los términos del acuerdo entre las partes sin la necesidad de la coordinación o intervención humana. Son almacenados en una cadena de bloques que se puede ejecutar y aplicar automáticamente. En palabras de Nick Szabo, son ​​contratos digitales que se hacen cumplir por sí mismos o hacer que sea prohibitivamente costoso romper el contrato. Funcionamiento detallado    Los contratos inteligentes se construyen sobre una plataforma de criptomonedas; que es un sistema descentralizado para interactuar con dinero virtual en internet.  Se establece que un contrato inteligente consta de un código ejecutable, un archivo de almacenamiento y un estado de cuenta. El código del programa es realizado mediante un lenguaje de programación, donde el código es fijado cuando se crea el contrato, no puede ser cambiado y se ejecuta siempre que recibe un mensaje; por lo que el código facilita, verifica y hace cumplir la negociación y la ejecución del acuerdo; el archivo de almacenamiento del contrato se almacena en la cadena de bloques pública, en donde todos los nodos pueden acceder a la información, pero no pueden modificarla. La lógica del programa es ejecutada por la red de mineros que llegan a un consenso sobre el resultado de la ejecución y, en consecuencia, la cadena de bloques se actualiza. Tambien los contratos inteligentes pueden recibir dinero en su estado de la cuenta y enviar dinero a otros contratos en donde la blockchain funge como un intermediario electrónico para retener el dinero que es respaldado con una criptomoneda; solamente cuando se cumple una condición el dinero es liberado al estado de cuenta de la parte que vendió el bien o servicio. Escenarios donde actualmente se usan los contratos inteligentes Actualmente estos contratos no estan involucrados totalmente en todos los contextos, debido a que es una tecnología que se encuentra en una fase de inicio, en este sentido, se comprende que existe un desconocimiento de esta. No obstante, existe un testimonio del uso de blockchain y de los contratos inteligentes en bienes raíces. Señalando el gran potencial para impulsar la transparencia, el ahorro de costos y la eliminación de muchas ineficiencias en los procesos que se llevan a cabo en las operaciones. Con los contratos inteligentes los costos de notaría bajarán, el tiempo para registrar un inmueble sería casi inmediato, y mejoraría considerablemente la confianza entre los compradores y vendedores.


CONCLUSIONES

Durante esta estancia de investigación se logró obtener conocimientos teóricos de la tecnología criptográfica Blockchain, que ha demostrado tener gran capacidad para mejorar la trazabilidad de la información en todos los sectores. Añadir blockchain a un contrato automatiza completamente el proceso, debido a que es programado para cumplir condiciones en un tiempo determinado, donde el usuario, únicamente es notificado sobre el estado de la transacción; además, elimina la posibilidad de que existan operaciones fraudulentas de terceros, gracias a que una vez establecidas las condiciones en la cadena de bloques se vuelven inmutables. A pesar de que son tecnologías poco conocidas, existe la posibilidad de que en un futuro se conviertan en herramientas básicas para la seguridad de los datos en internet.
Sanchez Gomora Emanuel, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa

ESTRATEGIAS LOGíSTICAS PARA EL DISEñO DE UNIDADES DE CARGA EN ZONAS RURALES


ESTRATEGIAS LOGíSTICAS PARA EL DISEñO DE UNIDADES DE CARGA EN ZONAS RURALES

Medina Rodríguez Jessica Giselle, Instituto Tecnológico de Zitácuaro. Sanchez Gomora Emanuel, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

El transporte es y ha sido un factor central para el progreso o el atraso de las distintas civilizaciones y culturas (Sarache & Cardona, 2007). En México, el transporte terrestre representa el medio de transporte más utilizado con el 75% frente al 17% del ferrocarril, el 7% del marítimo y el 1% del aéreo. Sus principales ventajas son su servicio puerta a puerta, su flexibilidad debido a la existencia de vehículos adaptados para todo tipo de carga y volúmenes, rapidez y la facilidad con la que se puede coordinar con otros medios de transporte. Sin embargo, sus desventajas están las limitantes de peso y volumen de la carga. (Navarro, 2013) Sin embargo, en la actualidad existen muchos lugares remotos en el mundo que carecen de abastecimiento de víveres y productos de primera necesidad, por lo que es impórtate contar con unidades de carga que sean compatibles con los diferentes medios de transporte disponibles en los lugares. Tal es el caso de una compañía distribuidora que surte a un cliente que se encuentra en una zona difícil de llegar por lo que desea mejorar el aprovechamiento de la capacidad del transporte, además de optimizar los tiempos de carga del producto. La compra promedio mensual de dicho cliente es de 6,366 artículos, con un peso aproximado de 1319 kg. Por lo que la pregunta de investigación es ¿Cómo deben de formarse las unidades de carga para optimizar los tiempos de descarga en zonas rurales?



METODOLOGÍA

Para la realización del presente trabajo se utilizará el método de investigación cuantitativo propositiva, se utilizarán 2 métodos para el cálculo del cubicaje; el método exacto o de la matriz, posteriormente con ayuda de los software se realizará la simulación de los procesos de acomodamiento de los productos al interior de los contenedores  de transporte, la utilización de dichos métodos y los software Stack Builder tienen la finalidad de encontrar la mejor solución que minimice el transporte, almacenaje y manipulación de los productos. Para su desarrollo se realizaron las siguientes actividades. Análisis de abastecimiento: Se identificará que especificaciones tienen los productos a transportar, tales como: Cantidad, kilogramos y kilogramos totales, además se les colocará un ID a la caja y se enlistará los productos que contiene dicha caja. Posteriormente, se clasificarán los productos en las siguientes categorías: Alimentos, aparatos electrónicos, aparatos eléctricos, combustible, repuestos, químicos y herramientas de trabajo. Diseño de unidades de carga: Para el diseño se utilizarán dos tipos de transporte: camioneta Pick Up con carrocería (240 cm x 185 cm x 100 cm) y Pick Up con caja seca (250 mm x 180 cm x 180 cm), al igual que dos tipos de palet: europalet 800 mm x 1200 mm y estándar 1000 mm x 1200 mm con un solo tipo de caja 60 x 40 x 30. Y se realizará la simulación con ayuda del software Stack Builder Comparativa de unidades de carga: Una vez diseñadas las unidades de carga se realizará una tabla comparativa para conocer cuál es la mejor opción para transportar los productos.


CONCLUSIONES

Mediante el análisis de abastecimiento se obtuvo que los productos que se transportan son en mayoría los pertenecientes a las categorías de repuestos y alimentos con un 27.25% y 23.19 % respectivamente. Además, para el transporte se utilizan 80 cajas con diferentes pesos que van desde los 7 kg hasta los 31 kg, dando un total de 1319 kg. Una vez ya realizados todos los análisis con el software Stack Builder y el método exacto se realizó una comparativa entre los diferentes aspectos de las unidades de carga, tales como: longitud, ancho, alto, volumen, eficiencia de área, eficiencia de volumen, n° de cajas, n° de pallets, n° de cajas en pallets y camionetas recomendadas. Teniendo con ello que la mejor opción es utilizar Caja Seca con Europallet, ya que presenta eficiencia de área y de volumen del 85.3 % y 77.9% respectivamente, pero además sólo utiliza 1 camioneta para el transporte del total de los productos. Sin embargo, el no utilizar pallets generaría un aprovechamiento del 89.2% del área y 80.3% del volumen en el caso de la carrocería, pero aun así se tendría que hacer uso de dos camionetas para el transporte total de los productos y se generarían costos por maniobras, además de invertir un mayor tiempo de carga y descarga. La decisión de utilizar o no cargas unitarizadas es una decisión que debe evaluarse , ya que la presencia de pallets puede llegar a ocupar un volumen relevante en el espacio de los contenedores, sin embargo, para este caso de aplicación, el diseño de unidades de carga fue muy útil para agilizar las maniobras, ya que sin la utilización de pallets se realizan mínimo 80 movimientos para la carga o descarga de los productos, en caso contrario, con la utilización de la camioneta Pick Up con caja seca y europallets se realizarán mínimo 4 movimientos con ayuda de un montacargas o un patín hidráulico, es decir, que se reduce en un 95% aproximadamente los movimientos empleados para la carga o descarga de los productos. Con base en lo explicado anteriormente, se puede dar respuesta a la pregunta de investigación, sin embargo, es recomendable evaluar la influencia de los costos por agilizar las maniobras ya que, si bien si se logra minimizar los tiempos de carga y descarga, pero se debe de hacer una inversión en equipos para el manejo de cargas, como el patín hidráulico y los pallets.
Sánchez Guerrero Brenda Anaid, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes

PROYECTO DE PROPUESTA DE EMPRESA DE VINO Y DIMENSIONAMIENTO DE PÁNELES PARA SU FUNCIONAMIENTO


PROYECTO DE PROPUESTA DE EMPRESA DE VINO Y DIMENSIONAMIENTO DE PÁNELES PARA SU FUNCIONAMIENTO

Sánchez Guerrero Brenda Anaid, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

Se analizan los procesos del sector vitivinícola para estudiar las necesidades energéticas en cada etapa y las opciones de usar un sistema fotovoltaico. Al desarrollar adecuadamente el diseño de sistemas de captación es necesario conocer una serie de características de la empresa, principalmente la cantidad de consumo energético que genera dicha empresa. Este proyecto tiene la intención de dimensionar e implementar páneles solares en una empresa vinícola, logrando que dicha empresa funcione por medio de energía generada a partir de radiación solar, por consiguiente, implicando un ahorro de consumo energético y más aún un gran avance para la sociedad, al implementar tecnologías sustentables, garantizando un beneficio económico y ecológico. Se pretende resolver principalmente el problema del alto consumo energético en el sector empresarial vitivinícola, así como también el alto índice de contaminación mediante la energía eléctrica utilizada actualmente, convirtiendo así una empresa sustentable y ecológica, trayendo consigo beneficios a la sociedad y el medio ambiente.



METODOLOGÍA

El proyecto se describe por medio del planteamiento de una idea, búsqueda de investigaciones científicas previamente estudiadas, por consiguiente, el contenido sumamente estructurado y plasmado en objetivos a cumplir, así como la recolección e interpretación cuantitativa de los resultados a obtener, sin recurrir a la implementación. Se lleva a cabo la recolección de datos de la maquinaria necesaria en el sector empresarial vinícola, los cuales fueron sometidos a un cálculo con datos de producción de una empresa ya determinados y por consiguiente un segundo cálculo con la implementación de maquinaria e iluminación a dimensionar. En consecuencia, además del cálculo estimado de consumo energético al dimensionar el sistema de páneles se realiza otro cálculo de la irradiación que existe en el área donde serán instaladas mediante información proporcionada por la NASA, calculando las horas que más serán suministradas de energía solar hacia el sistema, obteniendo así, una mayor precisión de la cantidad de páneles a ser dimensionados. Además de una técnica para el dimensionamiento de los páneles se elabora un plano de distribución de planta para su diseño e implementación, por medio de un software de diseño llamado AutoCAD, con el fin de simular y obtener una previa cobertura total de las áreas.


CONCLUSIONES

En el presente trabajo se ha calculado un diseño para el dimensionamiento de un sistema fotovoltaico, el cual propone los páneles solares dimensionar deduciendo un gran ahorro en la generación de energía, así como también contar con energía independiente propia, donde solamente necesita de un mantenimiento no muy común. Sin embargo, implementar el dimensionamiento puede resultar un poco costoso, pero con el tiempo se transforma de manera eficiente en un beneficio. La importancia de suministrar empresas o instituciones con energías limpias se considera un gran prestigio ya que son manejadas como buenas prácticas y certificaciones que garantizan un desempeño satisfactorio a largo plazo. El dimensionamiento de un sistema fotovoltaico resulta muy útil ya que su diseño está implementado para utilizarlo en azoteas y no requieren de espacios adicionales. Además, existe la posibilidad de implementar páneles con baterías que sean capaces de almacenar energía cuando las radiaciones solares no sean favorables. Para lo cual se llego a la conclusion que en una empresa con un consumo de 6400 kw/ dia se necesitan 4903 páneles para suministrar totalmente el consumo de energia diario utilizado en una jornada laboral de 8 horas. Los resultados muestran el número de páneles que se necesitan en la empresa de acuerdo al consumo eléctrico consumible en una empresa y considerando otros factores, así como la ubicación de la empresa.
Sanchez Hernandez Iran Armando, Instituto Tecnológico de Zitácuaro
Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior

MACHINE LEARNING


MACHINE LEARNING

Mendoza Lozada Jesus Alberto, Instituto Tecnológico de Toluca. Olivas Mendoza Daniela, Instituto Tecnológico de Ciudad Juárez. Reyes Rivera Joel, Instituto Tecnológico de Culiacán. Sanchez Hernandez Iran Armando, Instituto Tecnológico de Zitácuaro. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior



PLANTEAMIENTO DEL PROBLEMA

El consumo de los recursos naturales es una actividad de la vida cotidiana que ha recibido gran atención a partir del siglo XV. De manera posterior, se hicieron comunes los discursos académicos y empresariales relacionados con el consumo sostenible haciendo énfasis en lo moral, normativo e individualista, pero con mayor énfasis en los últimos 40 años, debido al aporte de ciencias como la sociología, antropología, historia, entre otras. A este modelo, no se le ha prestado la debida atención que realmente requiere en comparación con las connotaciones que podría implicar una crisis ambiental en términos de la escasez hídrica que producen los cambios climáticos. Debido a la negligencia que se le ha dado a este problema han surgido discursos y propuestas del consumo verde, pero realmente no son soluciones a esta problemática, puesto que solo se dedican a la mercadotecnia y no a fomentar los valores humanos. Una alternativa de solución es la aplicación de metodologías matemáticas y de ingeniería, qué, una vez analizando tus patrones de comportamiento y de consumo una población especifica pueda entrenar un módulo automático de reconocimiento a los consumidores del servicio público de agua como herramienta que permite establecer conductas de consumo sostenible en los hogares de la región, así como una conducta de cuidado con el medio ambiente. En el presente trabajo se pre-procesa una base de datos previamente adquirida con información relevante sobre el consumo hábitos, percepciones y realidades de habitantes de la ciudad de Pereira, así como también se desarrolló una herramienta estandarizada que permite clasificar a los consumidores de los servicios públicos de la ciudad de Pereira, basados en la teoría del consumo sostenible y técnicas de aprendizaje de máquina. Específicamente, se realiza un enfoque de aprendizaje supervisado y otro no supervisado para evaluar las ventajas y dificultades de cada metodología. Gracias a la obtención de outliers, clusters y gráficas comparativas relativas a las conductas de consumo actuales entre los habitantes de la ciudad de Pereira, se puede plantear una base sólida para la implementación de un siguiente nivel, el desarrollo de un enfoque de identificación automático de perfiles de consumo basado en aprendizaje de máquina,  una herramienta de mucha utilidad para las empresas de servicios públicos, ya que se contaría con un aplicativo de monitoreo, seguimiento y control a usuarios irresponsables, de modo que se puedan tomar medidas correctivas en casos extremos.



METODOLOGÍA

1. PREPROCESAMIENTO DE LA BASE DE DATOS. En esta etapa se realizó un análisis descriptivo preliminar para descartar respuestas no relevantes, datos atípicos, y su conversión de valores alfabéticos a valores alfanuméricos. Asimismo, se etiquetaron las entradas de la base de datos de acuerdo con la rotulación otorgada por un experto, que comprende tres categorías: consumidor responsable, consumidor medianamente responsable y consumidor no responsable. Una vez procesada la base de datos, se utilizó para el entrenamiento de algoritmos de reconocimiento de patrones. 2. IMPLEMENTACIÓN DE MÓDULO DE APRENDIZAJE SUPERVISADO. Se desarrolló una metodología basada en técnicas de aprendizaje de máquina supervisado para la identificación de perfiles de consumidores de acuerdo con la teoría del consumo sostenible. De esta manera, se implementaron estrategias de aprendizaje supervisado tales como clasificadores simples (Bayesiano lineal, Bayesiano cuadrático, K vecinos más cercanos) y clasificadores complejos (Máquinas de soporte vectorial y Procesos Gaussianos). 3. IMPLEMENTACIÓN DE MÓDULO DE APRENDIZAJE NO SUPERVISADO. Se desarrolló una metodología basada en técnicas de aprendizaje de máquina supervisado y no supervisado para la identificación de perfiles de consumidores de acuerdo con la teoría del consumo sostenible. Puesto que se contó con datos que relacionan distintos tipos de variables, se implementaron estrategias de aprendizaje no supervisado para robustecer la metodología. De esta manera se hallaron patrones a partir de algoritmos de agrupamiento (K medias, mezcla de Gaussiana con inferencia Bayesiana, agrupamiento jerárquico). 4. VALIDACIÓN LOS MÓDULOS DE APRENDIZAJE. Para validar las estrategias implementadas en las etapas anteriores se emplearon métricas de rendimiento como la precisión, la dispersión, curvas ROC, especificidad y sensibilidad sobre los resultados que se obtengan a partir del perfilado de los consumidores.  


CONCLUSIONES

El aprendizaje automático es un campo de la informática que da a las computadoras la capacidad de aprender sin estar programado explícitamente en esta investigación se implementó la base de datos para poder aplicarle un análisis descriptivo de datos no relevantes para posteriormente analizar las diferentes técnicas de aprendizaje máquina(Módulo de aprendizaje supervisado, Módulo de aprendizaje no supervisado) y así desarrollar una metodológica ideal que nos permita realizar la identificación de los perfiles que buscamos de acuerdo con la teoría de consumo sostenible, para validar las estrategias implementadas en las etapas anteriores se emplearon métricas de rendimiento como la precisión, la dispersión, curvas ROC, especificidad y sensibilidad sobre los resultados que se obtengan a partir del perfilado de los consumidores. Se desarrolló un aplicativo en Python que articula los módulos de pre-procesamiento de datos, así como los de aprendizaje. Este aplicativo permite visualizar información respecto a la población de consumidores, relacionándolos en términos de sus hábitos de consumo
Sánchez López Camilo Alejandro, Instituto Politécnico Nacional
Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo

PROTOTIPO DE BLOCK ECOLOGICO A BASE DE TEREFLALATO DE POLIETILENO


PROTOTIPO DE BLOCK ECOLOGICO A BASE DE TEREFLALATO DE POLIETILENO

Sánchez López Camilo Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Los estragos que genera la contaminación ambiental son cada vez más notorios y debido a esto se analizan más las alternativas para poder cambiar esta situación. Según cifras del INEGI, México ocupa uno de los principales lugares en producción de desechos, cifras como 102, 887,315 en 2014 de residuos sólidos urbanos recolectados, además de ser el primer lugar en el consumo de botellas plásticas generadas. El plástico es un material que los podría sustituir ya que al utilizarlo en la construcción reduciría el impacto generado por utilizar materiales pétreos y así mismo ayudar con la reutilización del plástico que ha servido esencialmente al ser humano por su bajo costo de producción y porque suple el consumo masivo de materiales extraídos de los minerales terrestres. Al ser un material altamente utilizado en México, se plantea la idea de reutilizar este producto que comúnmente termina en calles, parques, ríos, etc., para darle un segundo uso enfocado en la industria de la construcción originando materiales alternativos como este block ecológico que podría disminuir el impacto ambiental generado.



METODOLOGÍA

El desarrollo de esta investigación es descriptivo pues únicamente se describen la información recabada de este prototipo. Para la obtención de información se hizo mediante una búsqueda exhaustiva de blocks ecológicos en distintas fuentes de información como; artículos de divulgación, páginas web, etc. Un estudio realizado por la Universidad Piloto de Colombia explica sobre el desarrollo de ecoblock realizado a base de PET. Los usos de este material son para mampostería estructural en zonas rurales, debido a que las características, así como su costo de producción lo hacen ideal para aplicación en estas zonas. Los materiales que se utilizaron fueron botellas de PET, arena de peña, grava, cemento y una microfibra sintética que gracias a sus características aportó mayor adherencia y resistencia al prototipo. Este tipo de fibras son utilizadas para sustituir las fibras de acero. Para el proceso constructivo, se inicia con el llenado de los envases de PET con materiales no biodegradables. Posteriormente se humectó el molde con aceite quemado para que la mezcla no se pegara. Después de haber llenado las botellas se compactaron con una varilla y fueron agrupadas en 3 con una malla y se usó la fibra en la mezcla para lograr una mejor resistencia. En el proceso de fundición, el envase de PET se encontraba dentro del ecoblock (mezcla), después se humedecieron para realizarse de nuevo pruebas de laboratorio para poder determinar así sus características finales. Otro proyecto de block ecológico realizados por la BUAP reduce el uso de aditivos como el cemento y según estudios supera al block tradicional pues mejora los años de vida de este material, se habla de una duración de 65 años de promedio de vida de una casa. Realizaron 3 prototipos en los que a cada uno se le adicionó cierta cantidad de PET en lugar de arena; el primero fue con 7 porciento, 20 y 25 por ciento   respectivamente, sin embargo, el ecoblock que calificó las pruebas realizadas fue el de 25 porciento.   Las ventajas que prueban sobre la utilización de ecoblocks son: Mayor resistencia al exterior. Más ligero que el producto convencional. Resistencia al fuego. Bajo costo de producción. Se reduce el impacto ambiental. Disminución de emisión de contaminantes en su proceso de producción. Se incita al reciclaje. Las normas que se deben de emplear para cumplir con los requerimientos del producto es la NOM-C-404-ONNCCE, pues nos habla de la resistencia a la compresión establecida. Además de la norma NMX-C-037-1986 ratificada en 2017 en la que se verifica la capacidad de absorción de agua de los ladrillos, bloques y tabicones, dependiendo la zona rural en la que se A pesar de las pruebas que se han realizado a los prototipos, no se habla sobre la capacidad que tienen para ser usados en zonas de alta sismicidad que garanticen la seguridad de la construcción, además que solo se especifica que su uso es en casas de zonas rurales. Esto nos abre un gran panorama de estudio para lograr un ecoblock ideal para las características de estas zonas.    


CONCLUSIONES

La estancia del verano virtual fue una gran experiencia para conocer y aprender conocimientos teóricos sobre la utilidad que se le puede dar a los desechos del PET como los envases o bolsas que son arrojados a la vía pública, ríos y mares, en este caso en la industria de la construcción en la que se propone la realización de un ecoblock realizado con este material. Aunque no se pudo determinar un tipo de ecoblock que cumpliera con las características necesarias para ser empleado en zonas sísmicas o de suelo inestable, esto habré en gran panorama de estudio para encontrar el producto perfecto que cumpla con estos requerimientos. Por otro lado, en el tema de la contaminación, este proyecto contribuye de gran forma, por ejemplo, en la reducción de emisión de CO2, además de la conciencia de reciclar los envases y envolturas de PET para darles un uso enfocado a un material que se sigue usando en diversas partes no solo de país, sino del planeta.  
Sánchez Osuna Dania Lorena, Universidad Politécnica de Sinaloa
Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

LA CAPACITACIóN COMO ELEMENTO CLAVE DE LA IMPLEMENTACIóN Y EL SOSTENIMIENTO A LP DE LA METODOLOGíA 6 SIGMA


LA CAPACITACIóN COMO ELEMENTO CLAVE DE LA IMPLEMENTACIóN Y EL SOSTENIMIENTO A LP DE LA METODOLOGíA 6 SIGMA

Correa Rojas Vianey Ernestina, Universidad Politécnica de Sinaloa. Salazar Aguilar Karina, Tecnológico de Estudios Superiores de Valle de Bravo. Sánchez Osuna Dania Lorena, Universidad Politécnica de Sinaloa. Vanegas Ramírez Eva María, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La presente investigación se centró en conocer las buenas prácticas documentadas de la implementación de seis sigma en los sectores de industrial y de servicio, desde el punto de vista Nacional e Internacional, asimismo diseñar un instrumento que permita concentrar el uso de herramientas de la metodología en sus etapas y analizar la línea base inicial y el alcance de la misma al implementar la metodología seis sigma, todo ello en un muestreo de empresas. Por lo que, el problema que se abordó en la investigación fue atender la falta de instrumentos de dominio público para implementar la metodología 6 sigma en las empresas, de manera sencilla y práctica.



METODOLOGÍA

La metodología es de tipo cualitativa, ya que la intención fue conocer la difusión de la metodología seis sigma como estrategia competitiva de las empresas, contiene una revisión de 50 marcos teóricos de artículos científicos las buenas prácticas de calidad seis sigma documentadas a nivel nacional e internacional. Asimismo, investigar sobre el papel de la capacitación como estrategia clave en la implementación y sostenimiento a Largo Plazo de seis sigma. Posteriormente revisar un instrumento previo de análisis de la metodología seis sigma, para proponer un rediseño más funcional.


CONCLUSIONES

Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de la metodología seis sigma a nivel nacional e internacional. Asimismo, un instrumento rediseñado para analizar la implementación de la metodología y el desarrollo de las herramientas. Finalmente se obtuvo un borrador de un artículo de divulgación sobre el papel de la capacitación como estrategia clave en la implementación y sostenimiento a largo plazo de seis sigma.
Sánchez Ramírez Nicolás de Jesús, Universidad de La Salle Bajío
Asesor: Mg. Royer David Estrada Esponda, Universidad del Valle

LA INTERACCIóN HUMANO COMPUTADOR EN EL CURRíCULO DE LAS INSTITUCIONES DE EDUCACIóN SUPERIOR DE MéXICO


LA INTERACCIóN HUMANO COMPUTADOR EN EL CURRíCULO DE LAS INSTITUCIONES DE EDUCACIóN SUPERIOR DE MéXICO

Cabrera Reynaga Gerardo Javier, Universidad de La Salle Bajío. Muñoz Rodríguez Jonathan Eduardo, Universidad de La Salle Bajío. Rodríguez Torres Luis Daniel, Universidad de La Salle Bajío. Sánchez Ramírez Nicolás de Jesús, Universidad de La Salle Bajío. Asesor: Mg. Royer David Estrada Esponda, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Los procesos de interacción que se dan entre los seres humanos y los sistemas informáticos que se desarrollan con el fin de contribuir a la satisfacción de diferentes actividades que dichos humanos realizan, representan un reto desafiante en el ámbito de varias temáticas, por ejemplo, la ergonomía, la accesibilidad y la usabilidad. Un ejemplo de dichos sistemas informativos están en el ámbito de las tecnologías de la información y la comunicación (TIC), que gracias a su aumento significativo han generado que se desarrollen servicios que potencialmente pueden transformar la vida de los usuarios, sin embargo dichos servicios o utilidades generalmente disponibles en internet son complejos y poco usables para un porcentaje de la sociedad. Por lo anterior, una de las áreas de estudio en el contexto de las ciencias de la computación es la Interacción Persona-Ordenador (Human-Computer Interaction o HCI en inglés o IPO en español), y en ese contexto figuran importantes cuerpos de conocimiento que incluyen la IPO/HCI como una arista importante en cualquier proceso en el ámbito de la Ingeniería de Software, este es el caso de SWEBOK, el cuerpo de conocimiento de la ingeniería de software que dedica un capítulo completo relacionado con la HCI. Paralelamente, el informe de ACM/IEEE-CS Joint Curricullum Task Force Computing Curriculla propuso al área de IPO/HCI como una de las nueve áreas de la formación del profesional de informática. También existen syllabus que buscan guiar la enseñanza de conceptos y por tanto la adquisición de habilidades en el contexto de la IPO/HCI. Sin embargo, aún no hay conceso sobre las múltiples temáticas que podrían incluirse en cursos de IPO/HCI y  por tanto lineamientos sobre cómo enseñar esas temáticas.



METODOLOGÍA

Con el propósito de identificar la cantidad de universidades mexicanas con programas que ofrecen asignaturas relacionadas con la IHC/IPO, User Experience, Customer Experience, Usabilidad y Accesibilidad, y que son importantes para que desde la formación de profesionales en ingeniería de sistemas se aborden temas, prácticas y conocimientos que contribuyan con la calidad de sistemas informáticos, su adecuada implementación en sectores productivos y la comodidad de uso para los usuarios finales, la investigación que aquí se presenta inició con un enfoque exploratorio, este tuvo por objeto abordar problemas de investigación poco estudiados o incluso problemas que nunca han sido objeto de estudio en contextos específicos. Adicionalmente, por lo general dicho enfoque contribuye a determinar tendencias e identificar relaciones potenciales entre variables.  


CONCLUSIONES

Una vez revisados los portales institucionales de las universidades mexicanas, se encontró que de las 5.343 universidades activas para el 2019, 1.266 ofrecen programas académicos de licenciatura profesional o tecnológica relacionadas con la Ingeniería de sistemas, Ingeniería informática y en general programas asociados al campo amplio de formación académico Tecnología de la Información y Comunicación. De las 1.266 universidades con oferta de los programas mencionados anteriormente, 539 tienen en sus planes de estudio asignaturas relacionadas con la HCI/IPO, 215 no tienen ninguna relación y en 512 universidades no fue posible realizar la verificación ya que los planes de estudio no estaban disponibles o incluso los portales institucionales de las universidades tampoco lo estaban.  Para complementar la fase de revisión se realizaron consultas en cuatro plataformas tecnológicas relacionadas con la publicación de vacantes, para ello se usaron palabras claves que fueron refinadas gracias a la revisión de los planes de estudio realizada. La Figura 4 refleja los resultados por cada plataforma. Las palabras claves usadas fueron UX, UI, Usabilidad, Diseño de Interacción, entre otras.
Sánchez Rojas Félix Alexis, Instituto Tecnológico de Zitácuaro
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA


MEJORA CONTINUA DEL PROCESO DE RESINACIÓN CON METODOLOGÍA LEAN SEIS SIGMA

Casas Frutis Liliana, Tecnológico de Estudios Superiores de Valle de Bravo. Garcia Medina Andrea, Tecnológico de Estudios Superiores de Valle de Bravo. Gómez Arroyo Anel Michel, Tecnológico de Estudios Superiores de Valle de Bravo. Pineda Ortiz Guadalupe Marlen, Tecnológico de Estudios Superiores de Tianguistenco. Sánchez Rojas Félix Alexis, Instituto Tecnológico de Zitácuaro. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

Se observó que en el área de trabajo de la empresa UUMBAL, el no tener controlado los lotes en producción conlleva a tener una variación en la productividad mensual de la plantación, teniendo un impacto significativo en las metas planificadas. La empresa consideró oportuno los estudios de calidad en su proceso para optimizar los tiempos de recolección, tiempo efectivo de trabajo, recursos humanos y distintos costos de herramientas, para consigo mejorar su capacidad de estrías y aplicación de pastas ante los factores cambiantes del entorno, utilizando diferentes metodologías, para saber qué problemas se presentan en cada localización o subproceso, así mismo identificar los factores que intervienen en el estriado y cosecha de pino para generar alternativas que ayuden a tener una meta más alta de recolección.



METODOLOGÍA

Se desarrolló una investigación no experimental, la cual se basa en variables que ya ocurrieron o se dieron en la realidad sin intervención directa del investigador, es de tipo cualitativa ya que con la recolección de datos que se tiene se pretende analizarlos para la comprobación de hipótesis y es un estudio correlacional ya que la investigación es conducida en lugar de la experimentación por la relación estadística causal entre las variables. Con datos sobre el proceso de resinación de la empresa UUMBAL se realizó un diagnóstico en el proceso de resinación aplicando un Mapa de Cadena de Valor (VSM) para identificación del flujo de materiales, la información desde el proveedor, proceso y cliente, plasmando las actividades productivas para identificar la cadena de valor y detectar donde se producen desperdicios durante el proceso, se identificaron dos cuellos de botella, el primero fue en la parte de la aplicación de pasta, ya que dicho proceso es de 7 días para posteriormente realizar la cosecha de resina y el segundo fue en el almacén final, ya que la resina que llega se queda en resguardo para posteriormente ser enviada a Grupo Allen. Se empezó con la aplicación de la metodología de Seis Sigma,en la etapa 1 se realizó un diagrama de Ishikawa, se observó que la mayoría de los problemas que existen en el proceso de resinación son generados a raíz de la mano de obra ya que no cuentan con las capacitaciones pertinentes para realizar sus tareas, así mismo el rendimiento es afectado por factores como la disciplina o habilidades con las que cuentan. Con la finalidad de hacer un análisis minucioso y preciso de las problemáticas detectadas se elaboró un diagrama de Pareto, examinándolo se aprecia que hay 4 causas principales asociadas al proceso de resinación, las cuales son; herramientas, EPP no requisitado, habilidades, capacitación y experiencia del colaborador. Estas representan el 20% del total de las causas que afectan al rendimiento y calidad del estriado, es necesario hacer énfasis a dar solución a estas causas detectadas, ya que resolviendo esto se elimina el 80% de las afectaciones en el proceso. En la etapa 2 se elaboró un histograma con los datos de producción, en el cual se observa el rendimiento de estriado mostrando un histograma tipo binomial, la desviación indica variabilidad en la producción de estrías ya que hay colaboradores que están realizando entre 800 estrías mientras que otros hacen hasta 1400. Se hizo un diagrama de caja y bigotes para mostrar la distribución de los datos y dio como resultado que no se está cumpliendo con la producción, debido a que la media de los datos es 1096.25 y la producción requerida es de 1200, asi mismo se encuentran 2 datos atípicos uno de 657 y otro de 1581 los cuales pueden ser atribuibles a algunas de las principales causas que se encontraron en los diagramas de Ishikawa y Pareto. En la etapa 3 con referencia al análisis de la capacidad del proceso en donde se cuenta con varios lotes de producción de pino híbrido y caribean, especialmente la resina que es el proceso que nos interesa, en la etapa 2 se determinó la capacidad del proceso en donde se evidencia que el proceso no es estable debido a que no cumple con el rendimiento de trabajo por colaborador asignado por jornada, derivado de esto se requiere un ajuste en la capacidad del proceso, es decir, establecer la contratación de nuevo personal o disminuir el rendimiento establecido a través de un buen estudio de tiempos y movimientos con la finalidad de llegar a las metas establecida de producción por año de la empresa UUMBAL. Con relación a la etapa 4, se genera un área de oportunidad en donde se establece un diseño de experimento de varios factores incluido un análisis de varianza de 2 factores, donde se determina áreas de mejora para maximizar la producción de resina aprovechando los recursos con los que cuenta la empresa. Por último en la etapa 5 se planteó el control de los datos de producción aplicando un control estadístico de procesos, que permita el monitoreo de la información para el desarrollo de proyectos de mejora que permitan eficientar las actividades de resinación dando como resultado mayor producción de resina.


CONCLUSIONES

Con la implementación del proyecto de mejora al proceso de resinación, se logró identificar áreas de oportunidad para aumento de la productividad utilizando los mismos recursos. A través de este análisis se logró observar el comportamiento de los colaboradores de campo, evaluando su rendimiento operativo, estableciendo parámetros muy puntuales de mejora, derivados de las causas potenciales encontradas con la aplicación de metodologías de calidad y herramientas estadísticas que coadyuvaron a la propuesta de proyectos de mejora integral. Por lo tanto se concluye que la hipótesis desarrollo de la metodología y herramientas de Lean Seis Sigma en el proceso de extracción de resina y cosecha de pino hibrido y caribean, se logrará eficientar la productividad y mejora del proceso de resinación durante un cierto periodo de tiempo, coadyuva para maximizar la producción y mejora del proceso de resinación en la empresa UUMBAL agroforestal.
Santamaría Sánchez Carmen, Instituto Tecnológico de Ciudad Altamirano
Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero

ANáLISIS, DISEñO E IMPRESIóN 3D


ANáLISIS, DISEñO E IMPRESIóN 3D

Pablo Mondragon Daycy Rubi, Instituto Tecnológico de Ciudad Altamirano. Santamaría Sánchez Carmen, Instituto Tecnológico de Ciudad Altamirano. Asesor: Dr. Giovani Martinez Hernandez, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

Las personas pueden perder todo o parte de un brazo o una pierna por varias razones. Las más comunes incluyen: Problemas de circulación. Estos pueden ser resultado de la ateroesclerosis o la diabetes. Los casos severos pueden requerir una amputación, lesiones; incluyéndolas por accidentes de tráfico y por combate militar, Cáncer o defectos congénitos. Algunos amputados sufren de dolores fantasmas, que es la sensación de dolor en la extremidad ausente. Otros problemas físicos incluyen complicaciones por la cirugía y problemas de la piel, en el caso de que use una extremidad artificial. Muchos amputados utilizan las extremidades artificiales. Aprender a usarlas requiere tiempo. La fisioterapia puede ayudarlo a adaptarse. La recuperación tras perder una extremidad puede ser difícil. Sentir tristeza, rabia y frustración es común. El tratamiento con medicina o con terapia puede ayudar. Durante este verano de investigación se estudiará sobre qué beneficios conlleva el poder recuperar una extremidad pérdida, por amputación o nacimiento, principalmente. Así como la calidad de vida de las personas con pérdida de extremidad puede ser mejor con la ayuda de la innovación e impresión 3D. Es decir, con la información recabada haremos una prótesis así mismo con ayuda de un prospecto que le haga falta una extremidad de su cuerpo. Una prótesis es una extensión que remplaza o provee una extremidad del cuerpo que hace falta por diversas razones.



METODOLOGÍA

En este presente trabajo de investigación, se utilizó el: Análisis, diseño e impresión en 3D. Se analizaron los requerimientos necesarios para iniciar la elaboración de la prótesis de mano, medidas de la extremidad a desarrollar, edad del prospecto, etapa de su desarrollo biológico, características físicas, hábitos personales, tipo de uso de la prótesis; además de otros datos necesarios para poderla crear. Con ayuda de una encuesta y de un prospecto pudimos llevar acabo lo antes mencionado. Quedando en claro que nos otorgó el permiso con la carta de consentimiento informado. Después se llevó la parte del diseño, donde antes de diseñar investigamos el software para el diseño de piezas en 3D. Así que encontramos el software Tinkercad, que es un software en línea super sencillo y eficaz para hacer diseños e imprimir en 3D. Nuestro investigador nos capacitó para realizar un diseño y después poderlo imprimir. Una vez que nos dio la capacitación, elaboramos (diseñamos) piezas nosotros mismos y se lo hicimos llegar a nuestro investigador. Por último, se hicieron ajustes al diseño de las piezas y configuramos las medidas para poderlas imprimir en 3D.


CONCLUSIONES

Durante la estancia de investigación adquirimos conocimientos teóricos de las enfermedades  neurodegenerativas y ponerlo en práctica con las técnicas de análisis morfológico de las neuronas. Además con ayuda del material de trabajo obtuvimos nuevos conocimientos acerca de cómo realizar investigaciones científicas o con el objetivo de un análisis médico. Así mismo, conocimos la vida que llevan las personas que les hace falta alguna extremidad de su cuerpo. Encontramos un prospecto para la realización de este proyecto, aunque no solo es de decidir, si no que le realizamos una encuesta sobre su forma de vida además tomamos las medidas de su mano y de los dedos faltantes, y de acuerdo a los resultados obtenidos además de la capacitación que nos dio nuestro investigador acerca de Diseñar modelos en 3D, llevamos a la práctica lo aprendido en esta investigación. Es decir, realizamos la prótesis de mano a medida del prospecto de manera exitosa. La prótesis es de gran beneficio para el prospecto ya que le permitirá realizar las actividades que antes no podía realizar por falta de sus extremidades. Por último, las características principales de la mano impresa 3D que nos podrían ser útiles para el desarrollo de la prótesis serían: su ajuste en la mano, su poco peso y rigidez.
Santin Olivares Daniela Xcanleox, Instituto Politécnico Nacional
Asesor: M.C. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas

MORTERO FUNCIONAL PARA LA CONSTRUCCIóN CON TIERRA: PRUEBAS DE REMOCIóN DE ION CLORURO


MORTERO FUNCIONAL PARA LA CONSTRUCCIóN CON TIERRA: PRUEBAS DE REMOCIóN DE ION CLORURO

Martínez López Carlos Eliel, Instituto Politécnico Nacional. Padilla Muñoz Karen Dali, Universidad Autónoma de Sinaloa. Santin Olivares Daniela Xcanleox, Instituto Politécnico Nacional. Asesor: M.C. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

​La construcción con tierra es una técnica que está tomando relevancia en la época actual debido a las condiciones de contaminación inherentes a la construcción denominada tradicional con concreto y acero. Este tipo de construcciones tienden a aplicar técnicas modernas de estabilización de los materiales para aumentar su vida útil o su resistencia mecánica. Además, se ha buscado cierta funcionalidad en los elementos constructivos, como mejoras en la conductividad térmica, aislamiento sonoro o reducción del crecimiento de microorganismos al interior de las viviendas. Con el fin de hacer prevalecer el uso de materiales orgánicos biodegradables, el reforzamiento y funcionalidad de estos materiales considera el uso de elementos de origen vegetal como fibras de diferentes plantas o la adición de extractos. En este trabajo, se realizó una prueba de interacción roca-fluido con el objetivo de analizar la capacidad de remoción del ion cloruro en núcleos de arena y su comparativo reforzado con cal y cemento, adicionando dos diferentes materiales de origen orgánico. El mucílago de nopal es un material empleado para mejorar la resistencia mecánica de los elementos constructivos con tierra y ha sido ampliamente estudiado en conjunto con otros elementos orgánicos. El extracto de rábano es un material que hasta ahora no ha sido empleado en la construcción pero que ha sido empleado en diferentes aplicaciones sobre todo en el área de la microbiología y uso de antioxidantes. En investigaciones previas se ha demostrado la capacidad del extracto de rábano y las antocianinas contenidas en el, para reducir la materia orgánica en cuerpos de agua, si eficacia como agente antimicrobiano, así como su capacidad de remoción del ion cloruro. El objetivo de esta investigación fue determinar si la adición del extracto de rábano en un mortero de tierra estabilizado con cal y cemento y reforzado con mucilago de nopal, logra tener interacción con los iones cloruro en medio acuoso.



METODOLOGÍA

En este trabajo, se empleó el sistema Home Lab(laboratorio en casa) para realizar pruebas de remoción de ion cloruro en medio acuoso a partir de mezclas salinas con cloruro de sodio en hasta 3500 ppm. El medio solido representativo constó de núcleos conformados como sigue: arena, arena + cal, arena + cemento y arena + cal + cemento. Adicionalmente se obtuvieron extractos de rábano y de mucilago de nopal. El mucílago de nopal se obtuvo por tratamiento térmico y licuefacción de nopal de consumo y el extracto de rábano se obtuvo por tratamiento ácido y licuefacción. El mucílago de nopal fue empleado como aglutinante en las mezclas y se variaron las adiciones de extracto de rábano para determinar su efecto en la interacción sólido-líquido. Los núcleos se prepararon con adiciones de 10, 20 y 30 mL de extracto de rábano y las pruebas de interacción se realizaron con agua destilada (como blanco) y mezclas salinas preparadas con 3500 ppm teóricas de cloruro de sodio (NaCl). Las pruebas de interacción se siguieron cada 10 minutos por periodos de 1 h y se determinó el contenido de sólidos disueltos totales (SDT) con sensor TDS portátil. El objetivo fue observar una disminución de las partes por millón de SDT a través del tiempo, con la hipótesis que la presencia del extracto de rábano y la porosidad del material promovería este efecto. Los resultados arrojaron que la presencia de cal y/o cemento en la mezcla promueve la adición de sólidos disueltos en la mezcla salina, que es lo contrario al efecto buscado. Además, en las pruebas de blanco, sin la presencia de ion cloruro, el efecto de interacción fue menor que en presencia de este ion, es decir, en agua sin NaCl la cantidad de SDT fue mucho menor que en el resto de las pruebas.


CONCLUSIONES

La idea original del proyecto era trazar la presencia del ion cloruro en el medio acuoso empleando el método de Mohr de titulación. Sin embargo, por las condiciones de pandemia, lo más viable fue dar seguimiento a los sólidos disueltos totales (ppm) presentes en dicho medio. Aunque los resultados no comprueban la hipótesis y no se logra el objetivo buscado, se puede concluir que efectivamente el material adicionado con mucilago de nopal y extracto de rábano presenta cierta interacción con los iones disueltos en el agua y que además, existe un comportamiento muy especifico que hasta el momento no puede referirse a la no remoción del ion cloruro, si no a la aparición de sólidos disueltos en el agua, que bien pueden deberse a la presencia de los materiales orgánicos o a la presencia misma de los agregados. Este trabajo debe concluirse aplicando la metodología del método de Mohr para verificar el comportamiento de la presencia de los iones cloruros y observar que es lo ocurre con estos iones presentes en el agua. Además, se debe completar la prueba realizando el análisis microbiológico para determinar si la propiedad antimicrobiana también se aprecia en este tipo de muestras y concretar la factibilidad del uso del extracto de rábano en morteros para interiores de vivienda. La idea principal del trabajo fue poder desarrollar evidencia de la capacidad de estos materiales para la remoción del ion cloruro y poder emplearlos en sistemas constructivos que se encuentran sometidos a ambientes salinos. Hasta ahora se puede abordar una idea general a partir de los resultados obtenidos: la presencia de agregados finos reduce la porosidad del material y por lo tanto reduce su capacidad de interacción por reducción de área superficial activa, sin embargo, la presencia de los agregados finos produce una evolución de los sólidos disueltos, lo que significa que puede existir un intercambio iónico fuerte que promueve la reducción y entrampamiento del ion cloruro en el material. Durante esta estancia de verano, los estudiantes fueron capaces de aplicar sus conocimientos en el área profesional para el desarrollo de elementos constructivos, desarrollaron además habilidades científico-tecnológicas para subsanar la necesidad de un laboratorio para el desarrollo de pruebas, lo cual es ideal para su extrapolación en la solución de problemas cotidianos en el área de la investigación.
Santos Castelán Brayan Magdiel, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtra. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango

IMPORTANCIA E IMPACTO EN LAS PYMES DEL ANáLISIS DE DATOS Y POSICIONAMIENTO ONLINE


IMPORTANCIA E IMPACTO EN LAS PYMES DEL ANáLISIS DE DATOS Y POSICIONAMIENTO ONLINE

Santos Castelán Brayan Magdiel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtra. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Asesor: Ing. Carmen Jeannette  Sampayo Rodríguez,  Instituto Tecnológico Superior de Huauchinango   Estudiante: Brayan Magdiel Santos Castelán, Instituto Tecnológico Superior de Huauchinango PLANTEAMIENTO DEL PROBLEMA En la actualidad el uso de redes sociales es casi indispensable para la mayoría de los usuarios de internet a nivel mundial, un estudio realizado por la plataforma de gestión de redes sociales Hootsuite dice que el uso de redes sociales en México se ha incrementado en un 9% entre el periodo 2018-2019, con lo que ha llegado a los 83 millones de usuarios, por lo que una infinidad de servicios y negocios se han puesto al alcance de estos usuarios ofreciendo sus productos, servicios e ideas mediante publicidad en internet, la mayoría de esta en  anuncios (ads) en redes sociales. En la región Norte de Puebla el uso de campañas publicitarias en medios tradicionales es más común, desaprovechando así los millones de usuarios que podrían ver sus contenidos en redes sociales, esto se debe al miedo de perder su inversión probando suerte lanzando una campaña publicitaria y más si la persona, negocio u organización va iniciando con su proyecto y jamás ha hecho publicidad de sus productos o ideas antes. Tener presencia en internet los pondrá al alcance de todos los turistas que lleguen a municipios (en el caso de las empresas), aumentando así la economía en las regiones que hagan uso de un servicio de análisis adecuado de los datos en sus contenidos, en cuanto a las personas físicas y organizaciones pueden adaptar estos servicios de análisis de datos y posicionamiento online para obtener los beneficios que a ellos mejor les convenga, puede ser simplemente tener varías visitas en su página personal, hasta generar ingresos o conseguir seguidores de su marca personal u organización. El objetivo de la investigación es demostrar que se pueden obtener grandes beneficios invirtiendo en servicios de análisis de datos y posicionamiento online.  



METODOLOGÍA

METODOLOGÍA Para demostrar lo antes mencionado, la primera semana de la estancia se definió el tipo de alcance que se quería lograr a través del análisis de datos y posicionamiento online (explicados al inicio del documento) y no hay nada que posicionar ni datos que analizar sin antes generar contenido, para ello se decidió utilizar  el segundo motor de búsqueda más grande del mundo para publicar nuestros contenidos YouTube. La temática de los contenidos fue entretenimiento y el objetivo fue generar marca o branding (Que los usuarios conocieran la marca y se creara una comunidad en torno a ella). Para la creación de estos contenidos se utilizaron distintas técnicas para posicionamiento como el uso adecuado de etiquetas (Keywords), aprovechar un nicho que no estaba siendo explotado y que tenía gran demanda, el uso de Copywriting (El copywriting es una rama del Marketing digital) y distintas llamadas a la acción dentro del contenido. El contenido puede encontrarse en YouTube en la siguiente liga: https://www.youtube.com/watch?v=u0nDe-g6NhE. Los resultados de esta investigación arrojaron resultados más allá de los esperados, obteniendo en Julio un total de 120,000 visualizaciones y 28,000 seguidores, todo esto gracias al análisis de datos, estudio de las tendencias sobre el nicho seleccionado y un uso adecuado de llamadas a la acción. El éxito de esta investigación demuestra que las Pequeñas y Medianas empresas (PyMEs) pueden generar excelentes resultados para dar a conocer su marca, contratando servicios de análisis de datos y posicionamiento online, creando su propio contenido y generando así una comunidad entorno a su marca, obteniendo beneficios a corto, mediano y largo plazo. Contratar campañas publicitarias que solo durarán un corto periodo de tiempo no siempre es lo mejor para las PyMEs ya que una vez terminada su campaña no aseguran ventas, por lo que deberán seguir contratando publicidad cada vez que terminen sus campañas publicitarias, contratar servicios de análisis de datos y posicionamiento online para generar branding ayuda a las PyMEs a tener beneficios a corto, mediano y largo plazo, pero dependerá mucho del nicho en el que se centre la empresa y la demanda del contenido del mismo, por lo que los resultados pueden o no ser favorables para algunas empresas, sin importar que se haya hecho un buen análisis de datos y los contenidos estén bien posicionados en los motores de búsqueda.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el análisis de datos y posicionamiento online, al igual que distintas técnicas de posicionamiento online (SEO) para los contenidos creados, no obstante, se necesitaría seguir monitoreando los resultados obtenidos de dicha prueba, para seguir generando contenidos y seguir aumentando el interés en la marca, cabe destacar que sería bueno implementar estas técnicas, en otros proyectos para evaluar el desempeño de en distintas áreas como la educación y sectores mercantiles específicos.
Santos Padilla Norma Astrid, Instituto Politécnico Nacional
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

LENGUAJE DE PROGRAMACIóN EN PYTHON


LENGUAJE DE PROGRAMACIóN EN PYTHON

Santos Padilla Norma Astrid, Instituto Politécnico Nacional. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Este proyecto fue seleccionado con el objetivo de conocer una nueva programación, como es PYTHON y los beneficios que nos puede brindar y como se puede implementar, así como introducirnos a los distintos entornos de desarrollo, conocer los elementos básicos del lenguaje, compararlo con otros lenguajes de programación y así conocer algunas de sus desventajas.



METODOLOGÍA

Primero se dividieron los temas principales en diferentes semanas, para así investigar a profundidad las características de esta programación, comenzando con su origen y conocer el creador de PYTHON, después busque las áreas en donde se puede desarrollar en el área laboral como son sitios web, aplicaciones, ingenierías y ciencias. Fue necesario conocer otros tipos de lenguajes de programación para así ver sus ventajas y desventajas y hacer una comparación con la programación de PYHON. Tuve que conocer los sistemas operativos en donde este se puede aplicar y así llegar a una conclusión de cuál es la mejor opción para trabajar, esto me llevo a investigar las diversas versiones y cuáles eran las mejoras que se les aplico a cada una, por lo que la última versión adquirí diversos cambios, pero era una buena opción, Ahora que conocía diversa información de PYTHON, era necesario saber cómo se puede instalar y cuáles eran las dificultades que podía tener  Para finalizar y lo más importante conocí el lenguaje básico de PYTHON y los errores que se púen cometer a la hora de programar, pero también encontrar alguna solución.


CONCLUSIONES

Por último, en esta investigación pude adquirir varios conocimientos sobre el lenguaje de programación y todas las cosas que puedo crear con él, desafortunadamente no pudimos poner esto en práctica de manera presencial, pero fue una experiencia más que adquirí y que me gustaría implementar estos nuevos conocimientos en diversos proyectos durante mi historial escolar, con el apoyo de mi investigador y mis compañeros con los que conviví.
Secundino Espinosa Erendira, Universidad Autónoma de Guerrero
Asesor: Dr. Hector Javier Luna Wandurraga, Universidad Antonio Nariño

CREACIÓN DE UN TABLERO DINÁMICO EN POWER BI COMO HERRAMIENTA PARA EL ANÁLISIS DE LOS ENSAYOS DE BMP A PARTIR DE LOS RESULTADOS OBTENIDOS DEL PAQUETE BIOGAS DE R


CREACIÓN DE UN TABLERO DINÁMICO EN POWER BI COMO HERRAMIENTA PARA EL ANÁLISIS DE LOS ENSAYOS DE BMP A PARTIR DE LOS RESULTADOS OBTENIDOS DEL PAQUETE BIOGAS DE R

Secundino Espinosa Erendira, Universidad Autónoma de Guerrero. Asesor: Dr. Hector Javier Luna Wandurraga, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

La digestión anaerobia es el proceso biológico mediante el cual se trata la materia orgánica y se produce biogás, el cual tiene una composición de aproximadamente 60 % de metano y 40 % de dióxido de carbono. Este proceso ha tomado mucha importancia en los últimos años para el tratamiento de aguas residuales y residuos sólidos orgánicos. La digestión anaerobia hace parte de los procesos que son plataforma de las biorrefinerías y de la economía circular. El biogás hace parte de los subproductos que valorizan estos residuos y por eso toma importancia la medición y caracterización, especialmente en la composición del metano y el volumen de producción para evaluar la viabilidad de este tipo de tratamiento. Para esto se utiliza en ensayo de potencial bioquímica (BMP), el cual es usado en muchos laboratorios a nivel internacional, pero aun existe una incertidumbre sobre la estandarización y normalización del método y de los cálculos, razón por la cual es necesario realizar una normalización en los cálculos para tener un parámetro de comparación a nivel internacional.



METODOLOGÍA

Hafner . S. (2018), realizó una metodología para los cálculos de los BMP, donde realiza la normalización y esto se plasmó en un paquete del software open source R studio llamado biogas, el cual además de realizar esta normalización también utiliza diferentes funciones de R para realizar la estimación teórica de metano a partir de los cálculos estequiométricos.   Por lo anterior en este trabajo se realizó una mejora en la visualización de los datos basados en lo realizado en el paquete de R, para esto se realizaron unas modificaciones al código en R studio para la importación de los datos basados en una planilla en Excel y la exportación de los resultados a un archivo con extensión csv. Estos resultados fueron exportados a power BI, el cual es un software libre de Microsoft que se una en inteligencia de negocios y tiene como objeto el análisis de datos y la visualización de ellos por medio de un tablero dinámico. Este archivo fue cargado a power BI para tener las variables a realizar el tablero dinámico, que se realizó usando la visualización que tiene power BI para realizar un script de R, estas variables se cargaron al script y se utilizó el paquete ggplot2 de R para realizar las gráfica que en un principio son estáticas, este acoplamiento entre power BI y R permite que las gráficas realzadas en R puedan ser dinámica usando una segmentación de datos y crear un tablero dinámico en power BI y de esta forma además de realizar metodología normalizada de cálculo de los datos obtenidos de los ensayos de los BMP se puede realizar los análisis de estos datos usando el tablero dinámico y permitiendo al usuario realizar diferentes cálculos de acuerdo a sus necesidades. Este estudio se basó en los datos presentados por Hafner . S. (2018) de lo ensayos de BMP para realizar las gráficas y comprobar que el procedimiento fuera validado.


CONCLUSIONES

Como resultados se obtuvo la modificación en el código de R para la importación y exportación de los datos a Excel, además se realizó el acoplamiento de un script de R a power BI y obtener una herramienta para convertir las gráficas estáticas de R en gráficas dinámicas en power BI usando un tablero dinámico.
Sereno Mora Cristina Yolanda, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

PENETRACIóN DE IONES CLORURO A TRAVéS DE LA POROSIDAD DEL CONCRETO.


PENETRACIóN DE IONES CLORURO A TRAVéS DE LA POROSIDAD DEL CONCRETO.

Sereno Mora Cristina Yolanda, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

La corrosión es un proceso de naturaleza electroquímica que involucra reacciones de oxidación y reducción, durante este proceso en las estructuras de concreto el ánodo y cátodo se encuentran en la superficie del acero de refuerzo, por lo que el concreto actúa como electrolito (Angélica del Valle Moreno, 2001). Los daños en el concreto inducido por el medio ambiente se deben a la migración a través de la red de poros en el concreto, de agentes agresivos como cloruro (Cl-), sulfato (SO4) 2- y otros iones, así como oxígeno (O2) y dióxido de carbono (CO2) disuelto en solución de poros. Cuando estas sustancias nocivas alcanzan concentraciones críticas en la superficie del acero reforzado, comienza el proceso de corrosión. Sin embargo, en este planteamiento el tema se ocupará de la corrosión inducida por la penetración de cloruros. Por lo que el ambiente marino es uno de los más agresivos para las estructuras de concreto armado, con ello nos referimos a todas aquellas construcciones localizadas a la orilla del mar que están en contacto con este y con los iones cloruro presentes, estos penetran el concreto armado en presencia de la humedad a una cierta profundidad en su interior donde el concreto pudiera deteriorarse aceleradamente si no se toman las medidas pertinentes.



METODOLOGÍA

El material y procedimiento utilizado para el análisis de la concentración de iones cloruro mediante el método de ion selectivo se lleva a cabo a partir de la norma ASTM C 114. Para comenzar se procede a la toma de testigos que se extraen en piezas de forma cilíndrica utilizando un extractor o mediante un taladro tomando en cuenta que se tienen que hacer las reparaciones apropiadas en los lugares específicos de la toma de testigos. Una vez obtenido las muestras, se trituran y pulverizan mediante un mortero hasta hacerlo pasar por el tamiz del No. 50 (0.297 mm). Luego se pone a secar a peso constante (aproximadamente a 100 °C durante una hora) esto permite disociar los compuestos débiles y conocer el peso seco de la muestra. La correcta extracción garantizará una mayor precisión en la determinación de las concentraciones, por lo que se realiza de acuerdo a la norma ASTM C1152-90. Posteriormente se coloca 50 ml de agua destilada en un vaso de precipitado de 150 ml y agregar 50 ml de nitrato de potasio al 10% y colocar en un agitador magnético, se adiciona 1 ml de la solución de 100 ppm de CI- y se introduce el electrodo previamente enjuagado con agua destilada y seco. Se sugiere asegurar el potenciómetro y tomar la medida más estable, después adicionar 10 ml de la solución de 100 ppm de CI- y tomar la lectura más estable. La pendiente del electrodo será la primera diferencia entre la primera y segunda lectura que debe ser 56 ± 2. Asi mismo, se realizan dilaciones de la solución de 100 ppm para obtener soluciones de 10 y 1 ppm, se toman 50 ml de la solución de 1 y se adiciona los 50 ml de ajustador de fuerza iónica y se coloca en un agitador magnético. Después se enjuaga y seca el electrodo, volviéndolo a sumergir en la solución tomando una lectura estable, realizar esta operación con las soluciones de 1 y 100 ppm, a partir de ello se procede a graficar las concentraciones de los cloruros y los mV, los polvos que se obtengan serán tamizados en la malla No. 200 y pesar 2.5gr. Para la determinación de cloruros libres se deberá depositar los polvos y colocarlo en un vaso de precipitado con 100 ml de HNO3.  Luego colocar en el agitador por 10 min y dejar reposar aproximadamente 1 hora. Posteriormente se procede a filtrar y se toma 50 ml de la muestra, colocarlo en un vaso precipitado y agregar 50 ml de solución de fuerza iónica para colocarlo nuevamente en el agitador. Por último, se enjuaga el electrodo con agua destilada, secar e introducirlo en la solución con el potenciómetro y tomar la lectura más estable para compararla con la anterior, así obteniendo la concentración de CI-. Para la determinación de los cloruros totales la metodología es similar a la anterior de cloruros libres por lo que de manera general el procedimiento es el siguiente: Se tamiza los polvos en la malla No. 200 y se pesa 2.5 gr. Se deposita el polvo en un vaso precipitado y se adiciona 100 ml de ácido nítrico. Se coloca en el agitador por 10 minutos y calentar hasta 80°C, luego sedimentar por 48 hrs y proceder a filtrarlo. Del material filtrado tomar 50 ml y agregar 50 ml de ajustador de fuerza, mantener en agitación. Enjuagar el electrodo como con anterioridad e introducirlo nuevamente y colocar el potenciómetro. Tomar la lectura estable y comparar con la de calibración para obtener la concentración de Cl-. Una vez obtenidos los valores de concentración se comparan y analizan los resultados para corroborar el estado de afectación de la estructura, de acuerdo a la normativa se indica que la concentración máxima permitida de Cl- solubles en ácidos (ASTM-C1152, 2003), es de 0.10% por peso de cemento para concreto refor­zado expuesto en condición húmeda; y 0.20% por peso de cemento para concreto reforzado expues­to en condición seca, por lo que si sobrepasa dichos estándares, se da por entendido que la estructura tiene un grado de afectación preocupante y es necesario tomar las medidas necesarias para su gestión y control.


CONCLUSIONES

El proyecto se realizó con base en investigaciones previas y revisión bibliográfica por lo que se concluye que el efecto de la corrosión en estructuras de concreto es un problema común en las zonas costeras, además del daño provocado a las construcciones se generan gastos innecesarios. De esta manera se destaca que para prevenir dichas situaciones es necesario la elaboración de un concreto de calidad. Durante la estancia de verano a través de una plataforma virtual se logró el aprendizaje necesario para la realización del proyecto elegido, contribuyendo a la formación académica y profesional como estudiante de nivel licenciatura. A pesar de las dificultades tecnológicas el curso en línea se logró aprovechar de forma compleja, así mismo se destaca la participación de investigador a cargo y sus méritos para llevar a cabo la realización del curso.
Sevilla Ornelas Reyes Francisco, Universidad Tecnológica de Nayarit
Asesor: Dr. Luis Fernando Luque Vega, Universidad del Valle de México, Campus Guadalajara

PROCESO DE CREACIóN DE UN MUNDO VIRTUAL: DESDE SOLIDWORKS PARA SIMULINK


PROCESO DE CREACIóN DE UN MUNDO VIRTUAL: DESDE SOLIDWORKS PARA SIMULINK

Sevilla Ornelas Reyes Francisco, Universidad Tecnológica de Nayarit. Asesor: Dr. Luis Fernando Luque Vega, Universidad del Valle de México, Campus Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Como se sabe la industria 4.0 es la nueva gran revolución industrial, la cual consiste en la inclusión de nuevas tecnologías en la industria de producción. Esta busca implementar el internet de las cosas (IoT) para potenciar los procesos productivos, la reducción de costos, la optimización de labores y la mejora de la calidad del servicio o producto; con todas las máquinas conectadas en la red.   La pandemia de COVID-19 en México, que inició en China a finales de 2019, se suscitó a partir del 27 de febrero de 2020.[1] El primer caso confirmado se presentó en la Ciudad de México, y se trató de un mexicano que había viajado a Italia y tenía síntomas leves; pocas horas después se confirmó otro caso en el estado de Sinaloa y un tercer caso, nuevamente, en la Ciudad de México. La tragedia del coronavirus se extendió a las escuelas por lo que estas decidieron cerrar provocando la digitalización forzada de la Educación. Esto trae consigo que los estudiantes deban acoplarse a un nuevo escenario de aprendizaje y a diversas herramientas tecnológicas con el fin de dar continuidad a su formación profesional.   Más aún, debido a la situación actual de la pandemia los estudiantes no pueden asistir a los laboratorios y talleres en sus universidades para realizar las actividades prácticas   [1] colaboradores de Wikipedia. (2020, 12 agosto). Pandemia de enfermedad por coronavirus de 2020 en México. Recuperado 10 de agosto de 2020, de Https://es.wikipedia.org/wiki/Pandemia_de_enfermedad_por_coronavirus_de_2020_en_M%C3%A9xico



METODOLOGÍA

Para el desarrollo de este proyecto se propone una investigación aplicada centrada en encontrar mecanismos y/o estrategias que permitan lograr atender el problema planteado.   La propuesta de solución consiste en la elaboración de un entorno virtual para llevar un prototipo virtual hasta la casa de cada estudiante. De esta manera, el estudiante puede seguir con sus estudios teóricos y prácticos apoyándose de este mundo virtual. Esta solución representa una alternativa tecnológica que propone el trayecto para que cualquier persona pueda generar sus propios mundos virtuales y así poder adaptar el mundo virtual de acuerdo a sus necesidades. Como caso de estudio, se propone la creación de un tanque de nivel con un diseño en 3D dentro de un mundo virtual en el cual el alumno será capaz de manejar el nivel de forma manual y automática de dicho tanque.   La creación del mundo virtual del tanque de nivel involucra las siguientes 5 fases:   Fase 1.- Bosquejo del mundo virtual Este punto consistió en definir las medidas de los objetos a utilizar en el mundo virtual, utilizando las siguientes: Mesa: Superficie cuadrada de 1.5m largo x 1.5m de ancho x 1m de altura, con patas de .3 de largo x .3m de ancho x 1m de altura. Tanque: Cilindro de 3.01m de altura x 1.01m de diámetro. Contenido: Cilindro de 3m de altura x 3m de diámetro.   Fase 2.- Diseño asistido por computadora del mundo virtual haciendo uso de SolidWorks Este punto consistió en la elaboración de las piezas a utilizar en el mundo virtual, para ello se eligió utilizar como software de diseño 3D SolidWorks, tomándose las siguientes consideraciones. -Al tanque de nivel se le especificó material tipo vidrio para que de esta forma su apariencia sea de tipo transparente y sea posible ver su contenido. -Al contenido se le añadió una apariencia azul como referencia al agua, que es lo que tiene destinado simular. -A la mesa se le añadió un color blanco, con letras grabadas indicando el costado o vista en que se encuentra. Posteriormente se realizó el ensamblaje de las piezas.   Fase 3.- Configuración del mundo virtual utilizando V-Realm Builder En esta fase se realizó la exportación de nuestro ensamblaje hacia el mundo virtual V-Realm builder que forma parte del Software MatLab y su extensión de simulación Simulink, además se hizo la anidación de las piezas para que una fuera dependiente de la otra, lo anterior con la finalidad de realizar movimientos en conjunto.   Fase 4.- Programación del mundo virtual utilizando Simulink Durante esta fase se llevó a cabo el circuito de control de nuestro mundo virtual, es decir; el poder controlar el aumento del contenido que se encontraba dentro del tanque de nivel. Para este punto se utilizó un bloque llamado slider gain el cual permitirá que solo se pueda llevar el contenido de 0m a 3m, lo que significa que en 0 m está vacío el tanque y en los 3 m se encuentra a su máxima capacidad.   Fase 5.- Control manual del mundo virtual Para esta fase, haciendo uso del circuito de control hecho en el punto anterior el alumno es capaz de controlar el nivel de tanque a voluntad, es decir, decidir e ingresar los metros requeridos a donde llegará el contenido dentro del tanque de nivel.


CONCLUSIONES

Con el mundo virtual desarrollado del tanque de nivel, el alumno puede controlar manualmente el nivel del tanque. Un tanque de nivel puede aparentar ser un prototipo simple, sin embargo, tiene muchas aplicaciones dentro de la industria. La medición de nivel de un tanque no puede ser subestimada, mediciones incorrectas o inapropiadas puede causar que los niveles en los tanques industriales sean excesivamente superiores o inferiores a los valores medidos. Los niveles bajos pueden causar problemas de bombeo y dañar la bomba, mientras que los niveles altos pueden causar que los tanques se desborden y creen problemas potenciales de seguridad y ambientales. El mundo virtual es útil para analizar el comportamiento de cualquier prototipo como el tanque de nivel y nos da la flexibilidad de poder visualizar y aplicar distintas situaciones para lograr que el estudiante observe, experimente y reflexione sobre lo que está sucediendo en el mundo virtual. Es importante promover el uso de herramientas digitales como los mundos virtuales para poder adaptarnos al entorno extraordinario que estamos viviendo y aprovechar los recursos que tenemos para seguir fomentando el desarrollo de los conocimientos, habilidades y actitudes que se requieren en los nuevos empleos de Industria 4.0.
Silva Estrada Perseo, Universidad Autónoma de Tamaulipas
Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas

ANALISIS Y PROCESAMIENTO DE INFORMACIÓN DE LA PLATAFORMA TWITTER CON DATA SCIENCE PARA EXTRAER CONOCIMIENTO DE DATOS DE LOS USUARIOS.


ANALISIS Y PROCESAMIENTO DE INFORMACIÓN DE LA PLATAFORMA TWITTER CON DATA SCIENCE PARA EXTRAER CONOCIMIENTO DE DATOS DE LOS USUARIOS.

Silva Estrada Perseo, Universidad Autónoma de Tamaulipas. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Las redes sociales forman parte importante para la transmisión de información, y en las mismas publicaciones que realizamos se encuentran datos relevantes a lo que pensamos o a lo que somos afines, sin duda los datos pueden ser una herramienta con gran potencial pero estos no forman un conjunto como para convertirse en información valiosa, por lo que al realizar un conjunto de datos para su análisis y cuantificación lo hace información de valor donde a través de la estadística determinamos factores de conducta, repetición, gustos y relación con otros usuarios. Por ello en este trabajo se planteo recabar información de la red social Twitter ya que en ella mucha gente comunica de forma corta sus ideas (debido a la limitación de caracteres por post) y se presenta una forma de recolectar información en tiempo real donde se determina la ubicación del tweet, las menciones de otros usuarios y las palabras más utilizadas dentro de los tweets recolectados. Esto permite determinar de que se esta hablando en una zona geográfica determinada, y suponer las posibles inquietudes que expresan los usuarios de la plataforma, a demás de ver como la gente se relaciona a través de las menciones de otros usuarios en el mismo tweet.  Lo anterior también es aplicable a recolectar tweets dónde se mencione un término especifico, como COVID-19, y recolectar la información anterior mente mencionada.



METODOLOGÍA

La metodología empleada fue el modelo de data science donde El concepto de ciencia de los datos se define en consecuencia desde la perspectiva del desarrollo de disciplinas y cursos: por ejemplo, tratando la ciencia de los datos como una mezcla de estadística, matemáticas, informática, diseño gráfico, minería de datos, interacción hombre-computadora y visualización de la información. (2017. Longbing Cao. Página 8). Se utiliza un modelo de ciencia de datos con referencia en las dos grandes metodologías para la modelización avanzada de datos: CRISP-DM y SEMMA. El trabajo es realizado con el lenguaje de programación de Python en el entorno de desarrollo Anaconda, utilizando la API de tweeter donde se solicito un acceso a las claves para poder recabar los datos que se necesitaban para formar el dataset utilizando dos formatos de texto sencillo para el intercambio de datos: CSV (comma-separated values) y JSON (JavaScript Object Notation). Además de ello se utilizaron librerías como pandas (para la creación de un DataFrame), twython (herramientas de acceso y obtención de datos a la API de Twitter), csv (archivos de separación por comas), json (archivo de texto sencillo para intercambio de información), gmplot (dibujo de calor por ubicación geográfica), nltk (detección y análisis de lenguaje natural), networkx (dibujo de grafos relacionales), matplotlib (librería con funciones lineales para la estadística, como funciones matemáticas complejas), wordcloud (dibujo de nube de palabras). Siguiendo con el modelo se realizaron cinco pasos: 1. Importación y muestreo: Preparación del entorno. Importación de datos. Muestreo. Creación de archivos csv (comma-separated values). Creación de archivo json (Java Script Object Notation). 2. Calidad de datos: Exploración general. Tipos de datos. Estadísticos básicos. Nulos y ceros. Atípicos. Análisis longitudinal Coherencia. 3. Transformación: Variable target. Variables predictoras. Preselección de variables. Variables sintéticas. Discretización. 4. Modelización: Funciones de apoyo. Train y test. Regresión logística. Árbol de decisión. 5. Evaluación: Precisión y cobertura. Análisis de negocio. Curvas ROC. Área bajo la curva (AUC). Matriz de confusión.


CONCLUSIONES

Los datos tienen un gran valor estadístico, el obtener lo que la gente esta hablando, donde esta hablando, con quienes comparte esas ideas, desde que dispositivo lo hace, en que fecha y hora determinada lo hizo, da mucho que pensar, ya que nuestra información no es secreta, tanto se puede hacer una herramienta para poder influir en la gente de acuerdo a su gusto y área geográfica, como determinar las inquietudes que se generan por un tema en específico, los resultados muestran que el término: COVID-19 esta en todo el mundo, todos hablan de ello y lo más frecuente es que al hablar del término también hablen de su gobierno, otro resultado con el termino vacuna nos muestra que las personas hablan de una vacuna de COVID-19 con posible llegada en Diciembre, el trabajo no muestra datos exactos o premonitorios, simplemente da resultados de lo que se habla en un tiempo y lugar determinado y lo que creen las personas que puede pasar. Sin embargo, solo se presenta información estadística y está puede cambiar con el tiempo. Una simple herramienta de captación de información pero que puede tener un gran impacto en determinar lo que piensa o quiere la gente con base estadística y de rápido procesamiento, un área en la que se podría enfocar el trabajo es a partir de la información obtenida, crear un modelo de predicción de tendencia y ver hacia donde apuntara sus temas la sociedad en base a lo que habla.
Simbron Mckay Valentin Augusto, Universidad de Guadalajara
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION


MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION

Correa Hernández Enrique Allfadir, Instituto Tecnológico Superior de Ciudad Hidalgo. Cuarenta Castañeda Juan Jose, Instituto Politécnico Nacional. Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Simbron Mckay Valentin Augusto, Universidad de Guadalajara. Varelo Silgado Andrés, Universidad de Pamplona. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

1. Planteamiento del Problema Litiasis urinaria -formación de piedras renales- se ha tenido un aumento constante de la incidencia en muchos países desarrollados: Alrededor de 10% de la población en estas ciudades sufren al menos una vez en su vida las piedras renales y en las investigaciones han demostrado que la tasa de recurrencia es del 40% en 5 años . Esto representa un problema mayor para los sistemas nacionales de salud y por tanto se ha presentado un gran interés por el estudio o la identificación de las causas raíz de la formación de piedras en orden de mitigar la alta recurrencia de la enfermedad. Además, que la presencia de piedras urinarias específicas es un fuerte indicador para ciertos disturbios metabólicos que el paciente puede sufrir. Por tanto, el obtener una correcta identificación puede servir como un mecanismo pronóstico para evitar recaídas y utilizar tratamientos personalizados.Sin embargo, las prácticas médicas y clínicas actuales se basan en la experiencia de los clínicos y técnicos que utilizan métodos y procedimientos que conlleva a un diagnóstico tardado y que son altamente subjetivos o requieren un entrenamiento intensivo para realizar una correcta clasificación de los cálculos urinarios. El primer factor es especialmente gravoso, como las piedras renales tienen que ser removidas del paciente y posteriormente analizadas en el laboratorio, este proceso regularmente necesita el pulverizar la piedra, lo cual implica una importante pérdida de información para una correcta valoración de las dolencias del paciente.  



METODOLOGÍA

2. Método propuesto 2.1 Dataset El dataset utilizado fue creado a partir de 125 piedras renales adquiridas en prácticas in vivo y nombradas por el urólogo Dr. Vincent Estrade del Centre Hospitaliere de Bordeaux en Francia, en colaboración con el Centre de Recherche en Automatique de Nancy (CRAN) también en Francia. El acceso a este dataset fue a través de la colaboración del Dr. Gilberto Ochoa Ruiz con el CRAN.  Este dataset incluye 79 imágenes de superficie de las piedras, 46 imágenes de secciones transversales de las tres clases de piedras renales que tienen más incidencia en las poblaciones observadas. (Whewellite, Weddellite y ácido úrico) capturadas durante ureterorenoscopias reales. Se utilizaron los ureteroscopios URF-V para capturar estas imágenes. La superficie y las imágenes que fueron utilizadas están separadas en 2 sub-datasets durante la clasificación de entrenamiento y testeo. Son imágenes de 200 x200 pixeles que fueron recortadas de las fotografías originales para incrementar el número de las imágenes en los sub-datasets, Los parches solo contienen información de las piedras renales desde el fondo y esto no es visible en las imágenes recortadas 2.2 Textura: el software scikit-learn fue utilizado rotación y escala de patrones binarios locales invariantes de imágenes convertidas a escala de grises, los LBP fueron almacenados en un histograma 10-bin correspondiente a la primera parte del vector descriptor   2.3 Color: el espacio de color HSV(Hue-Tono, Saturation-Saturación, Value-Valor) fue usado para extraer información de color. ya que este es más cercano al ojo humano para percibir los colores. Este espacio es seleccionado porque el tono o color está en un solo canal mientras el brillo del color está separado.             2.4 Escalado de datos Los datos fueron escalados para una mejor operación de los métodos, aplicando la siguiente fórmula z=(x-promedio_datos)/(desvición_estandar_datos) z = datos escalados x= datos no escalados   2.5 Materiales y métodos Previo a la fase de clasificación, un dataset fue construido con características de color y textura fueron extraídas de las imágenes. Siete clasificadores supervisados fueron implementados y comparados para realizar la clasificación: Random Forest ensemble, XGBoost, MLP, Bagging, AdaBoost, SVM, Naive Bayes. 2.6 Separación de datos de entrenamiento y evaluación  Para separar los datos de entrenamiento y evaluación fueron tomados de acuerdo a la cantidad de muestras, es decir, teniendo en cuenta el subtotal de cada piedra Whewellite, Weddellite y ácido úrico.


CONCLUSIONES

3.  Diseño experimental:  Section Method/ Metric          Precisión       Recall         F1      Support Naive Bayes                  69%           71%          62%       158 SVM                             83%           86%          84%       158 AdaBoost                      83%           86%         83%        158 Bagging                         76%           76%        75%         157 MLP                              86%           91%        87%         158 XGBoost                        84%           88%        84%         158 Random Forest             87%            87%        86%         157   Surface Method/ Metric       Precisión       Recall      F1     Support Naive Bayes              48%             40%       36%       138 SVM                          76%             51%        50%       138 AdaBoost                  70%              48%        45%      138 Bagging                     77%              75%        75%      137 MLP                           80%                64%        63%      138 XGBoost                  79%                59%          56%     138 Random Forest      83%                 82%          83%    137     Method/ Av. Precision     Section     Surface      Student Naive Bayes                      62.65%       40.57%   Cuarenta Castañeda Juan Jose SVM                                   85.77%        59.42%   Dario Martinez Julio Joel AdaBoost                           84.81%         55.79%   Simbron Mckay Valentin Augusto Bagging                             75%               76%        Correa Hernández Enrique Allfadir MLP                                  88.60%            71.01%   Varelo Silgado Andrés XGBoost                           85.44%             68.11%   Franco Mora Marco Julio Random Forest                 87%                  82%     de la Lima López Julio Cesar     Conclusiones Con respecto a los modelos de clasificación usados en este proyecto, además de características de textura y color pueden ser exploradas en trabajos futuros buscando mejores resultados de clasificación.  Fue posible realizar pruebas con distintos métodos de clasificación de machine learning, realizando posteriormente una exhaustiva evaluación de los mismos, midiendo los valores promedio de precisión, recall, f1 y el support, donde es posible ratificar que Random Forest fue quien obtuvo un mejor rendimiento con respecto a los demás modelos. De igual forma se piensa que tuneando  los métodos es posible obtener resultados similares o incluso superiores a Random Forest como en el caso del sub-dataset de section donde el perceptrón multicapa arrojó el porcentaje de precisión más alto siendo 88.60%  .    
Sixto González Rosa Areli, Universidad Mexiquense del Bicentenario
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

APP PARA QUE LAS PERSONAS CON DISCAPACIDAD O DE EDAD AVANZADA REALICEN LLAMADAS TELEFóNICAS DE ALERTA CON UN SOLO TOQUE.


APP PARA QUE LAS PERSONAS CON DISCAPACIDAD O DE EDAD AVANZADA REALICEN LLAMADAS TELEFóNICAS DE ALERTA CON UN SOLO TOQUE.

Sixto González Rosa Areli, Universidad Mexiquense del Bicentenario. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

A medida que se va produciendo el inevitable cambio evolutivo en la vida de las personas, y se pasa del estado adulto a la tercera edad, comienza a producirse un deterioro más lento o rápido en la calidad de vida, dependiendo de aspectos como la genética, tipo de vida anterior, circunstancias puntuales, y otras muchas variables, que cuando menos generan una serie de reconocidos problemas de las personas mayores. Cada persona tiende a envejecer de una determinada manera, por lo que al llegar a la última parte de su vida, puede que conserve un estado físico aceptable pero se vea limitado por un deterioro psíquico con la aparición de algunas enfermedades mentales degenerativas, también puede que se vea afectado por problemas de movilidad producidas por artrosis, reuma u otros padecimientos. Por otra parte,  la mayoría de las personas tienen una serie de capacidades y habilidades comunes, pero en algunos casos y por distintas circunstancias, algunas otras pierden o no han desarrollado del mismo modo que la mayoría de la población dichas habilidades. Por lo que estas personas pueden padecer debido a ello diversas dificultades en distintos aspectos de su vida, pudiendo sufrir distintos tipos de discapacidad: física, sensorial intelectual, psíquica, visceral y múltiple. La discapacidad implica una deficiencia física o mental y puede ser consecuencia de un defecto corporal, una limitación intelectual o un trastorno que impide o limita a un individuo para realizar ciertas actividades. La reducción de la autonomía hace que las personas de edad avanzada o con algún tipo de discapacidad sientan temor a salir a la calle, cruzar un semáforo, o realizar actividades de la vida cotidiana, como entrar solos a la ducha, cocinar sus alimentos, etcétera, necesitando ayuda y/o apoyo por parte de sus familiares.



METODOLOGÍA

  Se utilizó el entorno de desarrollo integrado (IDE) oficial Android Studio para el desarrollo de apps para Android, basado en IntelliJ IDEA, ya que además del potente editor de códigos y las herramientas para desarrolladores de IntelliJ, Android Studio ofrece incluso más funciones que aumentan la productividad de los desarrolladores de aplicaciones. Una vez instalado el IDE Android Studio, se realizó un bosquejo de cómo sería el diseño de la app y cómo funcionaría cada una de sus partes. Posteriormente, se procede a programar, es decir se agregan los botones con los que va a contar la aplicación móvil y de  se van creado las líneas de código de acuerdo a la funcionalidad que se desee dar, después  se ejecutan para corroborar que realicen las tareas asignadas. En cuanto estén programados los botones, se sigue  con el diseño de la interfaz gráfica de cada uno de los actvitys de la aplicación, es decir de cada una de las pantallas que contenga, se eligen los colores que tendrá así como los iconos y logos a través del cuadro de herramientas de diseño de Android Studio. Después se prosigue a  la creación del directorio telefónico de la App (alta y baja de contactos a llamar), en donde los usuarios podrán crear, registrar, modificar, eliminar y ordenar los números de teléfonos de sus familiares y conocidos a los cuales les llegará la llamada de alerta. Se prosigue a programar la parte que permita al usuario agregar una foto o imagen a cada contacto dado de alta en el directorio para que a las personas de edad avanzada o con discapacidad puedan identificarlos con más facilidad y realicen su llamada de alerta a uno de sus familiares por si se encuentran en alguna situación de riesgo o lleguen a necesitar de su apoyo. Finalmente, una vez concluido el diseño y programación de la app se realizan las pruebas pertinentes realizando las llamadas con números reales y verificando que funcione correctamente.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el uso del entorno de desarrollo integrado (IDE) oficial Android Studio para el desarrollo de apps para Android y ponerlos en práctica creando y desarrollando la App para que las personas con discapacidad o de edad avanzada realicen llamadas telefónicas  de alerta con un solo toque, sin embargo, por ser un proyecto algo extenso aunque la aplicación se encuentre finalizada, aún no se pueden obtener resultados concretos por parte de las personas de edad avanzada o con alguna discapacidad, ya que no sido utilizada por estas. Se espera que el uso de esta app sea práctica y  favorable para los sujetos a quienes está destinada.
Sol Altúzar Antonio Alejandro, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

DESARROLLO E IMPLEMENTACIóN DE UNA ASISTENTE DE VOZ CON APLICACIONES EN LASER CLADDING


DESARROLLO E IMPLEMENTACIóN DE UNA ASISTENTE DE VOZ CON APLICACIONES EN LASER CLADDING

de Jesus Consuelo Cinthia Lizeth, Tecnológico de Estudios Superiores de Valle de Bravo. Jiménez Avila Carlos Alan, Instituto Tecnológico de Querétaro. Montemayor Vasquez Maria Fernanda, Tecnológico de Estudios Superiores de Villa Guerrero. Sol Altúzar Antonio Alejandro, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La manufactura aditiva (MA) es una tecnología disruptiva en México. La impresión volumétrica de componentes metálicos personalizados la vuelve muy atractiva para sectores industriales. Gracias a esto, se pueden concebir aplicaciones tan variadas que pueden abarcar desde el sector metal-mecánico hasta la bioingeniería médica. Hoy en día, el Consorcio Nacional en Manufactura Aditiva (CONMAD) cuenta con diversas tecnologías de la familia de Deposición Directa de Energía, entre ellas la conocida como Laser Cladding, el cual permite añadir material capa por capa hasta construir o reparar un volumen. La tecnología de Laser Cladding requiere una configuración inicial especifica de parámetros de impresión. Dicha configuración está en función del material a imprimir y las características funcionales que se buscan en la pieza (por ejemplo, más resistencia a la corrosión). Es decir, existe un universo de parámetros de configuración, llamados ventanas de proceso, que deben ser conocidos o calculados previamente por el usuario. Por lo cual, surge la necesidad de crear un repositorio digital con toda esta información para que así pueda ser consultada posteriormente por los usuarios. Una idea para dar solución es el uso de un asistente de voz. Este asistente podrá ser consultado previo al depósito garantizar la configuración adecuada de la celda de Cladding. Logrando así mantener condiciones de impresión, repetibilidad y la calidad adecuada de componentes.



METODOLOGÍA

Los asistentes de voz con inteligencia artificial (IA) han experimentado un crecimiento sin precedentes. Centrándose en las interacciones de voz, combinamos los fundamentos teóricos y prácticos de un asistente de voz para lograr una comunicación usuario-asistente. Para la comunicación usuario-asistente se usó una bocina Smart Echo Dot de Amazon de 3 generación y la asistente de voz de Amazon llamada Alexa. Para el entorno MA, se utilizó una estación de celda de Laser Cladding conformada por un Láser TruDisk 6002 de TRUMPF de estado sólido de alto rendimiento para la soldadura, un manipulador ABB IRB6620-120 de 6 GDL, un alimentador de polvos por vibración Medicoat Flowmotion Duo de dos tolvas y un cabezal de impresión coaxial de 3 puertos TRUMPF BEO D70 para Laser Metal Deposition (LMD). Se revisó el estado del arte para familiarizarse con los tópicos relacionados con la Manufactura Aditiva y gracias a esto, se logró tener una mejor compresión de lo que se iba a realizar a lo largo de las siete semanas en el desarrollo del proyecto. La metodología está compuesta por 4 etapas: Base de datos: La base de datos está compuesta por los parámetros que usa una celda de Laser Cladding y los parámetros de distintos materiales que se utilizan en la TruDisk 6002 de acuerdo a los proveedores que maneja CIDESI. Para agilizar el trabajo, decidimos usar los servicios de Amazon Web Services (AWS), por lo cual se revisó el estado del arte del servicio AWS y del lenguaje de programación Python. AWS maneja distintos servicios de base de datos, se realizó una tabla comparativa de los servicios de AWS teniendo en cuenta los pros y contras de cada servicio, se tomó la decisión de usar el servicio Amazon RDS de AWS. En RDS se creó una instancia (entorno en la nube con los recursos informáticos y de almacenamiento que especifique) y una base de datos con el motor de MySQL y se usó el cliente de MySQL Workbench para trabajar en la base de datos hecha en RDS. Amazon Lambda Function Se aprendió y probó el Software Development Kit (SDK) del Alexa Voice Services (AVS) y su integración con AWS Lambda Function para generar el código de programación que permitió enlazar la base de datos con Lambda. De esta manera se estableció la comunicación entre usuario y asistente. El AVS permite añadir control de voz inteligente a cualquier producto usando habilidades diseñadas por terceros en Alexa bajo el nombre de Skill. Modelo de interacción de voz Se diseñó el modelo de interacción de voz en la plataforma de Alexa Developer Console para crear una Skill personalizada con programación en Python usando las API de AVS. Para el funcionamiento de la Skill, se agregaron los siguientes elementos: Intents, utterances, variables, invocation name, slots, endpoint, automatic speech recognition (ASR). Skill de Alexa Se desarrollaron las distintas fases para entablar una comunicación entre AWS Lambda y la Skill de Alexa en donde se evaluó el funcionamiento del modelo, la respuesta del mismo y el tiempo de despliegue. Se usó la función Beta (con duración de 90 dias activa) de la Skill de Alexa para desplegar nuestra Skill a dispositivos inteligentes Echo Dot para realizar la comunicación entre usuario y asistente. La diferencia entre una Skill publicada y una beta es que la beta tiene una etiqueta dev y aún no pasa el proceso de certificación que se requiere para desplegarla a la tienda de Alexa. La certificación de la Skill excede el tiempo establecido para el proyecto, por lo cual se quedó en espera y por el momento la función Beta es la única válida para funcionar en los dispositivos Echo Dot. .


CONCLUSIONES

Se aprendió a crear una Skill en el entorno de Alexa Developer Console y como resultado se obtuvo una Skill para el asistente de voz Alexa para aplicaciones en Laser Cladding. Por otra parte, encontramos limitaciones como: el uso de los servicios de AWS usando la capa gratuita y sus costos fuera de esa capa porque se cotizan en USD, además de que el soporte técnico es muy limitado para usuarios principiantes. Hasta donde se conoce, este es uno de los primeros estudios en el campo de asistentes de voz aplicados en manufactura aditiva puesto que, en la actualidad no existe una aplicación similar en la industria. Para futuras investigaciones, se recomienda obtener más datos generales sobre los diversos materiales que se trabajan dentro del CONMAD y pulir esta aplicación para tener una visión más amplia ya que el entorno de Alexa Developer Console cambia constantemente porque se actualiza constantemente.
Solís Alvarado Francisco Javier, Instituto Tecnológico Superior de Apatzingán
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

PROGRAMACIÓN MÓVIL EN ANDROID


PROGRAMACIÓN MÓVIL EN ANDROID

Solís Alvarado Francisco Javier, Instituto Tecnológico Superior de Apatzingán. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las personas de edad avanzada tienen un estado de salud deteriorado, y generalmente padecen enfermedades crónicas como diabetes, hipertensión, Parkinson, Alzheimer, colesterol alto, entre otros. Por lo tanto, en cualquier momento pueden tener una emergencia médica ocasionada por alguna de las anteriores. De forma similar, las personas con discapacidades, tales como la pérdida de audición, vista, movilidad, síndrome de Down, entre otros, pueden accidentarse y se les dificultará pedir la ayuda necesaria. Sin embargo, en la actualidad la mayoría de la población posee un dispositivo móvil inteligente, el cual facilita la comunicación entre las personas. Esto constituye una gran ventaja, dado que reduce el tiempo de respuesta y prestación de primeros auxilios.



METODOLOGÍA

Antes que nada, para diseñar una aplicación móvil es necesario conocer el lenguaje de programación a utilizar. En este caso se ha decidido emplear Java, se elaboraron prácticas en Android Studio para dar una breve introducción a la lógica, sintaxis y funcionamiento deeste. Además de crear un dispositivo virtual para el testeo de las apps. Después de obtener una buena comprensión del funcionamiento tanto del lenguaje Java y de Android Studio, se comenzó a diseñar las interfaces de la aplicación. Se elaboraron 5 interfaces: la primera contiene un botón con forma de sirena y un menú desplegable en la parte superior derecha, la segunda contiene los datos sobre el desarrollador y el supervisor del proyecto, la tercera se encarga de almacenar los datos personales del usuario permitiéndole borrarlos cuando este así lo desee, la cuarta explica el funcionamiento de la aplicación y la quinta y proyecta los datos almacenados en los espacios en blanco de un mensaje ya redactado contenido por un TextView. Una vez finalizado el diseño gráfico de la aplicación, se procedió a elaborar la parte lógica, es decir los métodos que emplearán los botones para guardar o borrar datos y empezar o regresar a cierta actividad. Desde un inicio se pretendía que la app mandase mensajes de texto o hiciera llamadas de alerta mediante la red celular a familiares, amigos o los servicios de emergencia empleando servicios de telefonía móvil. Sin embargo, se decidió que la mejor opción es alertar a las personas cercanas al usuario cuando este tenga una emergencia médica o se accidente, mediante la pulsación de un botón que colocará los datos almacenados en pantalla y emitirá a través de las bocinas del dispositivo un sonido fuerte y repetitivo que llame la atención.


CONCLUSIONES

Durante el verano se adquirieron nuevos conocimientos que han resultado en el desarrollo de una app cuyo propósito es que las personas discapacitadas o de edad avanzada puedan pedir la ayuda que necesitan en momentos de emergencia y que la obtengan lo más rápido posible. En caso de ser posible, se probará en varios dispositivos móviles como tablets o smartphones para obtener retroalimentación y opiniones de los usuarios. Este conocimiento adquirido será de utilidad en un futuro en el ámbito laboral.
Solórzano Guillen Valeria Juvelina, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Lucio Guzmán Mares, Universidad de Guadalajara

ELABORACIóN DE PROPUESTA DE UN PRODUCTO INNOVADOR CON BASE EN METODOLOGíAS DE ECODISEñO PARA LOGRAR UN DISEñO SUSTENTABLE CONSIDERANDO PRODUCTOS TíPICOS DE LA REGIóN SELVA.


ELABORACIóN DE PROPUESTA DE UN PRODUCTO INNOVADOR CON BASE EN METODOLOGíAS DE ECODISEñO PARA LOGRAR UN DISEñO SUSTENTABLE CONSIDERANDO PRODUCTOS TíPICOS DE LA REGIóN SELVA.

Solórzano Guillen Valeria Juvelina, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Lucio Guzmán Mares, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En Chiapas existe una alta cantidad de comunidades indígenas, más en la región selva, muchas familias viven en pobreza por lo mismo muchos bebés nacen en estas situaciones, lo cual a veces no tienen la oportunidad de adquirir productos con un alto coste de fabricación, ende a esto surgió la necesidad de elaborar una propuesta de diseño de un producto con la función de poder recostar a un bebé, así también aprovechando el material que es fácil de obtener en la región como es el bambú y la tela típica que normalmente usan en las comunidades para cargar a los bebés, de esta forma podrían realizarlo con facilidad ellos mismos y con un coste lo menor posible. Tomando en cuenta que el bambú es la planta de crecimiento más rápido del planeta. El bambú crece más del 30% que el árbol de desarrollo rápido que existe. Con su crecimiento rápido, tiene la capacidad de reforestar más rápidamente áreas devastadas por deforestación y erosión de suelos, con esto también podemos ayudar al planeta teniendo un producto económico para las familias de la región y no causando gran impacto al medio ambiente.



METODOLOGÍA

Se realizo el estado del arte de Ecodiseño, el Análisis de Ciclo de Vida y así mismo las metodologías de Ecodiseño. Se selecciono un diseño de lo que es una hamaca portable para bebé tomando en cuenta el bambú como material principal para su elaboración ya que este es un material renovable disponible en la región, el cual puede aprovecharse como material de construcción y reducir el impacto al medio ambiente. Se realizo del diseño primeramente en SolidWorks. Después se procedió a realizar el prototipo de este mismo, como primera actividad de su fabricación se recolecto el bambú aproximadamente cuatro ramas de tres metros de largo, siguiendo con marcar las medidas y cortar las partes para la construcción, se hizo el ensamble de las piezas, se aseguraron las partes con tornillos para una mayor seguridad al soportar el peso del bebé. Posteriormente se compró la tela, esa tela es típica de la región ya que en las comunidades cercanas las mujeres tienden a usarlas para cargar a sus bebés, se utilizaron aproximadamente 105 cm de largo. Ya teniendo el prototipo listo, se continuó realizando la ficha técnica del producto, tomando en cuenta sus especificaciones, descripción del equipo, los materiales con los cuales se realizó y recomendaciones para el uso adecuado. Se realizó también el instructivo de armado del producto, los instructivos nos sirven para ilustrar información útil describiendo el proceso de armado de un objeto o producto. Para esto se buscó la forma adecuada y con mayor facilidad de ensamble, colocando las indicaciones, imágenes y los pasos que se deben llevar acabo para que cualquier persona pueda armarlo con facilidad. Finalmente se aplicó la rueda de estrategias de Ecodiseño al prototipo nombrado Bambúnero, para reducir el impacto ambiental en puntos clave del ciclo de vida del producto.


CONCLUSIONES

A lo largo de toda la estancia en el verano se lograron adquirir nuevos conocimientos nuevos y como el Ecodiseño está tomando un papel muy importante ya que permite reducir la degradación de los ecosistemas, el impacto directo en la salud humana y el agotamiento de los recursos naturales, tomando en cuenta los impactos en el ciclo de vida pueden ir de ligeros a significativos, pueden ser a corto o a largo plazo, y pueden producirse a nivel local, regional o mundial. Las principales conclusiones y resultados de la investigación es lo siguiente de cómo se aplicaron las estrategias de Ecodiseño al producto: Estrategia número uno; selección de materiales de bajo impacto, en este caso se eligió el bambú como material principal ya que para la obtención de este no se necesita gran cantidad de energía y se reduce de la mayor manera la posible utilización de herramientas o maquinaria que necesite energía eléctrica. Estrategia dos; reducción del uso de material, se puede decir que el peso del bambú es una característica muy destacable ya que su peso es menor, pero esto no impide que cumpla con su funcionamiento ya que el material es resistente siendo así fácil de transportar. Estrategia tres; el proceso de fabricación del prototipo es poco complejo, se dividen las etapas de fabricación donde incluye cortar el bambú hasta posteriormente el ensamble de todas las piezas, al final agregando los tornillos para asegurar las piezas. Se generan residuos únicamente en la etapa de perforación del bambú y es una cantidad mínima en la fabricación. Estrategia cuatro; optimización de los sistemas de producción, siendo este el embalaje no es un problema ya que siendo un producto modular ayuda tanto al mantenimiento del mismo, como el espacio requerido para su transporte. Estrategia cinco; reducción de impacto medioambiental durante el uso, tomando en cuenta que para la elaboración de Bambúnero no se utilizaron recursos como agua, lubricantes, filtros, etc., el impacto durante el uso de la silla es nulo tomando en cuenta esos aspectos. No existen emisiones de CO2, NOx y SOx que puedan aportar al deterioro del planeta ayudando a evitar el efecto invernadero y otros impactos ocasionados por el mal manejo de los recursos del planeta. Estrategia seis; optimización de la vida útil del producto, es una buena opción para considerar hacerla parte de nuestro día a día, ya que no es necesaria maquinaria especializada gracias a la fácil manejabilidad del material. Estrategia siete; optimización del fin de vida del sistema, favorece al reciclaje, en cuando al bambú siendo un material natural no causara gran impacto al medio ambiente en su degradación. Se espera la integración de consideraciones ambientales desde las fases tempranas en los procesos de desarrollo del cualquier producto y así dándole mayor importancia a los materiales sustentables, ya que este puede ayudar de muchas formas al impacto que produce al medio ambiente.
Soria Cruz Leslie Denisse, Instituto Politécnico Nacional
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

CREACIòN DE DICCIONARIOS Y CORPUS EN LENGUAS INDIGENAS: MIXTECO


CREACIòN DE DICCIONARIOS Y CORPUS EN LENGUAS INDIGENAS: MIXTECO

Soria Cruz Leslie Denisse, Instituto Politécnico Nacional. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Hoy en día las lenguas maternas están desapareciendo por falta de hablantes, en México 7 millones 382 mil 785 personas hablan una lengua indígena, siendo el Náhuatl, Maya y Tzeltal las más habladas. ya que el español es el idioma que predomina en México, las personas dejan de enseñar a las nuevas generaciones su lengua materna, y por la falta de recursos para aprender una lengua indígena, la mayoría de las personas las deja de lado, olvidando sus raíces.   El mixteco en una de las lenguas indígenas menos habladas, contando con 471 710 hablantes solamente. Lo cual es alarmante, es por eso que el objetivo de esta investigación es lograr reunir todos los recursos existentes para aprender El mixteco, además de crear nuevos recursos faltantes y complementarios para que esta lengua nativa de Oaxaca, guerrero y puebla no quede extinta.  



METODOLOGÍA

Durante este proyecto en la primera semana se investigó la gramática del mixteco y recursos existentes para conocer más información y aprender sobre el mixteco, como diccionarios de diferentes variantes, información oficial del INALI donde se encontró que existen 81 variantes del mixteco, además se logró encontrar las siguientes apps disponibles en la play store, donde se ayuda al aprendizaje del mixteco:  MixtecApp: esta herramienta te ayuda a aprender el mixteco de chigmecatitlan, puebla. El contenido es muy básico, pero es de gran ayuda.  MixtecoApp: es un diccionario desarrollado por fantre, presenta campos semánticos como animales, cocina, frutas, etc.  Estudia la lengua mixteca: es una aplicación para el aprendizaje del mixteca lanzado en septiembre del 2019, cuenta con más de 1000 descargas y fue creada por Abigail López López-  Traductor Mixteco: es un traductor didáctico donde debes adivinar palabras viendo imágenes y palabras en mixteco.  Dukua’a To’on Dadavi: con esta aplicación cuenta con dos versiones, esta y la 2.0 se puede aprender la lengua mixteca de una forma interactiva y visual, donde se puede escuchar pronunciación, ver escritura, gramática, etc. fue lanzada el 27 de diciembre de 2018 y cuenta con más de 1000 descargas. la segunda versión se lanzó el 24 de enero del 2020, pesa 82.08 MB, y cuenta con más de 100 descargas.  Diccionario mixteco Poblano: Esta app es un diccionario del mixteco de puebla que cuenta con 2000 palabras, exámenes, se pueden agregar palabras personalizadas, entre otras cosas. Se lanzó el 7 de julio de 2015, pesa 1.66 MB y cuenta con 1000 descargas.  Mixtec Cards: es una aplicación con efectos visuales para iniciar el aprendizaje de la lengua mixteca. Esta aplicación se lanzó el 4 de marzo del 2018, creada por Everardo López, pesa 3.85 MB y cuenta con más de 100 descargas.  Así mismo se encontraron las siguientes páginas web con información:  https://www.inali.gob.mx/clin-inali/html/l_mixteco.html  https://www.gob.mx/inpi/es/articulos/etnografia-del-pueblo-mixteco-nuu-savi?idiom=es  https://dem.colmex.mx/ver/mixteco  De esta información tome lo más relevante y lo resumí en un documento, después de esto, la segunda semana, basándome en los diccionarios existentes de mixteco, cree un diccionario mixteco-español, español-mixteco, con las palabras más relevantes de todas las variables del mixteco.   Durante la tercera semana busque algunos textos en mixteco con traducción, en este caso fueron poemas de autores mixteco hablantes.   Para la cuarta semana, busque algunas personas que hablaran mixteco y quisieran ayudar a la creación de videos de grupos semánticos, como los saludos, la familia, los números, etc. Donde estas personas me ayudaron con la pronunciación de las palabras.   La quinta y sexta semana del verano, construí una página web, con todo lo hecho e investigado las anteriores semanas.  


CONCLUSIONES

Durante el verano en línea Delfín, logré obtener conocimientos sobre el idioma mixteco, y entendí su importancia para la cultura mexicana, aportando más recursos para su aprendizaje a personas interesadas en el tema. Se logro crear un diccionario donde se pueden consultar algunas traducciones, también se crearon videos donde se puede escuchar cómo se pronuncian algunas palabras. Y mucha más información sobre esta lengua, reunida en una página web. Se espera lograr agregar más recursos didácticos a la página web, para mejorar la facilidad de aprendizaje. Finalmente dejo el link de esta página:   5f26c1cf48d91.site123.me 
Soto Lopez Alexander, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez

INSPECCION MEDIANTE VISION ARTIFICIAL DE LA CALIDAD DE PIEZAS INDUSTRIALES EN LA INDUSTRIA 4.0


INSPECCION MEDIANTE VISION ARTIFICIAL DE LA CALIDAD DE PIEZAS INDUSTRIALES EN LA INDUSTRIA 4.0

Soto Lopez Alexander, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El consumo de tiempo excesivo en el proceso de liberacion de piezas de lo cual es encargada el area  de calidad genera gastos aumentados para la empresa ademas de no cumplir con los tiempos para la entrega de sus productos. el area de calidad es el departamento encargado de verificar que las piezas que le entrega el area de produccion cumpla con las especificaciones que el cliente pide y que estan plasmadas en el dibujo tecnico otorgado. Es ahi donde los operadores encargados de realizar las mediciones de las piezas se toman bastante tiempo ya que es un proceso de grande responsabilidad y de prestigio para la empresa.



METODOLOGÍA

La industria 4.0 y el uso de las TICs se esta manifestando de una manera exponencial hoy en dia y las debemos aprovechar de la mejor manera posible, en este caso hremos uso de la vision artificial para la revison de las piezas industriales producidas en determinada empresa para asi poder disminuir los tiempos y aumentar la productividad y eficacia.  En un estudio ya relizado anteriormente se tenia que en una pieza simple de solo 4 especificaciones de las cuales dos longitudes de  15  y 20 cm, un espesor de  5 cm y un barreno de 7.5cm de diametro un operador tardaba aproximadamente 72 -75 segundos  en realizar las mediciones y verificar si cumle con lo solicitado, ya inherente en el tiempo 30 segundos en cambiar de instrumento de medicion En un evento simulado, utilizaremos la vision artificial como un filtro por el cual pasaran las piezas para ser verificadas por un sistema el cual creeara un repositorio con informacion de las piezas que estan aceptadas y las que estan rechazadas, cumpliendo con las espectativas y ahorrando tiempo y siendo mas eficiente.El tiempo aproximado que se tardaria en ser examinada 1 pieza seria de 0:10-0:15 segundos ahorrando un 80 o 90 % de tiempo. como ejemplo ponemos una produccion de 100 piezas de las ya mencionadas, manualmente se estaria hablando de un tiempo de 720 a 750 segundos comparandolo con la vision artificial que seria un total de 100 a 150 segundos y si los convertimos a proyectos aun mas grandes seria alarmante el tiempo que se ahorra y si sumamos 5 proyectos mas por dia aun mas.  


CONCLUSIONES

debemos ver la industria 4.0 como una herramienta realmente eficiente y no como una amenza pues la constante capacitacion y creacion de nuevos sistemas nos ayudara a mejorar aun mas los sistemas para obtener una mejor productividad, las nuevas tecnologias no van a poder sustituir a la mano de obra huamana en una totalidad puesto a que se necesita una persona para programar la maquina. este tipo de veranos nos ayudan a abrir la mente y pensar en como seran las cosas, en cuanto mi empresa renude actividades voy a proponer el proyecto de vision artificial para aumentar la productividad y tener mejores resultados.
Soto Ruiz Miriam Sofía, Universidad de Sonora
Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo

ARQUITECTURA EDIFICADA EN MADERA


ARQUITECTURA EDIFICADA EN MADERA

Rentería Sosa Darío Francisco, Universidad Autónoma de Guerrero. Ricardo de Jesus Brenda Liz, Universidad Autónoma de Guerrero. Saldívar Villalobos Esmeralda, Universidad Autónoma de Chiapas. Soto Ruiz Miriam Sofía, Universidad de Sonora. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Una de las principales problemáticas socioeconómicas a nivel país en México es la vivienda. Estadísticamente se tiene que el 75% del uso de suelo en México va destinado al uso de vivienda, como aproximadamente el 85% del PIB es producido en ciudades se genera la necesidad de establecer una alternativa de construcción sustentable que pueda reducir la huella de carbono en asentamientos de alta densidad poblacional como las ciudades, de modo que se cumpla con el postulado ambiental de la sustentabilidad, en busca de una construcción que pueda ser considerada sustentable en el entorno posmoderno.



METODOLOGÍA

Mediante estudios cualitativos se observaron las distintas propiedades de la madera, analizando en ellas la conductividad térmica, propiedades acústicas, comportamiento ante el fuego, comportamiento higrotérmico, permeabilidad al agua, entre otros. Bajo esta premisa se estudiaron distintos sistemas constructivos especializados en construcción con madera de ingeniería, por medio de los cuales realizaríamos un proyecto de construcción tentativo edificado en madera que supliera alguna necesidad o servicio de una comunidad, de tal manera que cumpliera con las tres dimensiones de la sustentabilidad.


CONCLUSIONES

La construcción en madera no es algo nuevo, sin embargo, es una metodología olvidada en lo que se refiere a construcción metropolitana, hasta tiempo reciente cuando fue retomada como parte del movimiento arquitectónico posmoderno, donde ha mostrado una especie de renacimiento. La construcción en madera ofrece un gran número de beneficios que no son evidentes a simple vista, como es el caso de su ligereza en comparación a las edificaciones construidas en concreto, propiedad misma que les confiere una mayor resistencia a los sismos, sin mencionar que durante el proceso constructivo la emisión de material particulado, dígase PPM y CO2 se ve disminuida en gran medida con respecto a su contraparte en concreto. Las propiedades de la madera la convierten en una alternativa constructiva amigable con el ambiente, sin embargo, aún existe escepticismo al respecto, debido a la falta de cobertura que tuvo durante el periodo moderno arquitectónico.
Soto Santamaria Ismael, Instituto Tecnológico de Ciudad Altamirano
Asesor: M.C. Leonel González Vidales, Instituto Tecnológico de Ciudad Altamirano

DESARROLLO DEL FRONT-END DE UN SISTEMA TUTOR INTELIGENTE PARA EL APRENDIZAJE DE LA PROGRAMACIÓN ORIENTADA A OBJETOS


DESARROLLO DEL FRONT-END DE UN SISTEMA TUTOR INTELIGENTE PARA EL APRENDIZAJE DE LA PROGRAMACIÓN ORIENTADA A OBJETOS

Soto Santamaria Ismael, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. Leonel González Vidales, Instituto Tecnológico de Ciudad Altamirano



PLANTEAMIENTO DEL PROBLEMA

Dentro el entorno laboral es importante incorporarse al sector productivo en sus diferentes áreas del conocimiento, es por ello que el programa interinstitucional para el fortalecimiento de la investigación y el posgrado del pacifico, que brinda la oportunidad de mostrar las habilidades y conocimientos adquiridos, dentro del área Ingeniería y tecnología, en la lineas de investigación desarrollo de sistemas e-learning y b-learning; se desarrolla el front-end de un sistema tutor inteligente, el cual tiene como objetivo regularizar a los jóvenes que presentan problemas en el aprendizaje de la materia de programación orientada a objetos, asesorado por la instancia académica del programa delfín se desarrolla el presente proyecto.



METODOLOGÍA

En investigaciones sobre los Sistemas Tutores Inteligentes (STI) se ha planteado distintas técnicas para el diseño y selección apropiada. Para la definición de la propuesta se analizaron diversos métodos científicos de investigación entre los que se encuentran el análisis y síntesis, entrevistas y encuestas. Se realizó un análisis documental relacionado con los STI y la efectividad de la retroalimentación, así como las técnicas utilizadas. Se realizó un estudio sobre técnicas de análisis de la programación orientada a objetos.


CONCLUSIONES

A continuación se describen brevemente los resultados de este estudio y las decisiones tomadas para la generación de la propuesta. A partir de la propuesta se obtiene un método para el desarrollo del modelo de front-end de un Sistema Tutor Inteligente de Programación. Con ella se posibilita que se puedan incluir actividades en el sistema sin elevados tiempos de tutoría y que se produzca retroalimentación efectiva para actividades prácticas de tipo implementación. La existencia de esta característica está soportada en la combinación de técnicas para el análisis estático y dinámico.
Suárez Coria Juan Abraham, Instituto Tecnológico Superior de Pátzcuaro
Asesor: Mtro. Martín Tapia Salazar, Instituto Tecnológico Superior de Pátzcuaro

INFORME DE ACTIVIDADES DE LA INVESTIGACIÓN: INTERVENCIÓN COMUNITARIA PARA EL CRECIMIENTO EMPRESARIAL MICROPYMES SECTOR TURÍSTICO & FORTALECIMIENTO DE PRODUCTOS DE INNOVACIÓN


INFORME DE ACTIVIDADES DE LA INVESTIGACIÓN: INTERVENCIÓN COMUNITARIA PARA EL CRECIMIENTO EMPRESARIAL MICROPYMES SECTOR TURÍSTICO & FORTALECIMIENTO DE PRODUCTOS DE INNOVACIÓN

Suárez Coria Juan Abraham, Instituto Tecnológico Superior de Pátzcuaro. Asesor: Mtro. Martín Tapia Salazar, Instituto Tecnológico Superior de Pátzcuaro



PLANTEAMIENTO DEL PROBLEMA

Actualmente la pandemia se genera un gran déficit y una pérdida tanto financiera como económica en la región, por lo cual, es imprescindible la generación de una intervención comunitaria para el crecimiento empresarial y el fortalecimiento de productos de innovación. Todo con el fin de la generación de estrategias y brindar alternativas en la nueva realidad que se vive a nivel mundial.  



METODOLOGÍA

En ambos casos la metodología que se utiliza es la aplicación de instrumentos de recolección de datos que brinden un panorama tanto cualitativo como cuantitativo, de modo que esto brinde un mejor panorama en lo que refiere a el crecimiento empresarial y el fortalecimiento de productos de innovación. En el caso del fortalecimiento de productos de innovación la búsqueda de protección por parte de organismos como el IMPI, así como la presentación de estos en convocatorias contribuyen al crecimiento y al desarrollo de los proyectos que se presentan. En el primero caso, se llegó a sacar un estudio de mercado con un resultado de aplicación de veinte encuestas utilizando el muestreo aleatorio simple con un margen de error del 10.00%, un nivel de confianza del 90% y un tamaño de población de 901 micropymes; sin embargo, se realizó la segmentación como se menciona anteriormente por cuestiones relacionadas al sesgo y otro tipo de cuestiones que pudieran afectar el enfoque final al que se requiere llegar. Asimismo, se plantean una serie de preguntas con un enfoque en el crecimiento, ambiental, desarrollo y sustentabilidad empresarial. Para lograr este punto se consideró la información actual del municipio, así como la consulta de los datos históricos en las fuentes oficiales gubernamentales tales como lo destaca el Instituto Nacional de Estadística, Geografía e Informática (2015). En el segundo caso, dados tres productos de innovación denominados FlowClean, D’avocat y FerPay, se puntualiza la necesidad de tener un plan de pruebas de laboratorio, para cada uno de los productos señalados, dichas pruebas tienen el objetivo de verificar el correcto y veraz funcionamiento de los productos, así como verificar también, el cumplimiento de la necesidad detectada que dio origen al producto. Con lo cual, la generación de estos y el plan de comercialización brindan la base para la búsqueda en diversos sitios para que estos proyectos, así como sus creadores tengan la oportunidad de participar en diversos concursos o ponencias. Por lo cual se investigo en diferentes fuentes como CEMEFI (2020) con diversas convocatorias abiertas y limitadas a un tiempo en específico. De modo que, con este fin se logra generar una base de datos cercana a los veinte diferentes convocatorias tanto abiertas como con tiempos limites, de las cuales destacan aquellas como Het XY, YouthSpaces, Santander X, entre otras. Se toma en cuenta que al momento de hacer la divulgación correspondiente es necesario que los tres proyectos tengan la protección por medio de organismos como el Instituto Mexicano de la Propiedad Industrial (IMPI) a nivel nacional y la Organización Mundial de la Propiedad Intelectual (OMPI) a nivel mundial para que se genere la condición proteccionista que se requiere. También, es vital que se atienda la cuestión en que cada uno de estos proyectos tengan la cuestión referente a que sean productos comercializables, innovadores y que cumplan con la creciente demanda que tiene el consumidor en referencia a la rama a la que pertenecen. Por último, al llegar a los resultados deseados se generan las condiciones donde se aprecian que cumplen con cada una de estas características que se exigen como parte de un estándar comercial. Para esto, se recurre a la asesoría por parte de la M.I. Diana Gabriela García Malváez, que es la jefa del centro de patentamiento del Tecnológico Nacional de México y, con la cual, se generó el enlace con la Ing. Maribel Salas Segoviano como parte de la coordinación nacional del bajío por parte del Instituto Mexicano de la Propiedad Industrial (IMPI) para la impartición del taller de patentamiento y protección, por lo tanto, se generó a partir de esta actividad, el inicio correspondiente del proceso de patente según las necesidades de cada uno de los inventores para cada proyecto con este fin.


CONCLUSIONES

El trabajo en equipo contribuye al desarrollo de las comunidades, en el caso de la ciudad de Pátzcuaro es necesario que cada uno de los sectores tanto el gubernamental, como el educativo y social es vital que generen estrategias que contribuyan con el crecimiento y con el desarrollo con la nueva normalidad que se vive. Así mismo, se pretende que con las encuestas se tenga un seguimiento y se generen las condiciones para llegar a la meta que se proponga en conjunto. Por último, los tres proyectos que se desarrollan van de la mano con la innovación y es vital que se cumplan con los estándares para una correcta comercialización.
Suarez Mendoza Luis Manuel, Instituto Politécnico Nacional
Asesor: Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla

SINTESIS DE UN RECUBRIMIENTO AVANZADO A BASE DE UN POLÍMERO Y CERAMICO


SINTESIS DE UN RECUBRIMIENTO AVANZADO A BASE DE UN POLÍMERO Y CERAMICO

Suarez Mendoza Luis Manuel, Instituto Politécnico Nacional. Asesor: Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Desde el inicio de la aplicación de los metales en cualquier área uno de los problemas mas grandes ha sido la corrosión que sufren al ser expuestos a un medio, en la actualidad esto afecta directamente a las empresas y al gobierno con pérdidas millonarias y el gran riesgo que se tiene cuando estos materiales fallan, un puente colapsado, una falla mecánica en un automóvil, un problema de cáncer debido a una prótesis, etc. Hoy en día las aplicaciones de los recubrimientos han crecido y con ello la investigación de estos para poder aumentar sus propiedades, disminuir sus costos, hacerlos inteligentes, auto curables y mejorar su compatibilidad, así como no modificar la composición del material al cual son aplicados. Esta investigación aborda principalmente esos problemas, buscando un mejor rendimiento y durabilidad, a través de la aplicación de un polímero con un cerámico debido a las propiedades que nos otorgan y la buena compatibilidad que se puede obtener.



METODOLOGÍA

Para iniciar con el desarrollo de un recubrimiento lo principal es saber dónde será aplicado, esto es de suma importancia ya que esto nos dirá las características que se desean que tenga  y que funciones específicas cumplirá, de aquí partimos para saber que materiales cumplen con estas especificaciones y nos den un mejor rendimiento Al tener nuestro ámbito de aplicación posteriormente investigamos sobre los estudios existentes de materiales que se hayan utilizado para que realicen la función que nos piden, esto es para poder determinar que material será adecuado implementar. Teniendo nuestro material de prueba, lo que ahora nos importa es que compuesto deberá llevar nuestro recubrimiento, esto se hace de la misma forma para seleccionar el material solo que es donde debemos hacer énfasis en encontrar materiales “compatibles” para poder llevar a cabo una buena adhesión del recubrimiento con el sustrato y que estos materiales no contaminen el entorno. En los ejemplos analizados, se utilizaron para acero inoxidable un compuesto de PMMA (polimetilmetacrilato) con sílice y para un acero al carbón una arcilla de montmorillonita (OMMT) con una resina epoxica (araldite 506). Al tener nuestros materiales lo que sigue es determinar que metodo se utilizara para sintetizar nuestro recubrimiento, con el paso de los años han crecido las formas de sinterización por lo que en la actualidad son bastantes las técnicas empleadas, en la investigación se utilizó recubrimiento por inmersión en la primera y en la segunda curado por rayos uv. Cuando vamos a hacer nuestro recubrimiento debemos preparar una muestra con los diferentes compuestos para hacer una prueba de su rendimiento y averiguar si se desarrolla de forma correcta. El recubrimiento se es sometido a distintas pruebas para recabar información acerca de su estructura, propiedades mecánicas, adhesión, compatibilidad, entré otras. Algunas de ellas son la espectroscopia de impedancia electroquímica (IES), microscopia electrónica de barrido (SEM), espectroscopia de infrarrojo por transformada de Fourier (FTIR) y difracción por rayos x. Al obtener la información de estas pruebas, proseguimos a su análisis donde se llegara a la determinación de que tan bueno o que tan malo es el recubrimiento, esto nos dirá si aplicable para desarrollar su función o no y así saber que modificaciones hacer para mejorar interacción con el medio y el material al cual fue aplicado.


CONCLUSIONES

Durante la estancia de verano se recabaron conocimientos teóricos sobre los recubrimientos avanzados, los principales puntos que se deben tener en cuenta para el diseño de un recubrimiento óptimo en una aplicación dada, esto requiere un análisis minucioso de la situación y donde el recubrimiento deba operar. Además de sus aplicaciones, así como sus métodos de síntesis, análisis y  la interpretación de las pruebas y resultados obtenidos para poder determinar si está correcto su desarrollo. Debido a la modalidad de esta estancia de investigación no se pudieron elaborar experimentos prácticos, pero basándonos en experimentos ya hechos se pudo comprender el proceso para desarrollar y aplicar un recubrimiento de manera general. Los recubrimientos siguen teniendo una fuerte demanda, nacen nuevas aplicaciones y áreas de desarrollo, esto aumenta la complejidad de desarrollo agregándole que sigue en crecimiento la necesidad que hay día a día de obtener recubrimientos que tengan mayor durabilidad, que sean inteligentes; esto para disminuir el trabajo y los costos de mantenimiento, que sean compatibles y que puedan ser utilizados en cualquier medio que se necesite con el mejor rendimiento posible.
Tafolla Aguirre Isamar Dolores, Instituto Tecnológico Superior de Apatzingán
Asesor: Dra. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia

COMPARATIVO DE ESTRATEGIAS PARA USO DE MEJORAS PRáCTICAS DE GESTIóN DE PROYECTOS TI


COMPARATIVO DE ESTRATEGIAS PARA USO DE MEJORAS PRáCTICAS DE GESTIóN DE PROYECTOS TI

Macias Reyes Dennis Azael, Instituto Tecnológico Superior de Apatzingán. Tafolla Aguirre Isamar Dolores, Instituto Tecnológico Superior de Apatzingán. Asesor: Dra. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, las empresas buscan nuevas alternativas para desarrollar diversos productos y así obtener la ejecución de proyectos exitosos a partir del entendimiento y la adaptación a nuevos requerimientos solicitados por el cliente antes, durante y después de la ejecución del proyecto, por lo anterior, en la consecución del producto final, si la gerencia del proyecto  no se adapta a los cambios del entorno en la solución para la satisfacción y mejoramiento de las expectativas del cliente, está llamada a quedarse en la obsolescencia, incluso antes de concluir el proyecto para la entrega de los productos o servicios contratados. El contexto de competencia en el que se desenvuelven las empresas, cada vez más apuesta por métodos de trabajo diferentes que permitan al equipo trabajar en un entorno cómodo y eficaz, obteniendo como consecuencia el poder brindar un servicio de calidad al cliente, por estas razones el gerente de proyectos está llamado a evaluar la implementación de alternativas a partir de metodologías de gestión tradicionales y agiles para  lograr obtener resultados productivos a corto, mediano y largo plazo que ayuden en la mejora de resultados, satisfacción del cliente y como consecuencia el crecimiento de la productividad de la organización.



METODOLOGÍA

Dentro del desarrollo de un proyecto y a la altiva necesidad de que este llegue al éxito y obtención del producto con valor agregado para nuestros clientes, se deben evaluar las diferencias en las metodologías adoptadas por los equipos para cumplir sus objetivos, puesto que, unas se adaptan mejor que otras, al contexto del proyecto brindando mejores ventajas. Es por eso de la importancia de una metodología tradicional o ágil que, ajustada en un equipo, cumpla con sus metas, y satisfaga más allá de las necesidades definidas en el inicio del proyecto. El éxito del producto depende en gran parte de la metodología escogida por el equipo, ya sea tradicional o ágil, los equipos siempre buscaran maximizar su potencial y aumentar la calidad del producto con los recursos y tiempos establecidos. Por lo anterior, para este trabajo, se utilizó una metodología de tipo descriptiva, analítica, transversal, partiendo de la búsqueda de información en bases de datos especializadas a partir de ecuaciones que integran palabras claves articuladas a las mejores prácticas de gestión de proyectos. Seguidamente se realizó un análisis de la información para generar una matriz de comparación, identificando variables comunes de las estrategias y mejores prácticas utilizadas tanto en las metodologías tradicionales como en las ágiles, con el propósito de establecer ventajas, desventajas, riesgos, oportunidades, aplicaciones y usos. La metodología tradicional, permitió obtener el análisis de 4 metodologías mas exitosas como son PMBok, Price2, IPMA, APM Bok, las cuales comparten macro procesos relacionados con la iniciación, planeación, ejecución, seguimiento, control y cierre, así como procesos o áreas de conocimiento asociadas a definición de alcance, programación de actividades, evaluación de costos, respuesta a riesgos, gestión de comunicaciones y adquisiciones o compras, entre otras. Sus características principales se asocian con una definición clara desde el comienzo, creación de un plan detallado, predictivos, contratos estrictos, priorización de problemas y optimización de recursos. De otro lado, se consideraron 9 metodologías ágiles como Scrum, XP, Lean Start-Up, DevOps, Kanbas, Design Sprint, Agile Inception, Ágil Unified Process e Iconix encontrando variables comunes relacionadas con flexibilidad, inmediatez, organización y resultados que procuran por el mejoramiento en la entrega del producto o servicio de acuerdo con los requerimientos y expectativas de satisfacción del cliente.


CONCLUSIONES

Dentro de las similitudes, diferencias, ventajas y desventajas encontradas en las metodologías evaluadas, se pueden considerar los siguientes elementos: El uso de metodologías tradicionales es esencial al inicio en un equipo de desarrollo de proyectos TI y obligan al cliente a tomar las decisiones al inicio del proyecto. Las metodologías de desarrollo ágil buscan entregar productos y servicios desarrollados a la medida y en el tiempo o plazo establecido sin importar que los requerimientos cambien en cualquier etapa del proyecto ya que utiliza el principio de la agilidad que es la respuesta efectiva al cambio. En el uso de metodologías ágiles se incorpora el cómo gestionar la incertidumbre mientras que las tradicionales aportan la facilidad de predecir los costes y necesidades del proyecto. En las metodologías tradicionales cliente sabe exactamente cómo será su producto final, además se conoce el tamaño, costo y fechas del proyecto. Las pruebas se retrasan hasta el final y si aparece un error de requisito o si se necesita hacer un cambio, el proyecto debe comenzar de nuevo. En las metodologías ágiles existen cambios sobre la marcha y se realizan pruebas tras añadir nuevas funcionalidades en el proyecto. Las metodologías tradicionales son orientadas a procesos y se concibe como un proyecto mientras que las metodologías ágiles  son orientadas a personas y subdivididos en varios proyectos pequeños. En el desarrollo ágil el cliente interactúa con el equipo de desarrollo mediante reuniones, en cambio en el desarrollo tradicional el cliente es parte del desarrollo del proyecto. De acuerdo a lo escrito anteriormente, no se puede afirmar categóricamente que una metodología sea mejor que otra, ya que los resultados del éxito o fracaso del proyecto dependerán de si se ha elegido una metodología adecuada para su desarrollo, si se han empleado correctamente las herramientas de gestión, si se ha realizado una buena gestión por parte del líder de proyectos y si el equipo de trabajo ha estado motivado y concentrado en el trabajo. En la búsqueda de mejorar la gestión de proyectos de TI, se propone que para un trabajo futuro se siga explorando en las características, actualizaciones y tipos de proyectos que requieren el uso de metodologías para ser exitosos en el logro de los resultados.
Tarazon Romo Adriana Guadalupe, Universidad de Sonora
Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana

APROVECHAMIENTO DE RESIDUOS CERáMICOS COMO MATERIALES DE CONSTRUCCIóN: REVISIóN DEL ESTADO DEL ARTE


APROVECHAMIENTO DE RESIDUOS CERáMICOS COMO MATERIALES DE CONSTRUCCIóN: REVISIóN DEL ESTADO DEL ARTE

Estrada Ceja Elvia Gissel, Instituto Tecnológico de Tepic. Marin Luna Ruth del Carmen, Benemérita Universidad Autónoma de Puebla. Tarazon Romo Adriana Guadalupe, Universidad de Sonora. Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Analizar la viabilidad del uso de los residuos de construcción y demolición provenientes de materiales cerámicos por medio de una investigación bibliográfica enfocada en su aprovechamiento en cemento, concreto, rellenos y pavimentos.



METODOLOGÍA

Definir los objetivos de investigación Recibir capacitaciones sobre búsqueda en bases de datos, citación y conceptos técnicos Analizar cómo se estructuran y escriben los artículos de revisión de estado del arte Consulta en bases de datos y fuentes documentales primarias, especialmente artículos de revistas científicas indexadas Organización y selección de información Análisis de información recolectada Entrevistas con expertos Ejecución de seminarios sobre el tema abordado Inicio de la redacción del documento Generar interpretaciones y posturas críticas en torno al tema Culminación del documento escrito en un formato de revista o congreso técnico


CONCLUSIONES

El sector de la construcción es uno de los principales contribuyentes a la degradación ambiental, especialmente, por la generación de residuos. En la actualidad, la cantidad abrumadora de desechos de construcción y demolición se ha convertido cada vez más en una grave problemática, que afecta negativamente el ambiente por la contaminación de suelo, aire y agua. Por lo anterior, es fundamental crear una conciencia en el medio técnico y exigir su uso, ya que como ha sido mostrado en diversas investigaciones, estos residuos pueden ser aprovechados como materiales de construcción, promoviendo así la economía circular. PRINCIPALES RESULTADOS: El cemento es uno de los principales contribuyentes a las emisiones de gases de efecto invernadero. Los residuos cerámicos pueden reemplazar parcialmente al cemento y tienen un desempeño variable dependiendo de la cantidad utilizada, produciendo así mezclas sostenibles y económicas. Una de las ventajas del uso de estos residuos en el concreto es la propiedad de mitigar significativamente la contracción autógena. Agregados reciclados cerámicos pueden ser aprovechados en la producción de concreto no estructural para losas de pavimento. Finalmente, es importante que estos agregados cumplan con las normas vigentes de cada país.
Terán Contreras Cynthia Natalia, Instituto Tecnológico Superior de Guanajuato
Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato

OBTENCIóN DE UN AISLADO DE PROTEíNA A PARTIR DE LA SEMILLA DE YACA


OBTENCIóN DE UN AISLADO DE PROTEíNA A PARTIR DE LA SEMILLA DE YACA

Terán Contreras Cynthia Natalia, Instituto Tecnológico Superior de Guanajuato. Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Antes de realizar esta investigación, se formuló un jugo de yaca adicionado con chía pero únicamente se utilizaba el bulbo del fruto. Posteriormente se buscaron opciones para determinar que podría formularse con la semilla del mismo.  Proteínas Las proteínas son sustancias que contienen nitrógeno y están formadas por aminoácidos. Sirven como el principal componente estructural de los músculos y otros tejidos del cuerpo. Para que las proteínas sean utilizadas por el cuerpo, deben ser metabolizadas en su forma más simple (aminoácidos). La determinación de la calidad de una proteína se determina mediante la evaluación de su composición de aminoácidos esenciales, su digestibilidad y la biodisponibilidad de los aminoácidos (FAO/OMS, 1990).  Semilla La semilla es un grano contenido en el interior del fruto de una planta. Según la morfología de la semilla de la yaca se encuentra entre las gramíneas ya que cuenta con un embrión basal lateral. Las semillas se consumen en la dieta humana por sus componentes bioactivos y los nutrientes que proporcionan. La semilla de yaca Las semillas de yaca contienen lignanos, isoflavonas, saponinas, fitonutrientes desde anticancerígenos hasta antihipertensivos, antienvejecimiento, antioxidantes y antiulcerosos. La semilla está encerrada en una fina capa marrón, que cubre el carnoso cotiledón blanco que es rico en almidón, fibra y proteínas. Las semillas pueden ser hervidas, asadas y conservadas, además se muelen para hacer harina. La harina contiene manganeso y magnesio, así como 2 lectinas: jacalina y artocarpina. Se ha estudiado el efecto antibacteriano contra E. coli y B. megaterium. También contiene 6,03 mg/g de azúcar no reductora que funciona como prebiótico. Utilización de subproductos en la industria alimentaria En la industria alimentaria se producen una gran cantidad de subproductos durante el procesamiento. La tendencia reciente se centra en la utilización de estos subproductos para la elaboración de productos alimenticios funcionales, la cual consta de etapas: pretratamiento, separación, extracción, purificación y formulación. Extracción de proteínas de fuentes vegetales Para la fabricación de aislados de proteína se han utilizado: trigo, arroz, sorgo, soya, semillas de girasol, maní y oleaginosas. Los cereales, por contener más del 12% de proteína y por ser cultivados en todo el mundo, son la fuente principal de proteína. La extraccion de proteína depende del diferencial de solubilidad de las proteínas en solución acuosa. En general, se usa un ajuste de condiciones externas iónicas y de pH. Alergia a las proteínas animales La alergia a las proteínas de origen animal es un importante problema de salud pública. Los principales alérgenos pertenecen a familias de proteínas específicas: lipocalina y la albúmina sérica.  Dietas vegetarianas y veganas Las dietas vegetarianas siguen creciendo en popularidad ya que incluyen beneficios para la salud, como la reducción de sufrir enfermedades cardíacas, diabetes y algunos tipos de cáncer. Sin embargo, mientras más restrictiva sea la dieta, más difícil será obtener nutrientes. 



METODOLOGÍA

Acondicionamiento de la semilla El proceso térmico para la eliminación de saponinas y cianógenos asi como para retirar la cascara. Secado en horno de convección. Molienda. Extracción de grasa por método Soxhlet.  Punto isoeléctrico Disolución de la harina en agua a diferentes pH.  Colocar harina desgrasada en agua a cada pH en tubos por duplicado. Agitación de las muestras. Centrifugar las muestras, guardar el sobrenadante y congelar. Cuantificación de proteínas  Colocar muestra con reactivo de Bradford en tubos por triplicado, agitar y colocar en oscuridad. Se midió la absorbancia en un espectrofotómetro. Evaluación de resultados para determinar el pH óptimo para la extracción. Electroforesis SDS-PAGE Las fracciones proteicas se analizarán por electroforesis en gel con concentración de acrilamida Inyección de la muestra: tomar el marcador y cada fracción proteicas. Correr el gel en la cámara de electroforesis. Tinción con azul brillante de Coomassie, desteñido con etanol y lavado con etanol/ácido acético/agua. Las bandas serán cuantificadas con el programa 1Dscan EX Análisis estadístico Analisis mediante un análisis de varianza (ANOVA) (Tukey, 0.05)


CONCLUSIONES

El aumento de la población vegana, así como las alérgicas a las proteínas animales, ha creado la necesidad de formular alternativas proteínicas para satisfacer el requerimiento nutricional de esta parte de la población. En base a la investigación comprobamos que la proteína obtenida de la semilla de yaca contiene aminoácidos que complementan dietas restrictivas. Por el momento puede observarse que a pH alcalino se obtiene mayor concentración de proteína. Se pretende formular el aislado de proteína con distintos sabores para que sea del agrado del consumidor. Posteriormente tendrá distintas presentaciones, esto dependerá del rendimiento al momento de la formulación. Así mismo el etiquetado será evaluado de acuerdo a normas vigentes, y mantendrá la gama de colores que el jugo presenta.
Toledo Rodríguez Dillian, Universidad Autónoma de Baja California
Asesor: Dr. Marco Leopoldo García Guaderrama, Universidad de Guadalajara

ARSéNICO EN AGUA POTABLE. PROPUESTA DE SOLUCION PARA ZIMAPáN, HIDALGO.


ARSéNICO EN AGUA POTABLE. PROPUESTA DE SOLUCION PARA ZIMAPáN, HIDALGO.

Toledo Rodríguez Dillian, Universidad Autónoma de Baja California. Asesor: Dr. Marco Leopoldo García Guaderrama, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La contaminación de los recursos hídricos debido al arsénico (As) es un problema grave que afecta a millones de personas en todo el mundo. (Kobya et al., 2019). Uno de los objetivos de la agenda 2030 para el desarrollo sostenible es garantizar la disponibilidad y la gestión sostenible del agua y el saneamiento para todos. La contaminación del agua por metales pesados es un problema mundial. La exposición oral crónica a niveles elevados de arsénico puede ocasionar efectos gastrointestinales, anemia, neuropatía periférica, lesiones cutáneas, hiperpigmentación, gangrena de extremidades, lesiones vasculares,  daño hepático o renal y problemas cognitivos en niños.  Alrededor del mundo, 70 países presentan altos niveles  de As. En México, una localidad con altas concentraciones de As es Zimapán.  Zimapán es un municipio ubicado en el estado de Hidalgo con  40,201 habitantes y 10,770 hogares según datos del INEGI 2015. El problema se descubrió en 1992. Se encontraron concentraciones de arsénico de 1mg/L, 100 veces superior a la norma recomendada por la OMS, 40 veces mayor a la norma mexicana NOM-127-SSA1-1994. (Cacelín, 2018).  Un estudio en 1997 estudió a personas expuestas al As. El 80 % presentaban afecciones en la piel.  (Armienta et al., 1997). Los estudios son escasos pero es probable que problemas más grandes esten presentes en la población. Para resolver este problema en 2011 se construyó una planta potabilizadora  para eliminar el arsénico en el agua por el método de coagulación. La planta potabilizadora no solucionó el problema. Un ejemplo de ello:  en 2018  El Universal mandó a  analizar 3 muestras de agua del municipio de Zimapán.  En la muestra de un pozo se obtuvo un resultado de 0.940 mg/L de arsénico.La segunda muestra fue de agua tratada en la planta  obteniendo un resultado de 0.719 mg/L. La tercer muestra fue del sureste del municipio, los resultados mostraron agua libre de arsénico. (Mota, 2018). En 2018 se realizó un estudio en habitantes saludables de Zimapán. Se encontraron indicadores de enfermedades cardiometabólicas. (Beck et al., 2018). La salud de los zimapanecos está en grave peligro. Se deben buscar soluciones eficientes y accesibles a los habitantes de Zimapán.



METODOLOGÍA

En este proyecto se propone una solución casa por casa. Se propone construir un sistema  de 4 filtros  debajo de la tarja  para la eliminación de As en el agua que se utiliza para beber y cocinar. El sistema consiste en 4 filtros comerciales, normalmente utilizados en sistemas caseros de filtración de agua con una capacidad de 500cm³ una vez instalado el cartucho que contiene al material filtrante. El material utilizado para la remoción de As es Bayoxide E33 que es un oxihidróxido de hierro cristalino (𝜶-FeOOH) de la marca Lanxess. Es el producto de referencia para determinar la eficiencia de otros materiales de filtración.  El primer filtro es de carbón activado para la eliminación previa de diversos contaminantes distintos al As. El segundo filtro es con Bayoxide E33 para la eliminación de la mayor parte del As,  95% (estimado). El tercer filtro consiste en Bayoxide E33, debido a las altas concentraciones de As en Zimapán es necesario este segundo filtro de Bayoxide E33 para asegurar la completa remoción de As. El cuarto filtro contiene un cartucho de polipropileno de 5 µm para la eliminación de sólidos suspendidos.    Materiales y costos. Manguera de polipropileno de  1 metro de largo, ¼  (Home Depot, $48).  Cartucho carbón activado 2.5 x 10 (Carbotecnia, $81.87).  2 cartuchos 2.5 x 10  (Carbotecnia, $37.08 ).  Llave cuello de ganso ¼ (G & D, $125). Cartucho de polipropileno 2.5 x 10 (Carbotecnia, $25.52).  4 porta cartuchos 2.5 x 10, ¼(Carbotecnia, $561.72). 5 conectores NPT (Grupo Urrea $50).  600 g Bayoxide E33  (grupo filtrante, $432).  Mano de obra ($200). Según la OPS por hogar se consumen 16 litros para beber y cocinar. La concentración de As en Zimapán es 0.940 mg/L según lo reportado por El Universal en 2018. ( 16 L de agua )(0.940 mg de As/L de agua)=15.04 mg de As al día. Por cada hogar  de Zimapán se necesitan eliminar 15.04 mg de As al día en el agua para beber y cocinar. Los cartuchos tiene una capacidad de 0.5L=500cm³ Se calcula los gramos necesarios de Bayoxide E33 por cartucho: Densidad Bayoxide E33: 0.6 g/cm³ (500 cm³)(0.6g de bayoxide/ 1cm³)=300 g de Bayoxide E33 por cartucho. Se calcula la vida útil del cartucho. (11mg As/1 g Bayoxide)(300g Bayoxide)=3300 mg de As eliminado por cartucho de Bayoxide E33. Suponiendo que un primer filtro elimina el 95% de arsénico (15.04)(0.95)=14.288 3300 mg As/14.288mg As por día=230 días.  Un segundo filtro elimina el 5% restante 3300 mg As/0.752 mg As por día=4388 días. El filtro tiene un costo unitario de producción de $1561.19, incluyendo costo de instalación.  El cartucho de carbón activado se recomienda cambiar cada año, el filtro de polipropileno cada 6 meses. El primer filtro de Bayoxide E33 tiene una vida útil de  7.6 filtro y 12 años para el segundo filtro. Como medida de seguridad el filtro de Bayoxide E33 se debe cambiar cada seis meses.


CONCLUSIONES

Es necesario asegurar agua libre de As. Los altos niveles de As en el agua se ven reflejados en problemas de salud de la población que consume agua contaminada por dicho elemento, tal es el caso de Zimapán, Hidalgo.  En los datos reportados del agua de la región de Zimapán se midieron concentraciones de As en un pozo y después de ser tratada. Resaltando que la presencia del As disminuye  en apenas un 23%. Por medio del filtro Bayoxide E33 propuesto como proyecto se obtiene una reducción esperada del 100% de As en el agua, en comparación con los resultados obtenidos en la planta potabilizadora es 4.3 veces más efectivo.  Se sugiere el uso de Bayoxide E33 pues es un medio filtrante comercial que ya ha sido probado, sin embargo se debe seguir trabajando en el desarrollo de productos con mejor tecnología y a menor precio para garantizar agua libre de contaminantes como lo es el As.
Toncel Manotas Esjeisson Rafael, Universidad de la Guajira
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

REVISIóN CRíTICA PARA EVALUAR LA DEGRADACIóN DE FáRMACOS EN EFLUENTES RESIDUALES A TRAVéS DEL ACOPLAMIENTO HONGOS-BACTERIAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES POR FERMENTACIóN EN ESTADO SóLIDO.


REVISIóN CRíTICA PARA EVALUAR LA DEGRADACIóN DE FáRMACOS EN EFLUENTES RESIDUALES A TRAVéS DEL ACOPLAMIENTO HONGOS-BACTERIAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES POR FERMENTACIóN EN ESTADO SóLIDO.

García Venegas José Raymundo, Universidad Autónoma de Baja California. Gutierrez Redondo Jose Luis, Universidad de la Guajira. Toncel Manotas Esjeisson Rafael, Universidad de la Guajira. Torres Ustate Luis Miguel, Universidad de la Guajira. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El aumento de la población y factores como la calidad de vida han desencadenado problemáticas ambientales en todo el mundo, como el incremento en la producción de desechos y el aumento de los contaminantes emergentes (CE) en las aguas residuales (AR), lo que ha llevado a replantear el modelo de desarrollo social de los países, con vistas al cumplimiento de los Objetivos de Desarrollo Sostenible (ODS). Los CE comprenden una amplia gama de compuestos químicos, compuestos farmacéuticos (CF), productos de cuidado personal, agentes tensoactivos, plastificantes y aditivos industriales presentes en AR (Janet et al., 2012). Los CF son un grupo perjudicial para el medio ambiente y la salud humana, (Morsi et al., 2020) reporta que estos compuestos podrían reducir el crecimiento de las plantas, causar trastornos metabólicos, alteraciones reproductivas, desequilibrios hormonales, entre otros. Como respuesta a esta problemática, la comunidad científica a evaluado diversas opciones para el tratamiento de estos compuestos, entre las alternativas evaluadas, se encuentra el tratamiento biológico, utilizando hongos de podredumbre blanca o marrón. estudios han investigado el potencial de degradación de contaminantes emergentes, a través del tratamiento biológico. (Morsi et al., 2020). En general, para transformar los residuos en producto valioso, deben ser sometidos a procesos físicos, químicos o biológicos, ejemplos de estos métodos son la reducción, la oxidación y la descomposición realizadas por las enzimas (Bilal et al., 2019; Janusz et al., 2013). Estas comprenden múltiples sustratos orgánicos e inorgánicos, de los cuales se puede aprovechar el material lignocelulósico en la contigua producción de biocombustibles mediante procesos de digestión anaerobia (AD) para la obtención de biogás o una posible fermentación de los sustratos en estado sólido (SSF) para la obtención de etanol, gracias al potencial redox de las enzimas (Momayez et al., 2018). La producción de etanol derivado de subproductos lignocelulósicos se está probando actualmente en escalas piloto (Taherzadeh y Karimi, 2008). La SSF para la producción de bioetanol consiste básicamente en dos pasos básicos: la hidrólisis enzimática de la lignocelulosa (para liberar los azúcares fermentables) y la conversión de los azúcares en etanol (Kumar et al., 2020). Otro proceso que interviene en la producción de biocombustible (biogás/biometano) es la digestión anaeróbica en estado sólido (SS-AD), que es un proceso biológico de cuatro etapas (hidrólisis, acidogénesis, acetogénesis y metanogénesis) que se produce por la descomposición de materiales lignocelulósicos por diversos microorganismos (bacterias/hongos) en condiciones anaeróbicas para producir biogás o metano (Pečar et al., 2020). En el presente estudio se pretende evaluar la factibilidad de la degradación de fármacos en efluentes residuales y la capacidad de producción de biocombustibles mediante el acoplamiento hongos-bacterias en un sistema de tratamiento en estado sólido, mediante la identificación de las principales especies fúngicas utilizadas para la degradación de fármacos en efluentes residuales, el establecimiento de las condiciones óptimas operaciones para la fructificación de hongos en fermentación de estado sólida y determinar la capacidad de producción de biocombustibles en sistemas acoplados macromicetos – bacterias.



METODOLOGÍA

Revisión bibliográfica En primer lugar, se efectuó una exhaustiva revisión bibliográfica la cual se orientó por medio de criterios técnicos relacionados con el objeto de la investigación. realizando búsquedas dentro de bases de datos, como: Scopus, Sciencedirect, Scielo, entre otras. Donde, se introdujeron las palabras claves (cultivo de hongos, degradación de fármacos, pretratamiento fúngico, AD en estado sólido, sustratos, eficiencia biológica, actividad enzimática, producción de etanol, producción de metano), finalmente se revisaron más de 40 referencias, compuestas por: libros, capítulos de libro, artículos de revisión e investigación, a esta información se realizó un análisis comparativo sintetizando los resultados mediante tablas y figuras. Análisis procedimental El proceso experimental para el tratamiento de los CF y la generación de biogás y etanol se subdividen en tres momentos: degradación de contaminantes emergentes, fermentación en estado sólido y producción de biocombustibles. Dentro de la degradación de contaminantes emergentes se estudian las enzimas que participan en la degradación de los fármacos y los hongos que producen estas enzimas, los tipos de tratamientos usados para mejorar la actividad enzimática, así como las condiciones operacionales óptimas para cada hongo y enzima de interés. Para la fermentación en estado sólido, se detallan las condiciones operacionales para la fermentación en estado sólido, los tipos de tratamientos que se aplicaron, los productos a obtener y las variables de respuesta utilizadas junto a los valores obtenidos. Por último, se evalúa la producción de biocombustibles, identificando condiciones óptimas y tipos de pretratamientos e inhibidores existentes.


CONCLUSIONES

Se concluye que el sistema de acoplamiento estará integrado por: El cultivo de hongos-bacterias para la degradación de fármacos. Digestión Anaerobia en Estado sólido de sustratos pretratados por hongos para la producción de biogás. Este sistema tiene la principal ventaja de que el costo del pretratamiento puede compensarse con la obtención de un subproducto de valor agregado (hongos). También, se concluye que existe una viabilidad en cuanto a la utilización de sustratos pretratados para la degradación de fármacos y producción de biogás a través de un cultivo integrado de hongos-bacterias en estado sólido.
Torres Aguilar Ishmael Benjamin, Instituto Politécnico Nacional
Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México

CREACIÓN DE AGENTE CONVERSACIONAL (CHATBOT) DEDICADO A LA REALIZACIÓN DE OPERACIONES MATEMÁTICAS BÁSICAS.


CREACIÓN DE AGENTE CONVERSACIONAL (CHATBOT) DEDICADO A LA REALIZACIÓN DE OPERACIONES MATEMÁTICAS BÁSICAS.

Diaz Mendoza Victor Eugenio, Instituto Tecnológico de Reynosa. Rodriguez Rodriguez Angel Gabriel, Instituto Politécnico Nacional. Torres Aguilar Ishmael Benjamin, Instituto Politécnico Nacional. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la tecnología ha ido mejorando, actualizando, adaptándose a las diferentes necesidades y problemáticas de los seres humanos , una de esas tecnologías que ha causado más revuelo es la A.I (Artificial Intelligence) o bien conocida como inteligencia artificial en la cual se ha intentado que las máquinas puedan tener la capacidad de pensar como lo hacen los seres humanos. Dentro de los avances que se han realizado dentro de la A.I son los Chatbots estos nos permiten mantener una conversación entre una persona y una máquina. Aunque estos ofrecen muchas ventajas para los negocios y servicios , muchos de estos negocios prefieren no implementarlos ya que muchos de los chatbots no proporcionan una interacción  tan natural como lo sería con una persona de por medio , ya sea porque el chatbot no tiene el suficiente conocimiento acerca del lenguaje natural de los usuarios , o la información que posee el chatbot es insuficiente o es acerca de un tema específico,etc.



METODOLOGÍA

Para el desarrollo de nuestro chatbot (agente conversacional) abarcamos muchas ramas de conocimientos para el aprendizaje de máquinas, incluyendo Machine Learning y Deep Learning, esto fue a través del lenguaje de programación Python ya que posee una curva de aprendizaje fácil y en la actualidad se encuentra en la vanguardia en este tipo de disciplinas. Lo primero realizado fue familiarizarnos con el lenguaje Python y aprender que es un chatbot, sus capacidades y limitaciones e ideamos cual seria la función de nuestro chatbot, la cual es resolver operaciones básicas y trigonométricas a través de una interacción natural entre humano y chatbot.   Una vez delimitando los límites y alcances de nuestro chatbot procedimos a programarlo usando un software llamado chatvoice proporcionado por nuestro asesor. La interacción humano - chatbot debe ser de la manera más natural posible, para esto nuestro chatbot necesita entender lo que dice el usuario y responder al usuario de manera lógica a lo que este dijo. Para lograr esto utilizamos una red neuronal la cual tuvimos que entrenar (término utilizado para lograr que una red neuronal aprende a reconocer patrones) con ejemplos de conversaciones y ejemplos de diálogos acordes a la funcionalidad de nuestro chatbot, diseñamos mas de 500 ejemplos de diálogo humano y logramos que nuestra red neuronal aprendiera a reconocer dichos patrones. Ya teniendo estos conocimientos y programas desarrollamos a nuestro chatbot y fue puesto en servidores con la finalidad de que personas ajenas a nuestro equipo de trabajo lo pudieran probar y así cotejar el nivel de efectividad y el nivel de entendimiento de nuestro chatbot, los resultados fueron satisfactorios y así fue como concluimos la estancia.


CONCLUSIONES

A través de la estancia se logró adquirir conocimiento sobre la creación de chatbots (Agentes conversacionales) tales como conocimientos sobre aplicaciones de redes neuronales aplicado al entendimiento del lenguaje, así como también se logró afirmar conocimiento en el lenguaje de Python, se concluyó correctamente el propósito de la estancia de investigación.
Torres Canizales Francisco Aldair, Instituto Tecnológico de Reynosa
Asesor: Mtro. Antonio Soto Luis, Tecnológico de Estudios Superiores de Valle de Bravo

COMPARACIóN EN LA IMPLEMENTACIóN DE FIREWALLS DE SOFTWARE LIBRE(PFSENSE) Y LICENCIA(FORTINET)


COMPARACIóN EN LA IMPLEMENTACIóN DE FIREWALLS DE SOFTWARE LIBRE(PFSENSE) Y LICENCIA(FORTINET)

Torres Canizales Francisco Aldair, Instituto Tecnológico de Reynosa. Asesor: Mtro. Antonio Soto Luis, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Uno de los elementos de seguridad que se requieren en la empresa es el firewall, un elemento que permite controlar el tráfico de red tanto hacia fuera como dentro de las empresas o cualquier otro lugar donde se trabaje por medio de la red, las configuraciones de firewall pueden ser tanto para grandes empresas como existen posibilidades para pequeñas empresas que no tienen muchos conocimientos técnicos. Para ello hay que saber configurarlo perfectamente, ya que sin una buena configuración no se puede conseguir seguridad en Internet. Las empresas que no tienen conocimientos de este tipo de software o hardware suelen recurrir a especialistas que serán capaces de configurarlo en función de sus necesidades sabiendo que cada una es diferente en sus procesos de manejo de informacion. La mayor problemática es que no protege amenazas o ataques de usuarios negligentes ni protege ataques que no pasen por medio del firewall ni la copia de datos importantes si se ha accedido a ellos. Tampoco protege de ataques de ingeniería social. Y decimos esto porque no por el hecho de contar con un firewall hay que dejar de prestar atención a la seguridad en la empresa especialmente cuando se navega por Internet. Por estas razones, el firewall es un gran recurso de seguridad para las empresas, sobre todo en caso de hardware cuando las empresas utilizan el router que les ofrecen las operadoras de Internet.



METODOLOGÍA

Para llevar a cabo la comparacion entre firewalls de software libre y de licencia se llevaron a cabo las siguientes actividades: Se realizó la instalación de una distribucion de código abierto denominada Pfsense y una de licencia llamada Fortinet por medio de máquinas virtuales y se utilizaron para determinar la eficiencia de trabajo e implementación para su uso como Firewall, se crearon usuarios para la administración de estas distribuciones, guardamos archivos de respaldo y restauramos en caso de fallas. Configuramos sus interfaces y cambiamos los pools de direcciones IP a asignar en nuestros segmentos LAN, creamos conexiones seguras a través de SSH hasta la instalación de nuestras distribuciones, configuramos nuestras distribuciones como proxy e instalamos squidguard dentro de las mismas, iniciamos con la configuración de una VPN e instalamos los certificados necesarios para lograrlo. Creamos reglas de acceso en nuestro firewall para permitir la conexión VPN en nuestras distribuciones y creamos instancias, descargamos e hicimos uso de un cliente Open VPN para probar nuestras conexiones VPN hacia nuestras distribuciones, realizamos un Port Forward dentro de nuestras dos distribuciones, optimizamos nuestros Dashboards añadiendo un grafico en vivo sobre el consumo del ancho de banda en las interfaces, También vimos el trafico generado por equipos particulares así como limitar el ancho de banda. Configuramos un portal cautivo para cada una de nuestras distribuciones para que los clientes deban autenticarse a la hora de tener acceso a nuestra red, configuramos la autenticación vía vouchers en nuestro portal cautivo, añadimos enlaces WAN para configurar grupos de gateways, dejamos funcionando un Failover entre los enlaces WAN, además enrutamos los paquetes de red a través de gateways determinados. Realizamos el bloqueo de trafico HTTPS usando nuestras distribuciones, realizamos el bloqueo de paginas web HTTPS, sin la necesidad de usar los certificados emitidos por nuestras distribuciones, realizamos el bloqueo de páginas web por DNS incluyendo una lista de sitios bloqueados por medio de blacklist y categorías por DNS haciendo uso de OPENDNS, realizamos el bloqueo de descarga de archivos haciendo uso de su extensión. Trabajamos en la configuración del safesearch o búsqueda segura en nuestras distribuciones, así mismo configuramos el safesearch en el buscador de Google dentro de nuestras distribuciones. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre cómo trabajan los firewalls y todo lo que esto conlleva de las dos distribuciones utilizadas, se logro configurar estas distribuciones para tener un control y monitoreo de nuestras redes dependiendo en donde se implementen ya sea en alguna empresa, negocio u otro lugar donde se trabaje por medio de la red con conexion a internet, esperamos que al realizar este trabajo mas personas se decidan a utilizar estas dos grandes herramientas para proteger y administrar correctamente su espacio de trabajo.
Torres Felegrino María Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

PROYECTO EN ANDROID STUDIO CON CONEXIóN A BASES DE DATOS PARA UN DICCIONARIO DE LENGUAS INDíGENAS


PROYECTO EN ANDROID STUDIO CON CONEXIóN A BASES DE DATOS PARA UN DICCIONARIO DE LENGUAS INDíGENAS

Torres Felegrino María Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las lenguas indígenas forman parte del patrimonio cultural de la humanidad por lo cual es importante promover y preservar estos idiomas, así como los pueblos que se comunican a través de ellas. De acuerdo a la Organización de las Naciones Unidas, cada dos semanas desaparece una lengua indígena, es un dato alarmante lo cual podría provocar la desaparición de la mitad de los idiomas que aún se hablan. Si pierden sus lenguas, también perderán su cultura y con ella su sabiduría (Elias, 2019). Esta problemática se da por factores relacionados con sus niveles socioeconómicos y de exclusión social, ya que sufren de desigualdad y racismo lo cual no da lugar a ejercer su derecho de hablar su lengua natal. El objetivo de esta investigación es poder realizar una conexión de bases de datos a Android Studio para poder realizar una aplicación móvil que contribuya a preservar y promover las lenguas indígenas en nuestra comunidad y así evitar su extinción.



METODOLOGÍA

Para el desarrollo de la aplicación se ha determinado realizar diversas investigaciones de índole exploratorio como nivel de investigación con el fin de conocer las aplicaciones existentes en el mercado y realizar un benchmarking respecto a las aplicaciones móviles enfocadas a lenguas indígenas además de conocer los gestores de bases de datos que se pueden aplicar a la programación en Android Studio. Por otra parte, la investigación conto también con investigación aplicada; se obtuvo información de los gestores de bases de datos y se decidió utilizar MySQL para poder acceder a la base de datos a través de un servidor además de que se estuvo investigando código que se podría utilizar en ciertas partes de la aplicación de acuerdo a las necesidades y requerimientos de la misma. Para el desarrollo de la aplicación se siguió una metodología por prototipos ya que se elaboró un diseño rápido de la aplicación, comenzando con la recolección de los requisitos, definiendo los objetivos globales para la aplicación e identificando los requisitos conocidos y las áreas del esquema para para pasar directamente a la programación de la aplicación. Se realizaron varios prototipos o bosquejos ya que se iba modificando el bosquejo inicial de acuerdo a los avances obtenidos. En primer lugar, se realizaron unas pruebas básicas con ejercicios simples de conexión tanto con MySQL como con SQLite para conocer las bondades de cada sistema gestor de bases de datos, Por un lado, SQLite no requiere servidor y ayuda a la persistencia de los datos y por otra parte MySQL requiere que la aplicación se encuentre dentro de la misma red donde el servidor, pero sería más ligera la aplicación por esa misma razón de que no se tendrá que instalar una base de datos dentro del dispositivo. Una vez hechas estas pruebas se llevo a cabo la recopilación de los requerimientos funcionales y no funcionales de la aplicación entre los cuales se encuentran el inicio de sesión además de la identificación de si es la primera vez que se utiliza la aplicación con una sesión activa, y que se realice el CRUD (créate, read, update and delete) de los datos tanto para la parte de usuarios como para la parte de las palabras en español como en purépecha.  Se realizo el modelo relacional para la base de datos para el diccionario de lenguas indígenas en el cual se buscó su escalabilidad, así de esta manera se pueden agregar nuevos idiomas en un futuro sin alterar la base de datos únicamente relacionando la consulta en varias tablas a través de un join.  Una vez hecho esto se llevo a cabo el diseño del logotipo en Adobe Ilustrator y se eligió la paleta de colores de acuerdo a los colores más representativos dentro de los hablantes de lenguas indígenas. Al tener estos puntos se procedió a llevar a cabo la lógica de la programación, por lo cual se realizaron web services los cuales fueron elaborador con el lenguaje PHP y así permitir a la aplicación tener comunicación con el servidor donde se encontrará la base de datos, se realizó un web service por cada operación y consulta requerida. Posteriormente se realizo la programación de la aplicación manteniendo una comunicación de fragment a fragment y en algunos casos de activity a fragment en un navigation drawer.


CONCLUSIONES

Durante las siete semanas se ha logrado adquirir conocimientos de programación, herramientoas y librerías útiles en Android Studio y en PHP que se llevaron a la practica durante el proyecto.  Hasta el momento se tiene la lógica del programa, donde entran las operaciones de inserción, modificación, lectura y eliminación de los usuarios y las palabras, la validación de los usuarios existentes en la base de datos para que puedan acceder a la aplicación, así como el reconocimiento de si hay una sesión abierta en el dispositivo o no y en caso de que no, recordar las ultimas credenciales correctas con las cuales se ingreso a la aplicación a través de shared preferences con las cuales también se logro identificar que usuario es el que se encuentra realizando la inserción y de esta manera evitar que los usuarios administradores manipulen de manera errónea la aplicación, al implementar un navigation drawer en la aplicación se redujo el numero de clics para las operaciones y no se requiere un mayor esfuerzo para su uso.
Torres Ustate Luis Miguel, Universidad de la Guajira
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

REVISIóN CRíTICA PARA EVALUAR LA DEGRADACIóN DE FáRMACOS EN EFLUENTES RESIDUALES A TRAVéS DEL ACOPLAMIENTO HONGOS-BACTERIAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES POR FERMENTACIóN EN ESTADO SóLIDO.


REVISIóN CRíTICA PARA EVALUAR LA DEGRADACIóN DE FáRMACOS EN EFLUENTES RESIDUALES A TRAVéS DEL ACOPLAMIENTO HONGOS-BACTERIAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES POR FERMENTACIóN EN ESTADO SóLIDO.

García Venegas José Raymundo, Universidad Autónoma de Baja California. Gutierrez Redondo Jose Luis, Universidad de la Guajira. Toncel Manotas Esjeisson Rafael, Universidad de la Guajira. Torres Ustate Luis Miguel, Universidad de la Guajira. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El aumento de la población y factores como la calidad de vida han desencadenado problemáticas ambientales en todo el mundo, como el incremento en la producción de desechos y el aumento de los contaminantes emergentes (CE) en las aguas residuales (AR), lo que ha llevado a replantear el modelo de desarrollo social de los países, con vistas al cumplimiento de los Objetivos de Desarrollo Sostenible (ODS). Los CE comprenden una amplia gama de compuestos químicos, compuestos farmacéuticos (CF), productos de cuidado personal, agentes tensoactivos, plastificantes y aditivos industriales presentes en AR (Janet et al., 2012). Los CF son un grupo perjudicial para el medio ambiente y la salud humana, (Morsi et al., 2020) reporta que estos compuestos podrían reducir el crecimiento de las plantas, causar trastornos metabólicos, alteraciones reproductivas, desequilibrios hormonales, entre otros. Como respuesta a esta problemática, la comunidad científica a evaluado diversas opciones para el tratamiento de estos compuestos, entre las alternativas evaluadas, se encuentra el tratamiento biológico, utilizando hongos de podredumbre blanca o marrón. estudios han investigado el potencial de degradación de contaminantes emergentes, a través del tratamiento biológico. (Morsi et al., 2020). En general, para transformar los residuos en producto valioso, deben ser sometidos a procesos físicos, químicos o biológicos, ejemplos de estos métodos son la reducción, la oxidación y la descomposición realizadas por las enzimas (Bilal et al., 2019; Janusz et al., 2013). Estas comprenden múltiples sustratos orgánicos e inorgánicos, de los cuales se puede aprovechar el material lignocelulósico en la contigua producción de biocombustibles mediante procesos de digestión anaerobia (AD) para la obtención de biogás o una posible fermentación de los sustratos en estado sólido (SSF) para la obtención de etanol, gracias al potencial redox de las enzimas (Momayez et al., 2018). La producción de etanol derivado de subproductos lignocelulósicos se está probando actualmente en escalas piloto (Taherzadeh y Karimi, 2008). La SSF para la producción de bioetanol consiste básicamente en dos pasos básicos: la hidrólisis enzimática de la lignocelulosa (para liberar los azúcares fermentables) y la conversión de los azúcares en etanol (Kumar et al., 2020). Otro proceso que interviene en la producción de biocombustible (biogás/biometano) es la digestión anaeróbica en estado sólido (SS-AD), que es un proceso biológico de cuatro etapas (hidrólisis, acidogénesis, acetogénesis y metanogénesis) que se produce por la descomposición de materiales lignocelulósicos por diversos microorganismos (bacterias/hongos) en condiciones anaeróbicas para producir biogás o metano (Pečar et al., 2020). En el presente estudio se pretende evaluar la factibilidad de la degradación de fármacos en efluentes residuales y la capacidad de producción de biocombustibles mediante el acoplamiento hongos-bacterias en un sistema de tratamiento en estado sólido, mediante la identificación de las principales especies fúngicas utilizadas para la degradación de fármacos en efluentes residuales, el establecimiento de las condiciones óptimas operaciones para la fructificación de hongos en fermentación de estado sólida y determinar la capacidad de producción de biocombustibles en sistemas acoplados macromicetos – bacterias.



METODOLOGÍA

Revisión bibliográfica En primer lugar, se efectuó una exhaustiva revisión bibliográfica la cual se orientó por medio de criterios técnicos relacionados con el objeto de la investigación. realizando búsquedas dentro de bases de datos, como: Scopus, Sciencedirect, Scielo, entre otras. Donde, se introdujeron las palabras claves (cultivo de hongos, degradación de fármacos, pretratamiento fúngico, AD en estado sólido, sustratos, eficiencia biológica, actividad enzimática, producción de etanol, producción de metano), finalmente se revisaron más de 40 referencias, compuestas por: libros, capítulos de libro, artículos de revisión e investigación, a esta información se realizó un análisis comparativo sintetizando los resultados mediante tablas y figuras. Análisis procedimental El proceso experimental para el tratamiento de los CF y la generación de biogás y etanol se subdividen en tres momentos: degradación de contaminantes emergentes, fermentación en estado sólido y producción de biocombustibles. Dentro de la degradación de contaminantes emergentes se estudian las enzimas que participan en la degradación de los fármacos y los hongos que producen estas enzimas, los tipos de tratamientos usados para mejorar la actividad enzimática, así como las condiciones operacionales óptimas para cada hongo y enzima de interés. Para la fermentación en estado sólido, se detallan las condiciones operacionales para la fermentación en estado sólido, los tipos de tratamientos que se aplicaron, los productos a obtener y las variables de respuesta utilizadas junto a los valores obtenidos. Por último, se evalúa la producción de biocombustibles, identificando condiciones óptimas y tipos de pretratamientos e inhibidores existentes.


CONCLUSIONES

Se concluye que el sistema de acoplamiento estará integrado por: El cultivo de hongos-bacterias para la degradación de fármacos. Digestión Anaerobia en Estado sólido de sustratos pretratados por hongos para la producción de biogás. Este sistema tiene la principal ventaja de que el costo del pretratamiento puede compensarse con la obtención de un subproducto de valor agregado (hongos). También, se concluye que existe una viabilidad en cuanto a la utilización de sustratos pretratados para la degradación de fármacos y producción de biogás a través de un cultivo integrado de hongos-bacterias en estado sólido.
Torróntegui Chávez Geraldyne, Instituto Tecnológico de Culiacán
Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa

DISEñO DE UN SISTEMA OUTDOOR PARA CRECIMIENTO DE MICROALGAS EN MAZATLáN SINALOA ALIMENTADO CON ENERGíA SOLAR FOTOVOLTAICA


DISEñO DE UN SISTEMA OUTDOOR PARA CRECIMIENTO DE MICROALGAS EN MAZATLáN SINALOA ALIMENTADO CON ENERGíA SOLAR FOTOVOLTAICA

Contreras Sabrina, Instituto Tecnológico de Culiacán. Garcia Pérez Juan Antonio, Instituto Politécnico Nacional. Torróntegui Chávez Geraldyne, Instituto Tecnológico de Culiacán. Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Teniendo como enfoque la Agenda 2030 para el Desarrollo Sostenible y sus objetivos de producción de energía limpia para combatir el cambio climático, las investigaciones y avances tecnológicos para la implementación de alternativas menos contaminantes se han vuelto una necesidad. Una de las principales causas del calentamiento global es la quema de combustibles fósiles por emisión de COX, debido en gran parte al uso de los petrolíferos (gasolinas, diésel) por lo que deben presentarse alternativas como el diésel de biomasa de tercera generación (microalgas) y el diésel fósil ultra bajo azufre (DUBA). La producción de Diesel a partir de microalgas ha llamado la atención debido a las características que tiene, principalmente bajo contenido de azufre, alta biodegradabilidad y debido a que existen muchas especies de microalgas con un contenido considerable de lípidos transesterificables y cuyo crecimiento celular permite condiciones extremas de temperaturas, iluminación y nutrientes. Particularmente en Sinaloa no se han desarrollado investigaciones a gran escala de diésel a partir de microalgas, solo a escala laboratorio en la Universidad Politécnica de Sinaloa (UPSIN), por lo que es necesario el desarrollo de proyectos que permitan  implementar sistemas de cultivo de microalgas que puedan desarrollarse bajo las condiciones climatológicas propias de la región (sistemas outdoor).



METODOLOGÍA

El objetivo del proyecto fue diseñar un sistema de cultivo para microalgas tipo outdoor alimentado con un sistema solar fotovoltaico autónomo para ser implementado en UPSIN, Mazatlán Sinaloa. Se empleo SolidWorks como software CAD para diseño y modelado en 2D y 3D. El sistema outdoor se conformó por un sistema biológico (fotobioreactores para crecimiento de microalgas) y por un sistema solar fotovoltaico autónomo que operará bajo las condiciones ambientales de Mazatlán y protegerá de la intemperie los fotobioreactores, equipos de monitoreo y baterías de ciclo profundo. Los fotobioreactores para el cultivo microalgal serán tubos de vidrio transparente tomados de colectores solares para agua caliente. Para el sistema solar fotovoltaico autónomo en Ing. en Energía UPSIN se dispone de paneles solares fotovoltaicos base Si policristalino y baterías de ciclo profundo. Se dimensionó para cubrir la potencia que requieren las luminarias para que el cultivo de microalgas se mantenga por las noches. 


CONCLUSIONES

El diseño del sistema biológico consta de 04 fotobioreactores tubulares con capacidad para 20 L sellados con tapón de polimetilmetacrilato con 03 orificios para insertar sensor de temperatura, sensor de pH y aire atmosférico filtrado. Se soportan verticalmente sobre una base de madera de 1.5x0.4 m2. La microalga de trabajo será una cepa Dunaliella tertiolecta porque se dispone de cultivos en el lab. de bioenergía UPSIN, el medio de cultivo será F/2 de Guillard, temperatura ambiental variable, luz suministrada por la radiación solar y por luminarias por las noches. Los fotobioreactores serán desmontables para su lavado y llenado. El sistema fotovoltaico estará orientado al sur con ángulo de inclinación igual a la latitud de Mazatlán (23.5°) consta de 02 paneles solares policristalinos 250 Wp, 36.97 V (Voc), 9.29 A (Isc) conectados en serie (para un voltaje de 74 V) un controlador de carga de 800 W, 150 V , 60 A y 02 baterías de ciclo profundo 115 Ah, 12 V conectadas en paralelo que suministran la energía eléctrica a 10 focos Led de 9.0 W, 12 V corriente directa que trabajaran en un espacio de 12 h. Para las protecciones correspondientes, interruptores termomagnéticos y cable AWG calibre 12 para las conexiones. El sistema final diseñado (denominado outdoor) estará en un terreno de UPSIN donde se reciba una cantidad considerable de irradiación solar, consta de una estructura de madera de 2.5 m de alto, 2.0 m de ancho (cimentada en el terreno) cubierta por una lámina de policarbonato transparente que permita por lo menos un 90% del aprovechamiento de la irradiancia solar para el crecimiento celular de la microalga diario. Permite el ingreso de personas para el cómodo monitoreo del crecimiento de la microalga y brinda protección meteorológica de todos los materiales. De esta manera, se aporta en primera instancia un sistema a escala piloto  bajo condiciones ambientales y aprovechando la radiación solar de la localidad de Mazatlán para el crecimiento de microalgas con potencial para la producción de biodiesel y de presentar factibilidad y viabilidad elevarlo a gran escala.
Tovar Espinoza de los Monteros Karen Annet, Universidad Mexiquense del Bicentenario
Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)

DESARROLLO DE PROTOTIPOS DE HERRAMIENTAS SOFTWARE PARA LA IMPLEMENTACIóN Y USO DE BUENAS PRáCTICAS DEL PERFIL BáSICO DEL ISO/IEC 29110


DESARROLLO DE PROTOTIPOS DE HERRAMIENTAS SOFTWARE PARA LA IMPLEMENTACIóN Y USO DE BUENAS PRáCTICAS DEL PERFIL BáSICO DEL ISO/IEC 29110

Abad Salinas Jorge Andrey, Universidad Autónoma de Guerrero. Cedillo Ocaña Cler Mariana, Universidad Mexiquense del Bicentenario. Huerta Cámara Dulce Mariana, Universidad Mexiquense del Bicentenario. Tovar Espinoza de los Monteros Karen Annet, Universidad Mexiquense del Bicentenario. Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el presente documento se destaca el trabajo realizado durante la estancia del verano de investigación, en la que se llevó a cabo el desarrollo del proyecto Prototipos de herramientas software para la implementación y uso de buenas prácticas del perfil básico del ISO/IEC 29110. Este proyecto aborda la problemática que actualmente tienen las Empresas Muy Pequeñas (EMPs), relacionado como la falta de conocimiento y experiencia para la correcta implementación y uso de estándares, siendo una de las causas la falta herramientas que proporcionen soporte para  su adopción y uso. En este contexto, se pueden resaltar como ejemplos de algunos de los problemas más recurrentes que tienen algunas EMPs durante el desarrollo de proyectos de software, la falta de una gestión de riesgos adecuada, la carencia del diseño del software, la mala definición de requisitos y la poca o nula realización de actividades relacionadas con la verificación y validación de Requisitos, actividades que son necesarias para el aseguramiento de la calidad del producto. Lo antes mencionado hace evidente la necesidad del desarrollo de herramientas que funcionen como soporte para dar solución a dichos problemas.



METODOLOGÍA

Para el desarrollo del proyecto y teniendo en cuenta las restricciones de tiempo, se optó por adaptación de SCRUM utilizando buenas prácticas y artefactos proporcionados en el perfil Básico del estándar ISO/IEC 29110. De Scum se tomaron como base algunos de sus eventos y artefactos (de los eventos (planificación del sprint, Sprint, reuniones diarias y revisión del sprint) y de los artefactos (pila del sprint, producto mínimo visible)). Además, se reforzó con la implementación de tareas y productos de trabajo proporcionados por el perfil de entrada del ISO/IEC 29110, de las tareas (planificación, análisis de requisitos, diseño, pruebas, liberación), y de los productos de trabajo (enunciado de trabajo, entorno de desarrollo, instrucciones de entrega, estrategia de control de versiones, especificación de requisitos, riesgos, arquitectura de software y diseño detallado, registros de trazabilidad, pruebas, resultados de pruebas, minutas de reunión y respaldos y la configuración de software).


CONCLUSIONES

En conclusión, el resultado de este proyecto se desarrollaron 4 herramientas enfocadas a la gestión de proyectos e implementación de software, cómo lo son gestión de riesgos, diseño de software, definición de requisitos, y verificación y validación de requisitos, las cuales fueron creadas con el fin de servir de soporte a las EMPs que tengan la intención de adoptar prácticas del ISO/IEC 29110 para el desarrollo de sus proyectos. A continuación se presenta una breve descripción de la funcionalidad de las herramientas realizadas: Herramienta de Gestión de riesgos: Este módulo proporciona una solución para llevar a cabo la gestión de riesgos de un proyecto de empresas muy pequeñas (EMPs), permitiendo llevar a cabo el monitoreo del riesgo durante todo el proceso de desarrollo de software. La funcionalidad incluida en el módulo es: registrar los riesgos, clasificar riesgos según su prioridad e impacto, brinda el porcentaje de exposición del riesgo. Además permite llevar un monitoreo a base del registro de observaciones y brinda al usuario un documento de toda la información registrada. Definición de los requisitos: Este módulo está diseñado para brindar una guía para la especificación de requisitos de un software, a través del uso de criterios predefinidos, y segmentado con base en la técnica utilizada para la definición de los requisitos(casos de uso o historias de usuario), El usuario podrá al hacer uso del módulo, tener en cuenta los aspectos básicos para la correcta definición de los requisitos. Diseño de software: este módulo brinda información de apoyo para ayudar al usuario a tener mayor conocimiento de los elementos a tener en cuenta para el desarrollo del diseño de software. El módulo cubre la información para el diseño de alto nivel (arquitectura) y para el diseño de bajo nivel (diseño detallado). A través de la interfaz del  módulo, se brinda información sobre conceptos y ejemplos para el desarrollo correcto del diseño de software.  Verificación y validación de requisitos: este módulo brinda una solución para facilitar la ejecución de actividades de calidad (verificación y validación) de los requisitos mediante el uso de un Checklist, con el cual se brinda apoyo para que el cliente pueda llevar a cabo la revisión de manera adecuada de los requisitos e identificar dudas o expresar inconformidades relacionados con los requisitos. Cómo funcionalidad del módulo además se incluye proporcionar los resultados de la verificación y la validación del mismo, tal que éstos pueden ser utilizados con facilidad por la empresa.  Además de los resultados antes mencionados, se logró obtener conocimiento del estándar ISO/IEC 29110 y de Scrum, la implementación de algunos elementos del estándar y de algunos eventos de Scrum para el desarrollo del proyecto, la lectura de artículos y reportes técnicos, y la elaboración de documentos técnicos a través de la redacción del reporte técnico y un artículo.
Trejo Aguilar José Luis, Instituto Politécnico Nacional
Asesor: Dr. Carlos Omar González Morán, Universidad Autónoma del Estado de México

RESUMEN DE TRABAJO DE INVESTIGACIóN DOMóTICA


RESUMEN DE TRABAJO DE INVESTIGACIóN DOMóTICA

Trejo Aguilar José Luis, Instituto Politécnico Nacional. Asesor: Dr. Carlos Omar González Morán, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El trabajo realizado busca sentar las bases que permitan el desarrollo de tecnología con aplicaciones en la domótica. Teniendo como objetivos la innovación tecnológica, pero también que tenga una razón social. 



METODOLOGÍA

El trabajo consistió en 3 partes principales. La primera fue en documentación sobre trabajos de domótica hechos y asistidos por el investigador. Además de recolección de información sobre diferentes tecnologías, tarjetas de desarrollo y software comúnmente utilizadas en trabajos de domótica, como lo son las tarjetas ODROID, Raspberry Pi, Arduino, módulos Wi-Fi y software de desarrollo y simulación como TinkerCAD y App Inventor. La segunda parte consistió en la realización de prácticas de simulación de circuitos combinados con la programación en Arduino, éstas fueron realizadas en TinkerCAD. La última consistió en la instalación y primeros pasos en las tarjetas de desarrollo Raspberry Pi y TinkerCAD


CONCLUSIONES

Se obtuvieron resultados satisfactorios, referente a las 3 partes descritas en la metodología. Sin embargo, el plan de trabajo no se pudo llevar a cabo en su totalidad en el tiempo especificado, siendo la principal problemática la disponibilidad de tecnología, derivado de la situación mundial.
Trejo Vargas Maria Alheli, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango

ESTADO DEL ARTE VSM


ESTADO DEL ARTE VSM

Martinez Gonzalez Jesus, Instituto Tecnológico Superior de Huauchinango. Trejo Vargas Maria Alheli, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las empresas se enfrentan a una competencia sin fronteras, donde existe la necesidad urgente de cambiar la forma tradicional de operar las compañías, optimizar los procesos y reducir los desperdicios de tiempo, costo y espacio que se generan dentro de los mismos (Barcia & De Loor, 2007). Por este motivo, muchas organizaciones están buscando identificar la cadena de valor en cada uno de sus procesos. Se debe tener en cuenta que la cadena de valor se define como aquellas actividades que le dan un valor agregado al cliente y que involucra todo el camino que debe seguir el producto desde la recepción del pedido hasta la entrega al cliente final (Nash & Poling, 2008). Para la determinación de los problemas asociados al proceso, se utiliza la herramienta conocida como Value Stream Mapping (VSM) o mapeo de la cadena de valor, debido a que autores como Nash y Poling (2008) han logrado concluir que esta técnica permite, a los stakeholders1 de una organización, visualizar y entender el proceso; además permite reconocer el valor, diferenciarlo del desperdicio y crear un plan de acción para eliminarlo dentro del proceso.



METODOLOGÍA

Una cadena de valor son todas las acciones (tanto de valor agregado como de no valor agregado) que se requiere para llevar un producto a través de los canales esenciales para hacer: 1. Que el producto fluya desde la materia prima hasta las manos del cliente. 2. Que se diseñe el flujo desde su concepto hasta su lanzamiento. Valor agregado: son todas aquellas operaciones de transforman el producto. Valor no agregado: son todas aquellas operaciones donde la materia prima no sufre alguna transformación. Michael Porter propuso el concepto de "cadena de valor" para identificar formas de generar más beneficio para el consumidor y con ello obtener ventaja competitiva. El instrumento más utilizado para realizar un análisis que permita extraer claras implicaciones estratégicas para el mejoramiento de las actividades con un enfoque de eficiencia y eficacia es la Cadena de Valor. El mapeo de la cadena de valor puede ser una herramienta de la planificación de empresas de la herramienta, de la comunicación y una herramienta para manejar su proceso del cambio. El mapeo de la cadena de valor es caminar y dibujar los pasos en los procesos del material e información por una familia del producto “puerta a puerta “. PASOS PARA MAPEO DE LA CADENA DE VALOR. 1. Dibuje los iconos del cliente, proveedor y control de producción. 2. Ingrese los requisitos del cliente por mes y por día. 3. Calcule la producción diaria y los requisitos de contenedores. 4. Dibuje el icono que sale de embarque al cliente y el camión con la frecuencia de entrega. 5. Dibuje el icono que entra a recibo, el camión y la frecuencia de entrega. 6. Agregue las cajas de los procesos en secuencia, de izquierda a derecha. 7. Agregue las cajas de datos abajo de cada proceso. 8. Agregue las flechas de comunicación y anote los métodos y frecuencias. 9. Obtenga los datos de los procesos y agréguelos a las cajas de datos. Obsérvelos directamente todo el tiempo. 10. Agregue los símbolos y el número de los operadores. 11. Agregue los sitios de inventario y nivele en días de demanda y el gráfico más abajo. 12. Agregue las flechas de empuje, de jalar y de primeras entradas primeras salidas. 13. Agregue otra información que pueda ser útil. 14. Agregue las horas de trabajo. 15. Agregue el tiempo de ciclo y el tiempo de procesamiento. 16. Calcule el tiempo de ciclo total y el tiempo total de procesamiento.


CONCLUSIONES

El Análisis de la Cadena de Valor es una herramienta gerencial para identificar fuentes de Ventaja Competitiva, el propósito de analizar la cadena de valor es identificar aquellas actividades de la empresa que pudieran aportarle una ventaja competitiva potencial. Poder aprovechar esas oportunidades dependerá de la capacidad de la empresa para desarrollar a lo largo de la cadena de valor y mejor que sus competidores, aquellas actividades competitivas cruciales. Como sabemos es una herramienta fundamental en Lean Manufacturing, pero necesita de una inversión de tiempo para realizarlo y como se había dicho si no se aplica correctamente puede ser una pérdida de tiempo, requiere de alguien que conozca perfectamente VSM y de la colaboración e involucración de operarios y jefes de equipo.
Uc Hau Joseb Eliazar Abisai, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

CAPTACIóN DE AGUA DE LLUVIA EN UN HOGAR EN LA CIUDAD DE CANCúN, MéXICO.


CAPTACIóN DE AGUA DE LLUVIA EN UN HOGAR EN LA CIUDAD DE CANCúN, MéXICO.

Jimenez Huchim Josue Benjamin, Consejo Quintanarroense de Ciencia y Tecnología. Uc Hau Joseb Eliazar Abisai, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

A nivel global debido al cambio climático, uno de los grandes retos a los cuales nos enfrentaremos, es la escasez de agua, la cual aumentará en un 20 % los siguientes años, lo que provocará la necesidad de transportar este recurso desde lugares lejanos o pozos más profundos, esto se verá reflejado en las tarifas de costos que se le aplicará al usuario, pero sobre todo en la disponibilidad que se tendrá de este vital líquido para el desarrollo de diversas actividades cotidianas como el aseo y limpieza u otro uso que se le pretenda dar a esta.  Una de las maneras de obtener agua, es la proveniente de la lluvia, la cual en muy pocas ocasiones presenta contaminación, esta es almacenada en contenedores para su posterior uso, lo que puede significar un ahorro en el consumo de la red de agua disponible en los hogares, la conservación de la fuentes disponibles y un mejor  manejo de este recurso. La ciudad de Cancún cuenta con una precipitación anual mayor a los 1,000 mm, tiene una temporada de secas muy corta, por lo cual la captación de agua de lluvia puede ser una alternativa viable para satisfacer cierta demanda de este líquido. Por lo cual en este verano de investigación se analiza la viabilidad que tiene un hogar para satisfacer la demanda de agua solicitada, con el agua que puede ser captada de la lluvia, mediante estos sistemas de captación.  



METODOLOGÍA

El estudio fue llevado a cabo en la ciudad de Cancún, ubicada en el municipio de Benito Juárez, en el Estado de Quintana Roo, México con coordenadas latitud norte 21° 09’ 41’’ y latitud oeste 86° 49’ 29’’, posee un clima cálido subhúmedo, con temperaturas mínimas de 19.0 °C y máximas de 35.2 °C, con  media de 27 °C, la precipitación media anual de 1,334.6 mm con variaciones desde los 1032.0 mm hasta los 1955.3 mm,  siendo los meses de mayo a octubre en los cuales de presenta una mayor precipitación, con temporadas de secas durante los meses de marzo a abril.   El área de captación utilizada fue de 96 metros cuadrados, para un hogar de 6 personas, con una dotación diaria de 50 litros, lo mínimo recomendado por la Organización Mundial de la Salud (OMS). Se utilizaron dos métodos para calcular el volumen de captación de agua de lluvia, una de acuerdo a los lineamientos de la Comisión Nacional del Agua (CONAGUA) y otra mediante una calculadora, herramienta que nos brinda la página web Isla Urbanda. Para el primer método de acuerdo a los lineamientos antes mencionados, se describe lo siguiente: Los datos de la precipitación normal con distribución mensual. Estos fueron obtenidos de los datos históricos del Sistema Meteorológico Nacional, en el periodo de 1951-2010 (59 años),  la Estación Meteorológica utilizada fue la 00023153 Cancún, ubicada en la Latitud 21° 09’ 24’’N. y longitud 086° 49’ 13’’ W. En el cual se utilizaron datos en un periodo de 20-21 años. Con los datos obtenidos de la precipitación se procedieron a utilizar las fórmulas proporcionadas por la Comisión Nacional del Agua en el documento Lineamientos Técnicos: Sistemas de Captación de Agua de Lluvia con Fines de Abasto de Agua Potable a Nivel Vivienda. Estos lineamientos nos sirven para poder realizar cálculos básicos para conocer la capacidad de aprovechamiento que tiene algún área para la captación de agua de lluvia, dependiendo del material con que esté construida dicha área. Las variables calculadas son el volumen de captación de agua de lluvia (VA), la demanda de agua anual con distribución mensual (DA). Por último comparamos la cantidad de agua de lluvia captada y la cantidad de agua demanda por mes. Se calcula el déficit o el excedente si fuera el caso y son colocados en un tabla para poder ver gráficamente esta relación. Si existe un déficit se determina que no se pudo obtener suficiente agua para satisfacer la demanda en periodo de tiempo, en cambio si existe un excedente, es almacenado y utilizado al día siguiente para satisfacer la demanda, se calculan los días satisfechos al mes y por año.  Para el segundo método Isla Urbana. Esta es una página web, diseñada con información recopilada en la pluvioteca, cuenta con una calculadora de captación de agua de lluvia y con un observatorio. Estaremos usando la calculadora, la cual es una herramienta para la planeación y diseño de sistemas de captación de agua de lluvia, donde mediante el análisis y cálculos básicos nos ayuda a conocer los posibles niveles de aprovechamiento que se tendrían en la captación de agua de lluvia según nuestro municipio. La diferencia entre estas dos herramientas es que el de Isla Urbana es el que nos permite tener un estimado del costo del sistema de almacenamiento.  


CONCLUSIONES

Durante el verano de investigación se logró adquirir conocimientos para poder calcular el volumen de captación de agua de lluvia, en este caso se determinó que con un suministro diario de 50 litros, en un hogar de 6 personas, con un área de captación de 96 metros cuadrados y un coeficiente de escurrimiento de 0.90, lo días satisfechos son de 135 días, este resultado es alentador, sin embargo se tiene que recordar que solo se dotan de 50 litros por persona lo que da un total de 300 litros por día, si se desea dotar de más agua a los residentes se tendría que aumentar el área de captación, de lo contrario los días satisfechos se reducirían considerablemente, esta cantidad puede no ser significativa sin embargo al hacer la conversión se obtiene que los 135 días se ahorran 40.5 metros cúbicos de agua, que puede ser utilizado para la limpieza del hogar, el riego de plantas e incluso el aseo personal.
Ugalde Garcia Ruben Antonio, Instituto Politécnico Nacional
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

PROCESOS AVANZADOS DE OXIDACIóN.


PROCESOS AVANZADOS DE OXIDACIóN.

Ugalde Garcia Ruben Antonio, Instituto Politécnico Nacional. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, con el avance que se ha tenido en el ramo de la farmacéutica y la medicina, la aparición de nuevos fármacos o el mejoramiento químico de algunos ya existentes, ha incrementado el consumo de estos, algo que se ha visto potencialmente incrementado con situaciones como la actual crisis del coronavirus, donde en tiempo récord, se han tenido que hacer esfuerzos experimentales para el desarrollo de compuestos que permitan combatir a dicho patógeno. Se tiene un registro documental de que la mayoría de estos compuestos terminan de una u otra forma en el ambiente, específicamente en los mantos acuíferos redes de abastecimiento de aguas de los asentamientos humanos, lo preocupante o que ha generado un gran interés de estudio entre los especialistas medio ambientales, es la manera en que estos componentes pueden degradarse en el ambiente, ya sea naturalmente o con la ayuda de un proceso de tratamiento auxiliar, ya que su simple presencia en determinadas zonas podría crear un desequilibrio ambiental. Desde el punto de vista del tratamiento de aguas, existen diversos métodos y protocolos que pueden ser usados para la degradación de la mayoría de compuestos farmacéuticos, sin embargo, el objeto de estudio principal que dio origen a este trabajo de investigación, es la forma en como los procesos de oxidación avanzada pueden impactar de forma positiva, eficaz y eficiente en estos procesos de degradación, además de analizar cuáles son los métodos, mecanismos y elementos auxiliares que se necesitan para su posterior implementación.



METODOLOGÍA

El enfoque de esta investigación fue más de carácter documental, es decir, se tomó la decisión de consultar diversos artículos científicos que hablaran del tema con la finalidad de entender los pormenores y principales conceptos relacionados al tema. El trabajo realizado durante la primer semana fue la recopilación de información relacionada a los siguientes temas: Procesos de oxidación avanzada por ozonización, H2O2, Fenton, radiación UV y oxidación electroquímica, posterior a ello, los resultados fueron presentados en forma de una presentación para ser expuestos ante el equipo de trabajo, esto permitió en la práctica, nivelar los conocimientos necesarios para comenzar a desarrollar la estancia, y a la vez, para realizar una retroalimentación de los conocimientos previamente adquiridos. Una vez que se tuvo una mejor comprensión de los conocimientos básicos para este trabajo, el siguiente aspecto a desarrollar consistió en la identificación de la mayoría de los compuestos químicos usados en productos de higiene personal y médico-farmacológicos. Su identificación permitió posteriormente realizar una investigación sobre artículos científicos donde se mostraran los procesos de oxidación avanzada utilizados para su degradación ambiental, o en su defecto, hallar si no existían investigaciones que tocaran este tópico en particular. De igual manera, de forma complementaria se realizó una búsqueda del factor LC50 y el factor EC50, dos indicadores que demuestran de forma practica la toxicidad de diferentes componentes. Como agregado personal, durante la realización de esta dinámica, genere un sentido de conciencia, realmente nunca había profundizado tanto en como el uso de productos cotidianos puede tener un gran impacto al medio ambiente, y sobre todo, como es que en gran parte de estos aun no se tiene una idea de su impacto al entorno. Durante las siguientes semanas se prosiguió con la revisión de una gran diversidad de artículos científicos de temas relacionados a la línea de investigación principal, dichos temas, fueron Reactores Homogéneos y Heterogéneos. Durante la revisión de estos artículos se llevaron a cabo sesiones complementarias de estudio, a fin de desarrollar un poco mas los tópicos revisados y poder reforzar los conocimientos mediante la realización de una serie de ejercicios llevados a acabo en hojas de cálculo. En forma particular, se me encargo de manera paralela llevar a cabo una investigación sobre el tema de paneles solares, especificando las características, los arreglos necesarios para la obtención eficaz de energía y en especial, como es que investigaciones previas habían usado estos elementos para obtener la energía necesaria que demandan los diferentes procesos de oxidación avanzada existentes. Posterior a la investigación se solcito la realización de una memoria de calculo que permitiera contemplar diferentes propuestas de montaje eléctrico para poder hacer uso de 4 paneles solares, con los que cuenta la institución, en experimentos a desarrollar en un futuro, dicha memoria de calculo ya se tiene terminada, actualmente ya se cuenta con dos propuestas para ser presentadas y posteriormente evaluadas e implementadas, de la misma forma, se plantea hacer énfasis en las recomendaciones técnicas necesarias para que la formación de la red eléctrica sea lo más adecuada posible.


CONCLUSIONES

Durante la estancia se logro adquirir una serie de conocimientos técnicos propios de mi área de especialización y también referentes a otras áreas de estudio, sin embargo, al ser un trabajo extenso y que abarca varios frentes de estudio, aun existe una gran cantidad de aspectos por detallar, pulir y ampliar, esto complica en gran forma mostrar los datos obtenidos, aunado también a que como tal, la estancia tuvo un carácter más teórico que practico. Esta edición presento un particular reto por las condiciones actuales a las que se recurrieron por el tema de la pandemia, pero pese a esto se pudo llevar su realización de forma correcta y satisfactoria para ambas partes involucradas.
Ugalde Sánchez Jaime Zuriel, Instituto Politécnico Nacional
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

MACHINE LEARNING & CIENCIA DE DATOS PARA EL ESTUDIO DE COVID-19 EN MéXICO


MACHINE LEARNING & CIENCIA DE DATOS PARA EL ESTUDIO DE COVID-19 EN MéXICO

González Sánchez Andrea, Universidad Tecnológica de Nayarit. Ugalde Sánchez Jaime Zuriel, Instituto Politécnico Nacional. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Desde el punto de vista sanitario, existe la necesidad de desarrollar un algoritmo para la prevención o detección de la gravedad de los pacientes que padecen COVID-19 y de esta forma predecir si el paciente se encuentra en riesgo con base en los modelos de Machine Learning que se implementarán durante el proyecto a la base de datos proporcionada por la Dirección General de Epidemiología.



METODOLOGÍA

Para llevar a cabo el preprocesamiento de información se estableció la siguiente metodología.  Se normalizaron las fechas de inicio de síntomas, fecha de ingreso en el hospital y fecha de defunción, tomando como referencia al primer paciente registrado en México; así mismo, en caso que el paciente no haya fallecido, el criterio FECHA DEF posee un atributo estilo 9999/99/99 por lo que se cambi´o la fecha al 01/01/2021.  Se normalizaron los atributos de cada criterio, i.e. si al principio el atributo del sexo femenino era 2 se cambió a 0, esto para tener un control binario de este rubro.   Se descartaron los pacientes que hayan dado negativo al COVID-19 y aquellos a los que a´un no se les hubiese dado resultado.   Se eliminaron las columnas con los siguientes criterios : FECHA SINTOMAS, FECHA DEF, RESULTADO.  Se optó por utilizar el 80 % de la Base de Datos para entrenar el modelo de Machine Learning y por consiguiente el 20 % para validar dicho modelo.  Se imputaron los valores faltantes (no registraron) con la estrategia (most frequent).  Se definió el modelo a utilizar y se escogió el método (RandomForestClassifier ). Se establecieron 50 ´arboles de decisiones con un Random State = 0. Se entrenó el modelo. Se ajustaron los datos (data fitting)  Se predijeron los valores nuevos haciendo uso de una Base de Datos actualizada.  Se calculó y validó el modelo con un porcentaje de exactitud del 94,77 %.  Materiales Los materias que utilizamos fueron: Una PC Google Colab Kaggle Jupiter Notebook Anaconda Spyder Base de Datos de la Direcci´on General de Epidemiología


CONCLUSIONES

Este trabajo de investigación nos permitió desarrollar habilidades en el campo de la Inteligencia Artificial a partir del lenguaje de programación Python. Por el cual se diseñó un modelo de clasificación para predecir los decesos relacionados con el nuevo virus SARS-CoV-2, generando una eficacia del 94.77 % y percibiendo una correlaci´on del 33 % al 41 % entre los decesos y los atributos: neumon´ıa, edad, intubado, hipertensión y diabetes.  Se dio un énfasis en la manipulación de bases de datos, preprocesamiento de información, técnicas de imputación y diseño de modelos de machine learning para aumentar la eficiencia del modelo.  Un proyecto a futuro constaría en comparar bases de datos de diferentes instituciones para corroborar el modelo diseñado, además de analizar la duración de la enfermedad en los pacientes con respecto a los atributos de la base de datos.
Ugalde Saucedo Brenda, Instituto Politécnico Nacional
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

ANáLISIS DE LA VARIACIóN DE LA CLASIFICACIóN DE TARGET Y NON-TARGET EN DIFERENTES PARTICIPANTES EN BCI: P300


ANáLISIS DE LA VARIACIóN DE LA CLASIFICACIóN DE TARGET Y NON-TARGET EN DIFERENTES PARTICIPANTES EN BCI: P300

Alvarez Castañeda Emma Alejandra, Universidad de Guadalajara. Ugalde Saucedo Brenda, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En el presente trabajo se abarcan dos diferentes estudios: el primero es el de  determinar cuál combinación de algoritmos de método de extracción de características y clasificador tendrá más precisión catalogando entre target o non-target en un experimento en sujetos sanos; en el segundo, se busca determinar si existe o no variación en el reconocimiento de target y non-target entre las primeras tres sesiones de 4 diferentes participantes. Estos estudios se realizaron con el propósito de aplicar los resultados en el aprendizaje máquina utilizado en una interfaz cerebro-computador (BCI) aplicada en una órtesis para pacientes con esclerosis lateral amiotrófica.



METODOLOGÍA

El experimento realizado consistió en lo siguiente: en una pantalla negra se proyecta un cuadro con 4, 5, 6, 7, 8 o 9 flechas o caritas felices (dependiendo del tipo de estímulo), uno de estos indicadores encendía o cambiaba de color de manera aleatoria, y el sujeto debía contar las veces que este suceso ocurría (únicamente cuando se encendía ese indicador). 8 electrodos (Fz, Cz, P3, Pz, P4, PO7, PO8 y Oz) fueron colocados en los sujetos para la obtención de su EEG. Cada trial de cada participante tenía una duración de -0.2 segundos a 1 segundo, indicando el segundo 0 el momento en el que el estímulo es reflejado en la pantalla. La frecuencia de muestreo del estudio fue de 256 Hz. Refiriendo al preprocesamiento de los datos, todos fueron intervenidos por un filtro pasa-bandas de 14 hz; se recortó el tiempo de los trials, haciendo el intervalo de 0 a 0.8 segundos, pues es en este tiempo donde se espera la respuesta P300. Para efectos del primer estudio, se balancearon los trials target y los non-target; esto quiere decir que, de ser menor el número de trials target, se eligió (en este caso, de manera aleatoria) el mismo número de trials non-target.  Para el primer estudio, se consideró la sesión 1 del participante 8 con 5 estímulos de carita feliz. A partir de esta sesión, se codificaron los siguientes métodos de extracción de características: decimación con factor 3, decimación con factor 10, promedio o average y análisis de correlación canónica. En cuanto a los algoritmos de clasificación entre target y non-target, se optó por trabajar con los siguientes: LDA (de dos diferentes maneras: con el método de MATLAB classify y con fitcdiscr), SWLDA, SVML, SVMG y KNN. Se evaluaron todas las posibles combinaciones, obteniendo gráficas de métricas que indicaran su precisión, tasa de verdaderos positivos, tasa de verdaderos negativos y tasa de falsos positivos.  En cambio, en el estudio 2, se utilizaron las primeras tres sesiones de los participantes 8, 9, 10 y 11 con 5 estímulos de carita feliz. Se seleccionó un método de extracción de características (decimación factor 10) y un método de clasificación: (el primer LDA). Los datos de cada participante fueron evaluados por sesión, obteniendo entonces gráficos de la precisión, tasa de verdaderos positivos, tasa de verdaderos negativos y tasa de falsos positivos de cada uno de ellos (4 en total) por cada sesión (3 sesiones). Estos trials (targets y non-target) no fueron balanceados.


CONCLUSIONES

En el estudio 1, los métodos de clasificación que mostraron mejor desempeño fueron LDA y SVML. Se escogió el método LDA para trabajar en el segundo estudio por ser el más apto para este tipo de datos. La decimación con factor 10 mostró hasta un 84% de accuracy utilizando el primer método de LDA. Direccionándonos al estudio 2, en la sesión 1 el participante 11 reflejó mejores resultados en la identificación de target y non-target con una precisión de 75%-95%, tasa de verdaderos positivos de 75%-90% y una tasa de verdaderos negativos de 85%-95%. En la segunda sesión, se obtuvo la tasa de verdaderos positivos más baja en los 4 participantes, llegando hasta 50%. Finalmente, en la sesión 3, el  participante 9 reflejó mejores resultados con un accuracy de 85%-90%, una tasa de verdaderos positivos de 70%-100% y una tasa de verdaderos negativos de 85%-90%. Para crear un modelo de Machine Learning se cuenta con distintos métodos de extracción de características y de clasificación, que si bien cada uno tiene sus ventajas y desventajas, dependerá del objetivo del modelo y del tipo de datos con los que se está trabajando. La combinación del algoritmo de clasificación LDA 1 (realizado con la función de Matlab classify) y el método de extracción Decimación factor 10 arrojaron resultados considerablemente aceptables, posicionándose en una precisión promedio aproximada de 75%. Consideramos que una comparación entre amplitudes de onda P300 sería de utilidad para determinar si es esta la causa de que una de las sesiones tenga un peor desempeño que las demás. 
Ulloa Espinosa Ivette, Instituto Tecnológico de Tapachula
Asesor: Dra. Galdy Hernández Zárate, Colegio de Postgraduados

PROPIEDADES TERAPéUTICAS DEL áRBOL DE GUAYABO (PSIDIUM GUAJAVA)


PROPIEDADES TERAPéUTICAS DEL áRBOL DE GUAYABO (PSIDIUM GUAJAVA)

Ulloa Espinosa Ivette, Instituto Tecnológico de Tapachula. Asesor: Dra. Galdy Hernández Zárate, Colegio de Postgraduados



PLANTEAMIENTO DEL PROBLEMA

La naturaleza, a través de las plantas, ha proporcionado una cantidad excepcional de agentes medicinales. Históricamente, el uso de plantas medicinales representa una fuente factible para el tratamiento de diversas enfermedades, en especial, para las comunidades rurales que enfrentan mayores problemas de salud (Daswani et al. 2017). Se estima que cerca del 80 % de la población mundial dependen de la medicina tradicional (plantas), como una alternativa económica, segura y menos invasiva que la medicina convencional (Aedo y Granados, 2000; Rojas et al. 2015; Sivakrishnan y Pharm, 2018;). En este trabajo, se realizó una revisión bibliográfica sobre las propiedades y usos terapéuticos de la guayaba (Psidium guajava), un árbol con un número considerable de beneficios para la salud humana, y químicamente está dotado de muchas propiedades nutricionales y medicinales (Kafle et al. 2018). La constitución química de esta planta incluye taninos, fenoles, flavonoides, saponinas, carbohidratos, alcaloides, esteroles, terpenoides, compuestos fenólicos, entre otros (Barbalho et al., 2012; Gutierrez et al. 2008; Shruthi et al, 2013; Thaku and Vikrant, 2014; Thenmozhi and Rajan, 2015). Como planta medicinal, los frutos de Psidium guajava han mostrado una amplia diversidad de usos terapéuticos, p. ej. como antialérgico, antimicrobiano, antigenotóxico, antiplasmodial, antidiabético, antiinflamatorio, anti-reumático, citotóxico, antiespasmódico, cardioactivo, preventivo para la tos y anticonceptivo (Daswani et al. 2017; Kafle et al. 2018). Otro de los beneficios presente en este fruto de guayaba está asociado a su actividad antibacteriana, antimicótica y antipalúdica, que contribuye a la inhibición o retraso del crecimiento de diferentes microorganismos. Bacterias patógenas Gram-positivas y Gram-negativas como Staphylococcus aureus, Streptococcus mutans, Pseudomonas aeruginosa, Salmonella enterica, Bacillus cereus, Proteus vulgaris, Shigella dysenteriae y Escherichia coli han mostrado ser susceptibles a extractos de guayaba (Díaz-de-Cerio et al. 2017; Daswani et al. 2017; Kafle et al. 2018). Por su parte, las hojas del árbol de guayabo coadyuvan a prevenir trastornos digestivos, alopecia, ictericia, úlceras en la piel y es buena para aliviar las molestias reumatoides (Adame, 2008; Díaz-de-Cerio et al. 2017). En México, el cultivo de guayaba es una actividad que se realiza en 18 estados de la República. El 97 % de la producción se concentra en cuatro estados, Michoacán (117 322 t), Aguascalientes (53 536 t), Zacatecas (36 949 t) y el Estado de México (10 430 t), siendo Michoacán líder con un aporte del 50 % de la producción nacional (Colima-Agraria,2018; Páez Zavala; 2019; SAGARPA, 2019). A pesar de que México es el tercer productor más importante de guayaba a nivel mundial (Cortes-Penagos, 2016, Valera Montero et al. 2018), son muy pocos los esfuerzos realizados por las instituciones de investigación en la búsqueda de nuevos compuestos bioactivos que exhiban propiedades terapéuticas o medicinales. Sin duda, ésta puede ser un área de investigación emergente, con gran futuro, dada la enorme diversidad de compuestos bioactivos presentes en la guayaba, de los que aún no se conoce una función definida.



METODOLOGÍA

A través de las bases de datos Scopus-Elsevier y Google Académico, se llevó a cabo una búsqueda minuciosa de los artículos científicos sobre propiedades farmacéuticas y efectos del árbol de guayabo (Psidium guajava). Para su selección, se utilizaron las palabras claves “food”, “Psidium guajava” y “pharmaceutical,” y un filtro por área de interés (Ciencias Agrícolas y Biológicas, y Farmacología, Toxicología y farmacéuticas). Se obtuvo un total de 14 artículos registrados desde 2015 a la fecha. A la base bibliométrica generada se le efectuó un análisis con el software VOSviewer versión 1.6.1.5 para identificar la co-ocurrencia de las palabras claves.


CONCLUSIONES

Durante este verano científico, se compiló información sobre las propiedades farmacológicas del árbol de guayabo (Psidium guajava). Dicha información, permitió adquirir conocimientos teóricos que fortalecieron la formación académica y profesional en el área alimentos. En lo que respecta a la guayaba, a nivel mundial es reconocida no solo como alimento sino por sus propiedades medicinales para el tratamiento o prevención de enfermedades gástricas, alergénicas u oncogénicas. A pesar de ello, en México aún son escasos los estudios enfocados a la búsqueda de principios activos con fines medicinales; pero en muchas zonas rurales del país, la infusión de las hojas, raíces o la corteza del árbol de guayabo es una práctica común para tratar la tos, el dolor de estómago o como anti-disentérico.
Ulloa Ramirez Martha, Universidad de Guadalajara
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

TRATAMIENTOS COMBINATORIOS BASADOS EN POLíMEROS, NANOPARTíCULAS, NANOCOMPUESTOS Y PéPTIDOS ANTIMICROBIANOS PARA EL COMBATE DE BACTERIAS RESISTENTES A ANTIBIóTICOS.


TRATAMIENTOS COMBINATORIOS BASADOS EN POLíMEROS, NANOPARTíCULAS, NANOCOMPUESTOS Y PéPTIDOS ANTIMICROBIANOS PARA EL COMBATE DE BACTERIAS RESISTENTES A ANTIBIóTICOS.

Román García María Fernanda, Instituto Politécnico Nacional. Ulloa Ramirez Martha, Universidad de Guadalajara. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

En 1928 comienza la era de los antibióticos, gracias al descubrimiento de la penicilina por Alexander Fleming; a pesar de que estos novedosos compuestos ayudaron bastante para frenar el crecimiento de enfermedades e infecciones causadas por bacterias, su uso persistente y su automedicación ha favorecido a que dichas bacterias desarrollen versátiles y sofisticados mecanismos de resistencia contra agentes antibióticos clínicamente esenciales. Esta amenazante realidad deja alrededor de cientos de miles de muertes por año, y de continuar de esa manera, el alarmante pronóstico para el año 2050 es que haya alrededor de 10 millones de muertes por la resistencia bacteriana. En este contexto la Organización Mundial de la Salud (OMS) ha declarado la resistencia bacteriana como un problema de salud pública de interés internacional; dando a conocer en 2017, una lista de patógenos de alta prioridad en la que se destacaban Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa y Enterobacter spp, (ESKAPE). Por esta razón, en la actualidad se ha puesto especial atención en el desarrollo y la investigación de nuevos tratamientos que aporten contra la resistencia a los antibióticos, en este caso, se decidió elaborar un artículo de revisión acerca de los tratamientos combinatorios que hasta el momento se han estudiado y que muestran una alta efectividad contra este problema.



METODOLOGÍA

Para comenzar con la realización del artículo se definieron los temas principales que contendría, iniciando por el planteamiento de una visión general de la resistencia bacteriana y las principales bacterias a combatir, los mecanismos de acción más comunes (modificación enzimática del antibiótico, las alteraciones en la permeabilidad de las membranas, los transportadores de efluentes y la modificación del sitio de unión); las actuales acciones que se han tomado para combatir la resistencia bacteriana y las conclusiones. Posteriormente, se definen cuatro subtemas principales en relación a los tratamientos combinatorios. El primero acerca de la combinación de dos o más antibióticos, el segundo abarca las nuevas estrategias combinatorias, entre los cuáles se definieron como subtemas secundarios los tratamientos con polímeros, tanto naturales como sintéticos; con nanopartículas inorgánicas, principalmente metales; y finalmente híbridos o nanocompuestos de nanopartículas y polímeros. Por último, se plantearon los temas de péptidos antimicrobianos en combinación con antibióticos y nanopartículas. Una vez repartidos los temas a desarrollar, se comenzó la búsqueda de bibliografía principalmente de artículos científicos publicados en revistas indexadas; los cuales se podían encontrar en bases de datos bibliográficos, bibliotecas virtuales y motores de buscadores confiables, como PubMed, Scopus, Wiley, Springer, entre otras. Después de obtener los artículos más relevantes para la investigación, se llevó a cabo la lectura de éstos y la extracción de las ideas principales. Una complicación durante el proceso fue que todas las fuentes bibliográficas se encuentran escritas en inglés, por lo que fue necesario utilizar herramientas de traducción que permitieran una mejor comprensión del texto. Una vez con las ideas principales, se procedió a redactar de manera simple y concisa los resultados más esenciales de los estudios que se realizaron acerca de los temas ya mencionados. Para citar correctamente cada fuente consultada utilizamos el programa Mendeley para recolectar los datos bibliográficos de los artículos consultados y poder agregar esta citas de acuerdo al formato de la revista Frontiers in Microbiology. Además, se tomó en cuenta las cinco estrategias propuestas por la Organización Mundial de la Salud en el plan de acción con respecto a la resistencia antimicrobiana: la optimación de la concientización y comprensión de la resistencia antimicrobiana, el refuerzo de los conocimientos por medio de la visualización e investigación, la reducción la incidencia de infección, la mejora del uso de los agentes antimicrobianos y el garantizar una gestión apropiada y financiación de la innovación en las alternativas terapéuticas.


CONCLUSIONES

Ya que las condiciones sanitarias actuales no permitieron una estancia presencial, los principales conocimientos y resultados obtenidos durante la investigación fueron principalmente teóricos, pues además del tema principal del artículo de revisión, se tuvo acceso a pequeñas clases de los temas relacionados a la línea de investigación y a un curso detallado del proceso de planeación, escritura y publicación de artículos de divulgación científica. La importancia de participar en este tipo de veranos de investigación es justamente el colaborar al desarrollo de la ciencia y la tecnología, además de adentrarnos en una edad temprana a la investigación, así como en este caso por ser de una manera virtual a su redacción. Además, fue una oportunidad para hacer una red de contactos para futuras colaboraciones tanto del área de la investigación como la divulgación científica entre diferentes planteles educativos fuera y dentro del país. Sin embargo, conforme a la transcendencia del artículo de revisión, es significativo mencionar que, con el paso de los años, las problemáticas en el área biomédica y biotecnológica cambian conforme al desarrollo de los nuevos medicamentos, así como su metodología de empleo y es por ello que debemos seguir muy de cerca el progreso e investigación de éstos para poder hacer una predicción de futuros inconvenientes que puedan causar, además de ser una problemática de salud pública de suma importancia para el mundo.
Utrera Gonzalez Luis Eduardo, Instituto Tecnológico Superior de Xalapa
Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato

SISTEMA DE DETECCIóN DE OBSTáCULOS PARA APOYAR A PERSONAS CON DISCAPACIDAD VISUAL


SISTEMA DE DETECCIóN DE OBSTáCULOS PARA APOYAR A PERSONAS CON DISCAPACIDAD VISUAL

Utrera Gonzalez Luis Eduardo, Instituto Tecnológico Superior de Xalapa. Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Caminar en el exterior implica contar con el correcto funcionamiento de los sentidos, especialmente la vista, el tacto y el oído. Gracias a esto es posible prevenir algún accidente que pueda causar daños físicos en la persona durante su desplazamiento. No obstante, para aquellas personas que carecen de algún sentido de los anteriormente mencionados, implica una mayor dificultad para realizar esta actividad de desplazamiento en cualquier entorno. Hoy en día, las personas invidentes cuentan con herramientas como el bastón, la cual es una herramienta sencilla que permite detectar obstáculos a ras de piso. El perro guía es otra herramienta muy habitual donde la persona invidente depende de las capacidades del animal, así como de su adiestramiento para dirigir adecuadamente a la persona con discapacidad visual en cualquier entorno. Actualmente, el desarrollo de nuevas tecnologías se ha incrementado considerablemente, ofreciendo nuevos sistemas de apoyo en este contexto. En los países que cuentan con más avances tecnológicos existen dispositivos muy sofisticados para el apoyo de invidentes, los cuales reflejan un alto costo.



METODOLOGÍA

En primer lugar, se realizó una investigación previa acerca de los instrumentos o material, simple o avanzado que utilizan personas invidentes en situaciones de desplazamiento. Esto proporciona información respecto a las tecnologías existentes, la base de sus diseños o parte del principio de utilidad. De este modo, el presente proyecto pretende estar al margen de dichas tecnologías. Antes de iniciar con el proceso de diseño, se establecer las particularidades por cubrir, mencionadas a continuación: El rango de funcionamiento es el margen de distancia en el que el sistema detecta objetos o entra en funcionamiento. Dicha distancia debe ser variable pero apropiada para que el usuario pueda tomar una nueva dirección. La ubicación de sensores que permitirá obtener información del entorno que sea menos propensa al ruido en los datos de distancia obtenidos. Costo económico por unidad.   En el diseño, se utilizó un avatar masculino, al cual se le ubicaron tres sensores en la cintura y uno en el pecho. El rango de detección se estableció en 1.3 m distancia entre objeto-usuario, para el caso de los sensores de cintura se derivan dos nuevas variables, el grado de inclinación del sensor y una nueva medición de distancia, dicha distancia es la hipotenusa de un triángulo rectángulo. Para lo económico, el material o componentes, así como de microcontroladores a los cuales se realizó una comparación entre dos o más opciones por componente con el fin de definir cuáles son adecuados para este sistema. Es por ello que, los transductores de proximidad HC-SR04, los emisores de señal zumbador y dos motores de bajo voltaje, una fuente de alimentación con características de 10000 mAh y 5v (batería) es el material que cumple con características económicas y capaces de realizar dicha tarea asignada. Se realizó una comparativa de microcontroladores PIC y Arduino con características económicas y accesibles, sin embargo, se optó por Arduino. En general el costo aproximado de construcción por unidad oscila entre los 750 y 1000 pesos (puede variar un poco debido a la fluctuación de los precios en el mercado), por lo cual, el producto final puede tener un costo bastante accesible para una persona discapacidad visual. Pasando al modelado mecánico, el cual inicio con la propuesta de un chaleco y que a lo largo de la estancia se modificó a un cinturón y un arnés para el pecho. El cinturón de cinta polipropileno se encarga de portar el microcontrolador, batería, ultrasónicos y motores, por otra parte en el arnés del mismo material se localiza un ultrasónico y buzzer. Dicho diseño  permite presentar un diseño atractivo, compacto, práctico y confortable. Para probar la eficiencia del circuito electrónico se realizaron prácticas digitales en la plataforma TinkerCAD, Una vez que se probado en la simulación, se realizaron pruebas utilizando componentes electrónicos y microcontroladores reales para validar el funcionamiento del sistema. Finalmente, el proceso para detectar obstáculos del sistema  inicia con una calibración manual de la altura del usuario  y prosigue  de la siguiente manera:  Detección de obstáculos aéreos. Se obtiene la medición de distancia (D1) la cual es sometida a una sentencia if para un rango determinado, si se mantiene en el rango se activa el Buzzer, para el caso contrario se repite el proceso continuamente. Detección de obstáculos frontales. Se obtiene la medición de distancia (D2) la cual es sometida a una sentencia if para un rango determinado, si se mantiene en el rango se activa el Buzzer y Motores Izquierdo y Derecho, para el caso contrario se repite el proceso continuamente. Detección de obstáculos en el piso. Se obtiene la medición de distancia (D3, D4, D5) las cuales son sometidas individualmente a sentencia if para un rango determinado con cierta tolerancia, si se mantiene en el rango para D3 se activa Motor Derecho, para D4 se activan ambos motores, mientras que a la distancia D5 se activa el Motor izquierdo, de no ser así se repite cada una de las sentencias continuamente.


CONCLUSIONES

El diseño del sistema obtenido en el desarrollo de este proyecto, cuenta con los requerimientos básicos para proporcionar al usuario invidente una herramienta de apoyo para la interacción con los obstáculos presentes en el entorno. El desarrollo del sistema, considera la selección de sensores adecuados para realizar la consigna, así como el costo de construcción. De esta manera, se pretende presentar un producto de costo accesible para cualquier usuario. El sistema desarrollado es un prototipo base, quedando abierto a posibles mejoras para ampliar las funcionalidades y añadir nuevas características sin incrementar demasiado el costo, brindando así mayor seguridad al caminar para la población con discapacidad visual.
Valdez Estrada Kevin Valentín, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

BASTÓN INTELIGENTE CON SENSORES DE PROXIMIDAD


BASTÓN INTELIGENTE CON SENSORES DE PROXIMIDAD

Valdez Estrada Kevin Valentín, Instituto Tecnológico Superior de Uruapan. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

crear un bastón inteligente con sensores de proximidad que envie la señal a una  app, para personas con problemas visuales (ciegos) 



METODOLOGÍA

Metodo experimental y Metodología cuantitativa


CONCLUSIONES

  El presente proyecto es de suma importancia para las sociedades, pero sobre todo para la persona que tiene estos problemas visuales (ciego) ya que les va a permitir detectar obstáculos previamente, para que no le provoque algún accidente ya que el bastón es una herramienta o aparato que cuenta con un sensor de aproximación y le trasmite señales de alerta en el smartphone, cuando se aproxime en algún objeto en el camino. Y de esta manera a la gente sele brindara un servicio de apoyo de guía para evitar mayores accidentes. Por eso es determinante este proyecto o propuesta de este aparato para la sociedad mejores y se apoyen con este bastón inteligente y que mejoren la calidad de vida de las personas
Valdivieso Salinas Heber, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla

MODELADO DE PROPIEDADES ESTRUCTURALES, ELECTRóNICAS Y MECáNICAS DE NANO-MATERIALES.


MODELADO DE PROPIEDADES ESTRUCTURALES, ELECTRóNICAS Y MECáNICAS DE NANO-MATERIALES.

Díaz Angel Benazir, Benemérita Universidad Autónoma de Puebla. Rivera Peralta Diana, Benemérita Universidad Autónoma de Puebla. Valdivieso Salinas Heber, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La ciencia e ingeniería de los materiales se encarga de la estructura y composición de los mismos para controlar sus propiedades a través de la síntesis (cómo se fabrican) y el procesamiento (cómo se transforman).  Los materiales pueden diferenciarse por su naturaleza, orgánica o inorgánica logrando así su clasificación en metales, cerámicas y vidrios, polímeros, semiconductores y materiales compuestos. De acuerdo a su funcionalidad tenemos otra clasificación: aquellos que se utilizan en la industria aeroespacial como los compuestos de carbono, los utilizados en la electrónica como el cobre, etc. Las propiedades que a cada uno le corresponden hace que sean los adecuados para uno u otro campo, su estructura habla por sí misma para decidir si es totalmente resistente, cómo absorbe la energía, si el peso es el óptimo, qué tan bien reaccionan a los efectos adversos y algo importante: qué tan factible es llevar a cabo ese proyecto ¿será lo suficientemente bueno económicamente tanto en producción como en ganancia? Dependerá de cada uno de los ingenieros encargados del proyecto buscar y crear los mejores materiales. Para poder producir estos materiales se utilizan programas de simulación, en este proyecto fue Forcite Plus.  



METODOLOGÍA

Previamente a utilizar el programa se realizaron lecturas para conocer la forma en la que este trabajaba y, en general, la forma en la que se trabaja en ingeniería de materiales:  En la primera lectura se dieron a conocer los métodos de mecánica molecular los cuales están basados en la mecánica clásica, en donde se representa a los átomos como dos esferas que se tocan, unidas por resortes para simular los enlaces que existen entre estos lo cual obedece a la ley de Hooke. Podemos representar el potencial debido al alargamiento (Valarg) en una gráfica, y = Energía, x = posición: dos átomos que se encuentran lo suficientemente separados no van a tener ningún tipo de enlace, pero van a atraerse, del lado contrario hay tanto acercamiento que provoca repulsión entre los átomos. Ambos casos nos llevarán, con el paso del tiempo, a una oscilación hasta alcanzar la distancia mínima entre los dos A partir de esto surgen los campos de fuerza representados con la siguiente ecuación:  V= Valarg + Vdef + Voop + Vlor + Vcruz + Vvdw + Velec En donde Valarg: es alargamiento del enlace, Vdef: deformación del ángulo de enlace, Voop: deformación fuera del plano, Vlor: rotación interna alrededor de un enlace, Vcruz: términos cruzados, Vvdw: atracciones y repulsiones de Van der  Waals y Velec: interacciones electrostáticas. Los parámetros de los programas de Molecular Mechanics se refieren a los valores que toman las constantes de fuerza y los valores geométricos al equilibrio. La calidad del campo de fuerza o la precisión de sus predicciones depende tanto de las funciones que describen la energía como de sus parámetros. Para que un campo de fuerza sea útil y proporcione resultados confiables, es necesario que los parámetros de fuerza sean transferibles completamente de una molécula a otra.  En la lectura correspondiente al programa se detalló que Forcite Plus es un conjunto de herramientas para realizar simulaciones clásicas utilizando mecánica molecular. Permite calcular la energía, optimizar la geometría, estudiar la evolución temporal de una estructura que contiene miles de átomos. Las herramientas y tareas de análisis permiten la predicción de propiedades dependientes del tiempo, como la difusión, calcular propiedades mecánicas como el Módulo de Young, predecir la densidad de energía cohesiva y los parámetros de solubilidad, y sondear información estructural. Permite al investigador estudiar problemas como la compatibilidad molecular entre polímeros y moléculas pequeñas, otros polímeros y superficies. Las tareas, permiten la búsqueda de sitios de baja energía y la optimización previa de una estructura antes de realizar cálculos de mecánica cuántica más precisos   Posterior a estas lecturas se eligieron moléculas con las cuales haríamos la optimización geométrica, se calibró el programa y se prosiguió a buscar las moléculas para registrar los resultados.  


CONCLUSIONES

IMIDAZOL: En el campo de fuerza experimental la distancia entre dos átomos de hidrógeno fue de 6.547. En el campo de fuerza universal fue de 6.544Å, con Compass27 6.632 Å y con Dreiding 6.482Å. Lo que nos dice que el campo de fuerza óptimo para esta molécula es el Universal, el más cercano a la cifra arrojada por el campo de fuerza experimental.  ÁCIDO BENZOICO: Experimental 3.214 Å, Universal 3.027Å, Compass 27 3.243Å y en Dreding 3.315Å.  El que más se aproxima al modelo experimental es el campo de fuerza Compass27 que permite la predicción precisa y simultánea de propiedades de fase gaseosa y propiedades de fase condensa. GLICINA: Universal 3,669 Å, Dreiding 3,602 Å, Compass 27: 3,529 Å y Cvff 4,177 Å. El campo a utilizar sería Compass27 lo cual derivaría a resultados con un mínimo margen de error y más cercanos a la realidad. COPROLACTAM:  Experimental 2.992Å, Universal 3.367Å, Dreiding 3.849Å, Compass 27: 3.306Å y Cvff 3.495Å. Los mejores resultados se obtuvieron con Compass27. En este verano fuimos espectadores de cuán importante es el elegir de manera acertada cada una de las moléculas a usar en el desarrollo de materiales, la investigación del doctor llamó nuestra atención debido a que con esto es capaz de cambiar la vida de cada una de las personas que necesita una prótesis y hacer que funcionen como aquello que perdieron, que resistan, que se adapten, que cumplan con las expectativas. Probablemente en la comodidad de consumidor se ignora el proceso antes de que las cosas estén en nuestras manos  de esta forma éste verano ha logrado despertar el instinto por lograr algo que vaya más allá de lo que tenemos en frente, sin duda ha sido una experiencia gratificante para entender que las pequeñas cosas hacen la diferencia.
Valenzuela Moroyoqui Juan Manuel, Universidad Autónoma de Occidente
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

ESTUDIO ANTROPOMÉTRICO PARA DETERMINAR LA VARIABILIDAD DE LAS MEDIDAS CORPORALES Y DE LAS CONDICIONES AULICAS


ESTUDIO ANTROPOMÉTRICO PARA DETERMINAR LA VARIABILIDAD DE LAS MEDIDAS CORPORALES Y DE LAS CONDICIONES AULICAS

Valenzuela Moroyoqui Juan Manuel, Universidad Autónoma de Occidente. Zamorano Romero Hector Fernando, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Todo comienza con una postura mal al sentarse, muchas personas suelen sentarse de manera incorrecta encorvadas, con los pies elevados, reclinados en la silla etc. Lo cual genera graves problemas en la espalda más que nada en la columna, esto puede llegar a ser desde un ligero dolor hasta no poder caminar de manera correcta. Sentarse de manera incorrecta puede ocasionar una o más de las siguientes enfermedades. Cervicalgia Cifosis Torticolis Epicondilitis Dorsalgia   Lo que queremos lograr con esta investigación es empezar a que se lleve a cabo la postura correcta desde que es un niño hasta un adulto, para así no allá ningún tipo de problemas con su columna.



METODOLOGÍA

Investigamos en fuentes confiables de Google Academico acerca de como se deberia tomar de forma correcta las medidas antropometricas necesarias para este proyecto y acerca de las dimenciones aulicas.   Tomamos medidas a Niños de 7 años de edad con una cinta metrica en una postura parado y sentado, estas medidas nos ayudaran a detectar si la estatura de los niños es la adecuada para las butacas del salon de clases. Utilizamos la ayuda de las referencias del cuerpo humano, más especificamente el plano de Frankfurt que no ayudo a tomar la estatura y algunas otras medidas donde se necesitaba que el niño no tenga la cabeza erguida o baja ya que puede alterar los resultados de medida.   Comparamos la estatura y algunas otras medidas con respecto a la butaca para saber si sus dimenciones son las adecuadas y si se necesitara de algun cambio en las butacas. Comprobamos la altura del pizarron sea la correcta, tambien investigamos acerca de la iluminacion correcta en un salon de clases y lo aplicamos en un salon en general. La iluminacion es una parte fundamental del desarrollo educativo dentro del salon de clases, nos ayuda a ver mejor el pizarron y los apuntes.          


CONCLUSIONES

¿ENTONCES LA BUTACA ES ADECUADA PARA EL ESTUDIANTE? Primeramente, veremos la altura de la butaca, está a una altura de 45 cm (aquí tomamos la medida poplítea), la Altura del suelo a la parte posterior de la rodilla 37 cm aproximado, por lo tanto, si restamos estas medidas nos daría un total de 8 cm lo cual significa que la altura de la butaca no es ideal, pero, ¿Por qué? Esto se debe a que hay un sobrante de 8 cm, es decir, el alumno no tiene la rodilla en una posición a 90°. Lo ideal sería que la postura de las rodillas esté a 90° tocando el suelo con ambos pies, y no con los pies elevados. Una posible solución a esto pudiera ser es hacer una reingeniería tomando un percentil bajo del 5%, pero esto sería pensado solo a este grupo de alumnos de la misma edad lo cual sería sumamente costoso lo cual posiblemente no sea adecuado. Otra solución más viable podría ser la implementación de reposa pies solitarios para que los alumnos puedan tocar el suelo así la postura de la rodilla seria de 90°. Tener una postura mal al sentarse podría causar los siguientes problemas. Deformaciones en el cuello y la columna. Afecta negativamente la productividad. Problemas en las articulaciones y tendones.   ¿LA ALTURA DEL PIZARRON ES LA ADECUADA? El pizarron que se utiliza usualmente mide de largo 2.40 mts y 1.20 mts de ancho y esta a una altura de 80 centimetros del suelo al pizarron. Comparando la altura que se encuentra el pizarron es la mas optina ya que al alumno le permite tener una vista amplia desde su butaca.   ¿LA ILUMINACIÓN ES ADECUADA?   Para tener un alto rendimiento en los estudiantes es importante tomar en cuenta la iluminación en sus áreas de estudios. En el salón de clases sé cuenta con varias lámparas de luz artificial, pero también en ciertas horas se cuenta con la luz natural, pero ¿como se puede aprovechar esa luz natural?. Se tendría que ver la ubicación de las butacas, deben de estar ubicadas cerca de una fuente de luz en este caso su ubicación estarían cercas de las ventanas, pero para eso se necesitaría del uso de persianas y cortinas para evitar el deslumbramiento y la radiación directa que emite el sol. La luz artificial debe de estar ubicada en lugares ocultos de la visión directa, como en todos los casos estarían en el techo, deben de estar con una tonalidad fría o del tipo de luz de día. Para aprovechar al máximo la iluminación se tendrían que pintar la parte superior de las paredes de un color claro esto para que la iluminación sea reflejada aún mejor.   La iluminación natural se cubrirá con un porcentaje mínimo de 17.5% respecto a la superficie del terreno y la iluminación artificial deberá ser en color blanco Frío (4100º).   CONCLUSIÓN   Durante la estancia de verano se obtuvieron conocimientos acerca de la anatomía humana y los segmentos en los que se divide, a su vez aprendimos a tomar correctamente las medidas en las distintas partes del cuerpo humano y utilizarlas dependiendo el problema. Aprendimos a tener un razonamiento analítico acerca de los posibles problemas que se llevan en distintas situaciones.  
Valera Baéz Luisa María, Instituto Tecnológico Superior de Libres
Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

FACTORES QUE IMPACTAN EL ENTORNO ORGANIZACIONAL Y LA MEJORA CONTINUA EN LOS CENTROS DE TRABAJO DE LAS EMPACADORAS DE AGUACATE


FACTORES QUE IMPACTAN EL ENTORNO ORGANIZACIONAL Y LA MEJORA CONTINUA EN LOS CENTROS DE TRABAJO DE LAS EMPACADORAS DE AGUACATE

Valera Baéz Luisa María, Instituto Tecnológico Superior de Libres. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La falta de implementación de la NOM-035-STPS-2018 así como la ausencia de una estrategia de mejora continua, genera un impacto negativo minimizando los indicadores de productividad  y  demeritando el entorno organizacional a causa del estrés laboral en el centro de trabajo de las empacadoras de aguacate.



METODOLOGÍA

Para llevar a cabo la metodología en este proyecto, se considera la investigación de tipo documental, la cual tiene un objetivo, que es el desarrollo de las capacidades reflexivas y críticas a través del análisis, interpretación y confrontación de la información recogida. Para ello, se desarrollará la fundamentación teórica como apoyo al proceso de investigativo. De igual manera se incluirá la investigación tipo descriptivo, pues constituyen una mera descripción de algunos fenómenos, para lo cual, se identifica una problemática donde el fenómeno a investigar es el efecto negativo que se crea en los centros de trabajo debido al estrés laboral en los empaques de aguacate. La aplicación de Lean Manufacturing (Mejora Continua) específicamente la metodología de Kanban que se encuentra dentro de la estrategia de Kaizen, pues será una estrategia a implementar para poder aumentar la productividad y además teniendo una disminución en el desperdicio. Se llevará a cabo el desarrollo del protocolo de investigación y la presentación digital del mismo.


CONCLUSIONES

La creación de esta norma es un paso más hacia el bienestar de los trabajadores en este país, sin embargo su aplicación y puesta en marcha en conjunto con el Instituto Mexicano del Seguro Social ha dejado mucho que desear, durante la aplicación del cuestionario para identificar a los trabajadores que sufrieron algún evento traumático severo se visitó las instalaciones del IMSS para obtener alguna información para la segunda fase que es el tratamiento de los identificados pero la respuesta de ellos fue simple No sabemos. Además, se identificó falta de sustento teórico, es decir, no hay un modelo teórico que sustente los factores de riesgo psicosociales.  Toda la experiencia adquirida gracias a la aplicación de esta norma y demás actividades propias del área de seguridad, higiene y ecología me han ayudado a tener una visión más amplia de lo que es la empresa y su funcionamiento, además de que hay que tener en cuenta el factor más importante, que es el factor humano. Finalmente, se cumplió con el objetivo de desarrollo sostenible, industria, innovación e industria que se trata de desarrollar infraestructuras resilientes, promover la industrialización inclusiva y sostenible y además fomentar la innovación. En nuestro caso, la empresa contaba con el recurso necesario para ello y el proceso tuvo una mejora así como el espacio en general, gracias a la aplicación de la NOM-035-STPS-2018 y la metodología Kanban.
Valle Queb Cristina Candelaria, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

PROTECCIóN CATóDICA DE ESTRUCTURAS DE CONCRETO REFORZADO: ÁNODO GALVáNICO Y CORRIENTE IMPRESA


PROTECCIóN CATóDICA DE ESTRUCTURAS DE CONCRETO REFORZADO: ÁNODO GALVáNICO Y CORRIENTE IMPRESA

Valle Queb Cristina Candelaria, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

Con el crecimiento de la industria de la construcción a nivel mundial y el propósito de suministrar materiales cada vez más económicos, que contribuyan con el sostenimiento del medio ambiente, ha tenido lugar el desarrollo de materiales novedosos para la producción de concretos con mejores desempeños mecánicos y de durabilidad. La corrosión metálica en medio de un ambiente húmedo es un proceso de naturaleza electroquímica, el cual compete a las reacciones de oxidación (ánodo) y reducción (cátodo) ocasionando el deterioro del metal (acero de refuerzo en concretos) y de sus propiedades, esto debido a que producen zonas de diferentes niveles de energía y propician la celda electroquímica, la cual es básica para entender este fenómeno. En el momento en que uno de los principales elementos (ánodo, cátodo, electrolito, conductor eléctrico y la diferencia de potencial) deja de funcionar la celda galvánica dejará de funcionar, por lo tanto, la corrosión se detendrá. La corrosión de la armadura es una de las causas más habituales del deterioro de las estructuras de concreto armado, ocasionando elevados gastos de reparación y mantenimiento. Por todo lo mencionado anteriormente a través del tiempo se ha buscado sistemas y métodos para la prevención, reparación y protección de la corrosión del concreto, estos son muy variados y cada vez se empiezan a desarrollar nuevas técnicas y productos para controlar este fenómeno. Actualmente se conocen muchas maneras de luchar contra la corrosión, sin embargo, la protección catódica es la única técnica comprobada que detiene la corrosión.  



METODOLOGÍA

El principio de la protección catódica es que haya un elemento que obligue a la armadura a comportarse como cátodo, conectando un metal más activo el cual es el que se oxidará a favor del que se va a proteger. Para el proceso de la protección catódica (PC) por ánodo galvánico, es necesario conectar mediante un alambre conductor, piezas de algún elemento más activo a la armadura embebida en concreto. Para el caso de una PC mediante termo rociado de zinc, primero se tiene que limpiar y quitar las impurezas de la superficie de las caras, una vez impregnado el zinc, se procede a cerrar la conexión entre el metalizado del zinc (termorociado de caras) y la armadura (acero de refuerzo), con una resistencia acoplada al circuito. Y con el multímetro se mide el potencial de estos y se puede determinar si la protección está funcionando o no. Dependiendo de este resultado se procede a realizar ajuste esto sujeto con base a criterios semiempíricos. En el caso de corriente impresa el ánodo podría ser cualquier material, ya que se utiliza una fuente de energía de corriente continua para inducir corriente que entra en la estructura a proteger, haciéndola cátodo. Sin embargo, en el caso de la protección del acero en hormigón en estructuras, es necesario el uso de materiales (puede ser una varilla de acero inoxidable) que no produzcan deterioro del hormigón, por lo cual deberían ser inertes o con muy bajas velocidades de oxidación y poder obligarla a trabajar como cátodo. Este procedimiento consiste en unir eléctricamente la estructura que se trata de proteger con el polo negativo de una fuente de alimentación de corriente continua (pura o rectificada) y el positivo con un electrodo auxiliar que cierra el circuito. La fuente de poder se enciende y se verifica el potencial, los datos son tomados en voltmetros.  


CONCLUSIONES

La protección catódica ha sido de gran importancia para proteger estructuras de concreto reforzado, ya que es una solución a uno de los grandes problemas que ha sufrido la industria de la construcción que es la corrosión. Es muy necesario que se siga estudiando este tipo de protección en sus diferentes presentaciones para encontrar mejoras económicas y funcionales a esto. Podemos encontrar resultados de diversos estudios de PC que han realizado, investigadores y estudiantes, plasmados en tesis, artículos de divulgación e investigación. Durante la estancia de verano virtual se logró adquirir conocimientos teóricos de la protección catódica, al igual que se adquirió bastante conocimiento con respecto a las reacciones químicas dadas en la corrosión. En esta estancia se logró un conocimiento interdisciplinario, ya que se tocaron temas como la electroquímica, termodinámica, cinética química, intensidades de corrientes, potenciales y muchos otros que al principio de la estancia no se consideraban tan importantes, sin embargo, al finalizar el verano, se pretende seguir adquiriendo conocimientos con respecto a la rama de la corrosión del concreto armado. Al igual que se logró una participación integral con compañeros estudiantes de otras partes de la república mexicana, y se logró ver desde la perspectiva de un investigador con muchos años de experiencia, su gran trabajo bajo esta línea de investigación que es de mucha importancia hoy en día en el área de la construcción
Vanegas Ramírez Eva María, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

LA CAPACITACIóN COMO ELEMENTO CLAVE DE LA IMPLEMENTACIóN Y EL SOSTENIMIENTO A LP DE LA METODOLOGíA 6 SIGMA


LA CAPACITACIóN COMO ELEMENTO CLAVE DE LA IMPLEMENTACIóN Y EL SOSTENIMIENTO A LP DE LA METODOLOGíA 6 SIGMA

Correa Rojas Vianey Ernestina, Universidad Politécnica de Sinaloa. Salazar Aguilar Karina, Tecnológico de Estudios Superiores de Valle de Bravo. Sánchez Osuna Dania Lorena, Universidad Politécnica de Sinaloa. Vanegas Ramírez Eva María, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La presente investigación se centró en conocer las buenas prácticas documentadas de la implementación de seis sigma en los sectores de industrial y de servicio, desde el punto de vista Nacional e Internacional, asimismo diseñar un instrumento que permita concentrar el uso de herramientas de la metodología en sus etapas y analizar la línea base inicial y el alcance de la misma al implementar la metodología seis sigma, todo ello en un muestreo de empresas. Por lo que, el problema que se abordó en la investigación fue atender la falta de instrumentos de dominio público para implementar la metodología 6 sigma en las empresas, de manera sencilla y práctica.



METODOLOGÍA

La metodología es de tipo cualitativa, ya que la intención fue conocer la difusión de la metodología seis sigma como estrategia competitiva de las empresas, contiene una revisión de 50 marcos teóricos de artículos científicos las buenas prácticas de calidad seis sigma documentadas a nivel nacional e internacional. Asimismo, investigar sobre el papel de la capacitación como estrategia clave en la implementación y sostenimiento a Largo Plazo de seis sigma. Posteriormente revisar un instrumento previo de análisis de la metodología seis sigma, para proponer un rediseño más funcional.


CONCLUSIONES

Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de la metodología seis sigma a nivel nacional e internacional. Asimismo, un instrumento rediseñado para analizar la implementación de la metodología y el desarrollo de las herramientas. Finalmente se obtuvo un borrador de un artículo de divulgación sobre el papel de la capacitación como estrategia clave en la implementación y sostenimiento a largo plazo de seis sigma.
Vaquera Martínez María Guadalupe, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Ulises Martínez Contreras, Instituto Tecnológico de Ciudad Juárez

OPTIMIZACIóN DE PRODUCTOS Y PROCESOS


OPTIMIZACIóN DE PRODUCTOS Y PROCESOS

Loaiza Ospina Julián Andrés, Pontificia Universidad Javeriana. Vaquera Martínez María Guadalupe, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Ulises Martínez Contreras, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

I. RESUMEN El sector industrial se enfrenta constantemente a problemas de los cuales la mayoría de estos ocurren debido a un balanceo de líneas deficiente, además a este se le suman condiciones internas como lo es el ausentismo que provocan una deficiencia en los procesos y en la calidad del producto, lo que genera costos para las industrias, es por esto que un balanceo de líneas óptimo es aquel que aprovecha los recursos y las habilidades de sus operadores al máximo, creando un flujo continuo que aumente la productividad en la empresa. El problema de balanceo de líneas cae en un problema de combinatoria de problemas no tratables o de orden no determinístico polinomial (NP-hard) lo que favorece que se hayan desarrollado una gran cantidad de algoritmos para resolverlo: algoritmos de aproximación computacionales, algoritmos heurísticos y métodos exactos. El proyecto consiste en el desarrollo de una estrategia que permita mejorar el algoritmo genético de codificación de directa propuesto por Martínez (2015) para el balanceo de líneas tipo II, a partir de un tiempo de ciclo inicial obtenido con la suma de los tiempos más largos de cada trabajador por operación, método propuesto por Millares (2007). En términos más precisos la finalidad es encontrar soluciones óptimas para el mejoramiento del tiempo de ciclo, utilizando como apoyo un prototipo de programa que implemente y pueda ser utilizado en industria local. 



METODOLOGÍA

II. MÉTODO EXPERIMENTAL En la investigación presente en primera instancia se identificaron los problemas y los factores que influyen en ellos, posteriormente se realizaron investigaciones que se implementaron en el algoritmo de codificación directa de Martínez, (2015), finalmente se prosiguió con la comprobación y análisis de las soluciones. Parte fundamental de la investigación se centra en el algoritmo genético para el balanceo de líneas por Martinez, (2015).En el cual mediante la adición de genes que representan el número de trabajadores, estos crean un cromosoma que da solución al balanceo. Para encontrar el tiempo de ciclo inicial se utilizó el método descrito por Miralles, (2007) en donde se realizó la sumatoria de los tiempos más largos de cada actividad y posteriormente se dividió entre el número de trabajadores con el cuál se contaba, se observó que el balanceo de líneas se podía mejorar, ya que había un desequilibrio entre las estaciones de trabajo por lo que se optó por realizar la sumatoria del tiempo más largo y el más corto de las estaciones, dividiéndolo entre dos. Después se prosiguió con la realización de pruebas utilizando reglas heurísticas, las pruebas se realizaron tanto manualmente como en el programa. Estas reducciones porcentuales se hicieron de acuerdo al criterio Divide y vencerás la Es claro que la solución estará entre una reducción del 0 al 100%, así que se procede con el algoritmo propuesto por Martínez (2015) reduciendo el 50% si tenemos una respuesta, significaría que podemos aumentar a un 75%, en caso contrario, debemos disminuirlo a un 25% y así sucesivamente el número de iteraciones dependiendo de la eficiencia que necesitemos.


CONCLUSIONES

III. RESULTADOS Una vez realizadas las pruebas de la adición de los genes que representan a los trabajadores al algoritmo genético de codificación directa propuesto por Martínez (2015) se obtuvo un resultado favorable donde se llegó a la conclusión de que es posible dar solución al problema de balanceo de líneas tipo II. El método descrito por Miralles, (2007) en el cual se realizó la suma de los tiempos más largos divididos entre el número de trabajadores dio un resultado favorable sin embargo el tiempo de ciclo mostraba oportunidad de mejorarse. con las pruebas manuales, en la cual se observa que el tiempo de cada estación, muestra un desequilibrio entre el tiempo de las estaciones. Para dar solución a este problema se optó por realizar la sumatoria de del tiempo más largo y el menos largo y dividirlo entre dos, así realizando un promedio, en el caso anterior el nuevo tiempo de ciclo fue de 193, por lo cual se prosiguió a la realización de pruebas. El nuevo balanceo dado utilizando el nuevo tiempo de ciclo no resulta ser una solución factible ya que para poder cumplir con lo establecido necesitamos agregar otro trabajador, por lo cual fue descartado este método. Una vez descartado el método anterior se optó por tomar el tiempo de ciclo inicial dado anteriormente, pero en este caso se siguieron reglas heurísticas, utilizando el tiempo mayor y menor. Ambas reglas heurísticas resultaron favorables, sin embargo, no son óptimas ya que solo se utilizan 6 trabajadores en lugar de 7. Para solucionar el problema antes mencionado se inició reduciendo el 50%, resultó favorable por lo cual se aumentó a un 75%, se obtuvo un caso contrario y se disminuyó a un 25%, logrando así llegar a un 12.5% de reducción del tiempo de ciclo inicial lo cual dio una maximización del tiempo de ciclo. Cabe mencionar que las pruebas se llevaron a cabo tanto manualmente como en el algoritmo. Como prueba final se ejecutó el programa con un ejemplo particular del artículo de Millares (2013) donde a partir del cromosoma 1 16 5 6 17 0 7 8 9 10 14 11 12 15 13 2 18 19 22 23 24 20 25 26 3 4 21 27 0 1 2 3 4 5 6 El resultado fue un tiempo de ciclo de 208 con una reducción del 14.0625% a partir del tiempo inicial
Varelo Silgado Andrés, Universidad de Pamplona
Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION


MACHINE LEARNING CLASSIFIERS FOR KIDNEY STONES DETECTION

Correa Hernández Enrique Allfadir, Instituto Tecnológico Superior de Ciudad Hidalgo. Cuarenta Castañeda Juan Jose, Instituto Politécnico Nacional. Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Simbron Mckay Valentin Augusto, Universidad de Guadalajara. Varelo Silgado Andrés, Universidad de Pamplona. Asesor: Dr. Gilberto Ochoa Ruiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

1. Planteamiento del Problema Litiasis urinaria -formación de piedras renales- se ha tenido un aumento constante de la incidencia en muchos países desarrollados: Alrededor de 10% de la población en estas ciudades sufren al menos una vez en su vida las piedras renales y en las investigaciones han demostrado que la tasa de recurrencia es del 40% en 5 años . Esto representa un problema mayor para los sistemas nacionales de salud y por tanto se ha presentado un gran interés por el estudio o la identificación de las causas raíz de la formación de piedras en orden de mitigar la alta recurrencia de la enfermedad. Además, que la presencia de piedras urinarias específicas es un fuerte indicador para ciertos disturbios metabólicos que el paciente puede sufrir. Por tanto, el obtener una correcta identificación puede servir como un mecanismo pronóstico para evitar recaídas y utilizar tratamientos personalizados.Sin embargo, las prácticas médicas y clínicas actuales se basan en la experiencia de los clínicos y técnicos que utilizan métodos y procedimientos que conlleva a un diagnóstico tardado y que son altamente subjetivos o requieren un entrenamiento intensivo para realizar una correcta clasificación de los cálculos urinarios. El primer factor es especialmente gravoso, como las piedras renales tienen que ser removidas del paciente y posteriormente analizadas en el laboratorio, este proceso regularmente necesita el pulverizar la piedra, lo cual implica una importante pérdida de información para una correcta valoración de las dolencias del paciente.  



METODOLOGÍA

2. Método propuesto 2.1 Dataset El dataset utilizado fue creado a partir de 125 piedras renales adquiridas en prácticas in vivo y nombradas por el urólogo Dr. Vincent Estrade del Centre Hospitaliere de Bordeaux en Francia, en colaboración con el Centre de Recherche en Automatique de Nancy (CRAN) también en Francia. El acceso a este dataset fue a través de la colaboración del Dr. Gilberto Ochoa Ruiz con el CRAN.  Este dataset incluye 79 imágenes de superficie de las piedras, 46 imágenes de secciones transversales de las tres clases de piedras renales que tienen más incidencia en las poblaciones observadas. (Whewellite, Weddellite y ácido úrico) capturadas durante ureterorenoscopias reales. Se utilizaron los ureteroscopios URF-V para capturar estas imágenes. La superficie y las imágenes que fueron utilizadas están separadas en 2 sub-datasets durante la clasificación de entrenamiento y testeo. Son imágenes de 200 x200 pixeles que fueron recortadas de las fotografías originales para incrementar el número de las imágenes en los sub-datasets, Los parches solo contienen información de las piedras renales desde el fondo y esto no es visible en las imágenes recortadas 2.2 Textura: el software scikit-learn fue utilizado rotación y escala de patrones binarios locales invariantes de imágenes convertidas a escala de grises, los LBP fueron almacenados en un histograma 10-bin correspondiente a la primera parte del vector descriptor   2.3 Color: el espacio de color HSV(Hue-Tono, Saturation-Saturación, Value-Valor) fue usado para extraer información de color. ya que este es más cercano al ojo humano para percibir los colores. Este espacio es seleccionado porque el tono o color está en un solo canal mientras el brillo del color está separado.             2.4 Escalado de datos Los datos fueron escalados para una mejor operación de los métodos, aplicando la siguiente fórmula z=(x-promedio_datos)/(desvición_estandar_datos) z = datos escalados x= datos no escalados   2.5 Materiales y métodos Previo a la fase de clasificación, un dataset fue construido con características de color y textura fueron extraídas de las imágenes. Siete clasificadores supervisados fueron implementados y comparados para realizar la clasificación: Random Forest ensemble, XGBoost, MLP, Bagging, AdaBoost, SVM, Naive Bayes. 2.6 Separación de datos de entrenamiento y evaluación  Para separar los datos de entrenamiento y evaluación fueron tomados de acuerdo a la cantidad de muestras, es decir, teniendo en cuenta el subtotal de cada piedra Whewellite, Weddellite y ácido úrico.


CONCLUSIONES

3.  Diseño experimental:  Section Method/ Metric          Precisión       Recall         F1      Support Naive Bayes                  69%           71%          62%       158 SVM                             83%           86%          84%       158 AdaBoost                      83%           86%         83%        158 Bagging                         76%           76%        75%         157 MLP                              86%           91%        87%         158 XGBoost                        84%           88%        84%         158 Random Forest             87%            87%        86%         157   Surface Method/ Metric       Precisión       Recall      F1     Support Naive Bayes              48%             40%       36%       138 SVM                          76%             51%        50%       138 AdaBoost                  70%              48%        45%      138 Bagging                     77%              75%        75%      137 MLP                           80%                64%        63%      138 XGBoost                  79%                59%          56%     138 Random Forest      83%                 82%          83%    137     Method/ Av. Precision     Section     Surface      Student Naive Bayes                      62.65%       40.57%   Cuarenta Castañeda Juan Jose SVM                                   85.77%        59.42%   Dario Martinez Julio Joel AdaBoost                           84.81%         55.79%   Simbron Mckay Valentin Augusto Bagging                             75%               76%        Correa Hernández Enrique Allfadir MLP                                  88.60%            71.01%   Varelo Silgado Andrés XGBoost                           85.44%             68.11%   Franco Mora Marco Julio Random Forest                 87%                  82%     de la Lima López Julio Cesar     Conclusiones Con respecto a los modelos de clasificación usados en este proyecto, además de características de textura y color pueden ser exploradas en trabajos futuros buscando mejores resultados de clasificación.  Fue posible realizar pruebas con distintos métodos de clasificación de machine learning, realizando posteriormente una exhaustiva evaluación de los mismos, midiendo los valores promedio de precisión, recall, f1 y el support, donde es posible ratificar que Random Forest fue quien obtuvo un mejor rendimiento con respecto a los demás modelos. De igual forma se piensa que tuneando  los métodos es posible obtener resultados similares o incluso superiores a Random Forest como en el caso del sub-dataset de section donde el perceptrón multicapa arrojó el porcentaje de precisión más alto siendo 88.60%  .    
Vargas Arenas Pedro, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México

ANONIMATO Y CONFIDENCIALIDAD EN BLOCKCHAIN.


ANONIMATO Y CONFIDENCIALIDAD EN BLOCKCHAIN.

Vargas Arenas Pedro, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Rocío Aldeco Pérez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Blockchain brinda dos características muy importantes para la seguridad de los datos a diferencia de los actuales sistemas de gestión de datos. Estas características son anonimato y confidencialidad. Es por ello que se debe realizar un análisis al sistema para averiguar los beneficios de seguridad entro de una implementación de una cadena de bloques.



METODOLOGÍA

Blockchain en una tecnología de relativa reciente creación que ofrece ventajas en seguridad e integridad de la información, usualmente usada en criptomonedas, específicamente, en Bitcoin. Sin embargo, puede tener aplicaciones en diversos sectores públicos y privados gracias a sus propiedades y cracterísticas como contratos inteligentes. Es por ello, se debe de comprender su funcionamiento, cómo brinda seguridad y los beneficios al utilizarlo.


CONCLUSIONES

Después de analizar las propiedades de seguridad de Blockchain y la naturaleza del sistema, se puede concluir que puede tener aplicaciones en diversas áreas tanto públicas como privadas, por ejemplo: en el área de la salud, sector contable, logística de transportes, sector hotelero, entre otros. Con esto se tendrán ahorros en la administración de la información y en el tiempo de ejecución de los sistemas encargados de la gestión de datos, además, se asegurará la integridad de los datos.  Gracias a que Blockchain es versatil, se pueden obtener las propiedades que se quieran para implementarlas, por lo que se tendrá un sistema particular.
Vargas Batalla Estefanía, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango

PROPUESTA DE DISEñO DE MECANISMOS PARA NARIZ Y PóMULOS PARA UN TíTERE ANIMATRóNICO


PROPUESTA DE DISEñO DE MECANISMOS PARA NARIZ Y PóMULOS PARA UN TíTERE ANIMATRóNICO

Vargas Batalla Estefanía, Instituto Tecnológico Superior de Huauchinango. Vargas Salas Daniela Guadalupe, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

La animatrónica es la técnica que, mediante el uso de mecanismos robóticos o electrónicos, simula el aspecto y comportamiento de los seres vivos empleando marionetas u otros muñecos mecánicos. Los primeras animatrónicos modernos se pueden encontrar en robots antiguos. La animatrónica de hoy en día emplea dispositivos controlados por ordenador, así como controles por radio o manuales. Los movimientos específicos se consiguen mediante motores eléctricos, cilindros neumáticos o hidráulicos y mecanismos controlados por cable. El objetivo de es desarrollar un sistema basado en un títere animatrónico para apoyar el aprendizaje inductivo y autónomo de la lengua Náhuatl, mediante actividades prácticas como el saludo, numeración, partes del cuerpo humano, palabras cotidianas, oraciones, cuentos, leyendas, historias y diálogos con la finalidad de aportar para el rescate, preservación y difusión de esta lengua indígena de la Sierra Norte de Puebla específicamente para las comunidades del municipio de Huauchinango.



METODOLOGÍA

El proyecto, denominado Aprendiendo la lengua náhuatl a través de un títere animatrónico para las comunidades del municipio de Huauchinango es un excelente esfuerzo en el compromiso social e individual para la atención urgente y la realización de acciones de rescate, preservación y difusión de la lengua Náhuatl en la Sierra Norte de Puebla específicamente para las comunidades del municipio de Huauchinango, cuya finalidad es mantener viva la lengua indígena, que las niñas, los niños y los adolescentes sientan orgullo por la cultura de los padres y abuelos construyendo una herencia ancestral de valor incalculable. Para la realización de este proyecto consta de los siguientes pasos: Estado del arte, búsqueda y análisis de mecanismos para boca, nariz, mandíbula, ojos y cejas. Ya que esto es para la realización de un Animatrónico tipo Humanoide. Selección de propuestas de mecanismos para: nariz y pómulos. Estudio de la carcasa para implementarlos.      Diseño mecánico de las propuestas en SolidWorks.     Ensamblajes y pruebas con la carcasa. Ensamble con los demás mecanismos elaboradas por los otros compañeros, (cejas, ojos, mandíbula, nariz y boca), pruebas y ajustes con todos los integrantes.


CONCLUSIONES

El títere animatrónico hablante de náhuatl para comunidades del municipio de Huauchinango fue diseñado con el fin de rescatar la lengua indígena que cada vez es un grupo más minoritario el cual hace uso de la lengua indígena, todo por la discriminación que se vive en la actualidad. El proyecto no será muy barato, ni económicamente, ni en cuestión de tiempo, se pude decir que será un proyecto que necesite de mucho esfuerzo, trabajo y conocimientos en cuanto al tema, para poder llegar a un buen resultado, el cual se espera que podamos rescatar la lengua indígena en la región de Huauchinango, y que disminuya la discriminación que existe, que la sociedad vea que las personas que hablan náhuatl son tan importantes como los que hablan español, no es nada del otro mundo, es una cultura y una herencia ancestral que va de generación y que si no hacemos conciencia, de que incluso nosotros podemos aprender el náhuatl para hacer un lugar más inclusivo para las personas que practican el náhuatl, esta herencia podría desaparecer. Trabajar en equipo para la realización de los mecanismos de la nariz y las mejillas, buscamos que los mecanismos y piezas fueran fáciles de construir y que se aprovechara lo mejor que se pudiera los espacios, por lo cual decidimos unir en una misma pieza nuestros mecanismos. La experiencia de trabajar en equipo fue buena, aunque fue a distancia por motivo de la contingencia que se vive, tuvimos que adaptarnos a poner lo mejor de nosotros para lograr un buen trabajo.
Vargas Reyes Miriam, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

IMPLEMENTACIóN DE UN DISPOSITIVO DE TIPO EDGE EN UNA TARJETA RASPBERRY


IMPLEMENTACIóN DE UN DISPOSITIVO DE TIPO EDGE EN UNA TARJETA RASPBERRY

Vargas Reyes Miriam, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la automatización de los procesos productivos se ha enfocado en reemplazar con máquinas las tareas realizadas por las personas. En agricultura este tipo de innovaciones ha avanzado de una forma considerable, por ejemplo, en los sistemas de riego. Así mismo se ha tenido la necesidad de aplicar técnicas como la hidroponía que consiste en la producción de vegetales utilizando agua y una solución de minerales para el aporte de los nutrientes requeridos por las plantas sin ocupar tierra, debido a que cada vez hay menos espacio de suelo para la siembra y con el paso del tiempo ha perdido su fertilidad lo que provoca que los agricultores utilicen gran cantidad de fertilizantes. Este es el problema que se ha analizado durante la estancia del verano, para que se puedan implementar herramientas como plataformas de Internet de las Cosas e inteligencia artificial para tener un control en los cultivos hidropónicos, en aspectos como la temperatura y humedad para conocer con más exactitud el tiempo de riego y así tener otra alternativa para producir alimentos más limpios y sanos.



METODOLOGÍA

En primer lugar, se realizó una investigación de dispositivos IoT los cuales se consideran como simples sensores que adquieren información y la envían a una plataforma para su análisis y almacenamiento y que realizan un preprocesamiento inteligente para enviar información al sistema de almacenamiento IoT. En este caso se utilizó el dispositivo Raspberry Pi y la plataforma Anvil. Así mismo se realizó una investigación acerca de los cultivos hidropónicos los cuales permiten sembrar y cultivar frutas y verduras utilizando agua y minerales sin necesidad de tener suelo. Posteriormente se desarrollaron ejercicios con el lenguaje de programación Python para familiarizarse con esta herramienta ya que la tarjeta Raspberry Pi y la plataforma Anvil trabajan con este lenguaje. Una vez que se obtuvieron las bases teóricas se preparó la tarjeta y sus accesorios, dicha tarjeta es una computadora a la cual se le instaló el sistema RaspiOS, para llevar a cabo la instalación  se ocupó una memoria SD de 16GB, una vez que se obtuvo el sistema operativo se instaló en la memoria SD, enseguida se colocó en la tarjeta Raspberry, el siguiente paso fue conectar la tarjeta Raspberry Pi, mediante un cable HDMI, a un monitor y conectar teclado, mouse, cable de red y la conexión a corriente, esto para poder realizar las configuraciones y empezar a trabajar en la consola. Para la comunicación entre Arduino y Raspberry se realizaron las siguientes pruebas: En el código de Arduino se colocó un LED en el pin 13 como salida. Se hizo la condición si está disponible, guardar la lectura en una variable char y si es una H, encender el LED si no se cumple la condición entonces se coloca una L y se apaga el LED En el código de Python mediante el puerto serie, se declaró una variable llamada Arduino, con los datos necesarios para establecer la comunicación (puerto y baudios). Después de esto, se pide al usuario que introduzca un comando. Cuando lo introduzca, se enviará a Arduino, donde se diferenció entre H y L. Si es una H, se encenderá el LED y, si es una L, se apagará. Estos datos se mostraron en consola y se visualizó como se encendía o apagaba el LED según la letra que se introducía con el teclado. Para la implementación del sensor DHT11, primero se realizó un código para detectar la temperatura y humedad del ambiente, los datos se visualizaban en el monitor serie de Arduino, posteriormente se realizó un código en Python para obtener los datos de Arduino y mostrarlos en consola de Raspberry. Implementación en plataforma de IoT: Anvil Works es un IDE basado en la web, para desarrollar en el navegador sin instalar nada en el ordenador. Para tener una comunicación entre Raspberry y anvil se instaló la librería UPLINK. Para trabajar con anvil se creó una cuenta, enseguida se creó un nuevo proyecto y una interfaz para visualizar los datos del sensor y con ello monitorear las condiciones en las que se encuentran las plantas que se tienen en el sistema hidropónico y controlar los tiempos de riego o la temperatura. Así mismo, el proyecto cuenta con un apartado para poder realizar código, en este caso solo se logró comunicar a la tarjeta Raspberry con anvil, en el proyecto que se generó se encuentra la opción llamada UPLINK al dar clic allí se obtiene un código de enlace, el cual se colocó en el código de Python que se desarrolló en Raspberry, el ejercicio que se desarrolló para observar la comunicación fue el siguiente: En primer lugar, se debe de colocar la línea de código import anvil.server para tener comunicación con Anvil, después anvil.server.connect (seguido del código de enlace) Posteriormente se colocó una función y dentro de ésta el mensaje Hello. El programa se cierra con un anvil.server.wait_forever() Y en el código Python de anvil se llama la función que se declaró en el programa de la tarjeta Raspberry con anvil.server.callable(nombre_función) se ejecutan ambos programas y aparece el mensaje de conexión exitosa con anvil.  


CONCLUSIONES

Durante la estancia del verano se logró adquirir conocimientos de las plataformas de IoT y los cultivos hidropónicos, así mismo de diferentes dispositivos como el sensor DHT11, que en conjunto pueden ser un sistema bastante útil para monitorear las diferentes características que conforman un sistema hidropónico y de esta manera tener un control. Así mismo se logró obtener el conocimiento del lenguaje de programación Python, la tarjeta Raspberry Pi y la plataforma anvil ya que no se tenía conocimiento de estas herramientas, derivado de diferentes situaciones a lo largo de la investigación no se pueden mostrar los resultados finales, se espera poder desarrollar un prototipo de cultivo hidropónico e implementar la tarjeta Raspberry con el sensor DHT11 y mandar los datos a la plataforma de Anvil y poder visualizarlos en una interfaz para poder monitorear la información.
Vargas Salas Daniela Guadalupe, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango

PROPUESTA DE DISEñO DE MECANISMOS PARA NARIZ Y PóMULOS PARA UN TíTERE ANIMATRóNICO


PROPUESTA DE DISEñO DE MECANISMOS PARA NARIZ Y PóMULOS PARA UN TíTERE ANIMATRóNICO

Vargas Batalla Estefanía, Instituto Tecnológico Superior de Huauchinango. Vargas Salas Daniela Guadalupe, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

La animatrónica es la técnica que, mediante el uso de mecanismos robóticos o electrónicos, simula el aspecto y comportamiento de los seres vivos empleando marionetas u otros muñecos mecánicos. Los primeras animatrónicos modernos se pueden encontrar en robots antiguos. La animatrónica de hoy en día emplea dispositivos controlados por ordenador, así como controles por radio o manuales. Los movimientos específicos se consiguen mediante motores eléctricos, cilindros neumáticos o hidráulicos y mecanismos controlados por cable. El objetivo de es desarrollar un sistema basado en un títere animatrónico para apoyar el aprendizaje inductivo y autónomo de la lengua Náhuatl, mediante actividades prácticas como el saludo, numeración, partes del cuerpo humano, palabras cotidianas, oraciones, cuentos, leyendas, historias y diálogos con la finalidad de aportar para el rescate, preservación y difusión de esta lengua indígena de la Sierra Norte de Puebla específicamente para las comunidades del municipio de Huauchinango.



METODOLOGÍA

El proyecto, denominado Aprendiendo la lengua náhuatl a través de un títere animatrónico para las comunidades del municipio de Huauchinango es un excelente esfuerzo en el compromiso social e individual para la atención urgente y la realización de acciones de rescate, preservación y difusión de la lengua Náhuatl en la Sierra Norte de Puebla específicamente para las comunidades del municipio de Huauchinango, cuya finalidad es mantener viva la lengua indígena, que las niñas, los niños y los adolescentes sientan orgullo por la cultura de los padres y abuelos construyendo una herencia ancestral de valor incalculable. Para la realización de este proyecto consta de los siguientes pasos: Estado del arte, búsqueda y análisis de mecanismos para boca, nariz, mandíbula, ojos y cejas. Ya que esto es para la realización de un Animatrónico tipo Humanoide. Selección de propuestas de mecanismos para: nariz y pómulos. Estudio de la carcasa para implementarlos.      Diseño mecánico de las propuestas en SolidWorks.     Ensamblajes y pruebas con la carcasa. Ensamble con los demás mecanismos elaboradas por los otros compañeros, (cejas, ojos, mandíbula, nariz y boca), pruebas y ajustes con todos los integrantes.


CONCLUSIONES

El títere animatrónico hablante de náhuatl para comunidades del municipio de Huauchinango fue diseñado con el fin de rescatar la lengua indígena que cada vez es un grupo más minoritario el cual hace uso de la lengua indígena, todo por la discriminación que se vive en la actualidad. El proyecto no será muy barato, ni económicamente, ni en cuestión de tiempo, se pude decir que será un proyecto que necesite de mucho esfuerzo, trabajo y conocimientos en cuanto al tema, para poder llegar a un buen resultado, el cual se espera que podamos rescatar la lengua indígena en la región de Huauchinango, y que disminuya la discriminación que existe, que la sociedad vea que las personas que hablan náhuatl son tan importantes como los que hablan español, no es nada del otro mundo, es una cultura y una herencia ancestral que va de generación y que si no hacemos conciencia, de que incluso nosotros podemos aprender el náhuatl para hacer un lugar más inclusivo para las personas que practican el náhuatl, esta herencia podría desaparecer. Trabajar en equipo para la realización de los mecanismos de la nariz y las mejillas, buscamos que los mecanismos y piezas fueran fáciles de construir y que se aprovechara lo mejor que se pudiera los espacios, por lo cual decidimos unir en una misma pieza nuestros mecanismos. La experiencia de trabajar en equipo fue buena, aunque fue a distancia por motivo de la contingencia que se vive, tuvimos que adaptarnos a poner lo mejor de nosotros para lograr un buen trabajo.
Vargas Toledo Emilio, Instituto Politécnico Nacional
Asesor: Dra. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit

QR COMO MEDIO DE AUTOMATIZACIóN DE PAGOS ESTUDIANTILES DE TRANSPORTE


QR COMO MEDIO DE AUTOMATIZACIóN DE PAGOS ESTUDIANTILES DE TRANSPORTE

Vargas Toledo Emilio, Instituto Politécnico Nacional. Asesor: Dra. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los métodos de pago en el transporte público han evolucionado a pequeña escala, aunque se ha intentado implementar nuevas formas, como las tarjetas de prepago o monederos electrónicos, éstos no han resultado del todo eficiente o de gran impacto para los miles de usuarios que todos los días utilizan el servicio público de transporte.  La desconfianza hacia las nuevas tecnologías, o el temor a los fraudes en los sistemas de pago digitales, pueden ser algunas de las razones por las cuales el pago en efectivo sigue siendo el principal método empleado a la hora de abordar el transporte público.        Gran parte de los alumnos pertenecientes a la Universidad Tecnológica de Nayarit utiliza el transporte público para asistir a sus clases diariamente, y para ello reciben (quien así lo solicita) una beca especial para cubrir este gasto. Generar una forma de pago segura y práctica para los estudiantes, y a la vez un método perfectamente confiable para la institución que otorga dichas becas, es un reto que, de lograrse, se puede convertir en modelo que podría replicarse a gran escala.



METODOLOGÍA

El desarrollo e implementación de la propuesta metodológica de investigación empleada fue de tipo cualitativa, según el tiempo de aplicación de corte transversal con un alcance correlacional no causal y el diseño de la investigación es no experimental, explicativo. En el desarrollo de cualquier sistema o producto de software es conveniente enmarcar el trabajo en una metodología que guíe las acciones que se ejecutarán con este propósito. Para este proyecto se utilizó la metodología de desarrollo de software ágil llamada Scrum.      Scrum es un marco de trabajo que permite encontrar prácticas emergentes en dominios complejos, como la gestión de proyectos de innovación a través de Iteraciones (Alaimo, 2013). La idea surgió gracias a un viaje a La República de China donde la investigadora titular de este proyecto vislumbró la idea de un método de pago diferente, tras observar que en cada establecimiento (local o ambulante) existe un código QR visible a través del cual se realiza la compraventa de productos o servicios, precisamente, por medio de una transferencia de pago QR y con la ayuda de la aplicación WeChat.   Iteración de Diseño: Se realizó con la ayuda de dos herramientas. Para la aplicación utilizamos un programa de diseño de la suite Adobe (Adobe XD) en donde se realizó el boceto de la App para después pasarla al entorno de programación Android Studio y para el desarrollo web una herramienta para insertar estilos en páginas web llamada Bootstrap, la cual es una plantilla prediseñada de estilos CSS. La parte operativa de proyecto se basa en monitorear las transacciones realizadas, dinero acumulado y seguimiento de rutas para hacerse el cobro correcto al usuario que utiliza la App. Iteración de Programación: Se utilizó diferentes entornos de programación, para las aplicaciones se ocupó el entorno de programación Android Studio para los dispositivos con el sistema operativo Android, aquí se programó en el lenguaje de operación Java Script para realizar los procesos. Y la página web se realizó en el programa Visual Studio (2019), en donde se programó en los lenguajes HTML_5 para la estructura de la página web, PHP para el uso de la base de datos (que daba conectividad con el programa SQL Server), CSS para los diseños* y C# que le da vida a las actividades que realizaba la página web. Iteración de Pruebas de Prototipo: Para las pruebas del prototipo por parte de la aplicación una vez que el proyecto estaba pulido en errores y la consola nos confirmaba esto. Se descargó el archivo para ejecutar la aplicación en dispositivos Android (.apk) para hacer las pruebas pertinentes y en caso de que ocurriera un error corregirlo lo antes posible. Pero antes se procedió a hacer un registro de usuarios en la página web que ya estaba cargada en un Host, de ahí también revisamos que funcionara correctamente y los errores que se detectaban se pulían a la brevedad.  


CONCLUSIONES

Tres productos se generaron a raíz de esta estancia de investigación científica y todos confluyen en una plataforma de cobro que sustenta su operación en los códigos QR y tecnología NTF para que los usuarios de transporte público puedan realizar el pago de los diferentes servicios de dicho transporte. De probar su efectividad, se proyecta que a largo plazo se llegue a implementar en algunas otras instituciones, e inclusive, que forme parte del sistema público de transporte de toda la entidad. A continuación se describen los alcances de los productos desarrollados: Aplicación Móvil que permita realizar los pagos de transporte de manera digital haciendo uso de las tecnologías NFC y QR. App con vista al  Servicio de Trasporte para el control de Registros Automatizados. Sitio Web del Administrador, Control de pagos y ventas del uso del servicio.      Como proyecciones del presente trabajo de investigación está el registro de las patentes de los tres productos, las pruebas de la aplicación de manera masivas y detección de futuras mejoras en el sistema. Se espera que una vez las aplicaciones móviles cargadas en el Play Store, si inicie con la etapa de seguimiento y mejora del proyecto, se planea que este sistema de cobro sea empleado a nivel estatal, y por qué no, a nivel nacional.        Este es un proyecto grande y ambicioso que seguramente abrirá las puertas a otras alternativas de pago de productos y servicios.  En lo personal esta experiencia fue muy enriquecedora, tuve que documentarme mucho al respecto para sacar adelante mis tareas, pero hoy me siento muy satisfecho de esta primera experiencia virtual de trabajo en equipo. Claro que esta circunstancia (la distancia que hoy nos separa) no fue nada sencilla, me parece indispensable pulir nuestras herramientas de comunicación virtual, para no perder eso que nos es tan esencial, el contacto y comunicación vis a vis.
Varon Bravo Laura Marcela, Universidad Santo Tomás
Asesor: Mg. Luis Carlos Correa Ortiz, Universidad de Manizales

POLÍTICAS PÚBLICAS LOCALES EN ECONOMÍA CIRCULAR EN COLOMBIA


POLÍTICAS PÚBLICAS LOCALES EN ECONOMÍA CIRCULAR EN COLOMBIA

Varon Bravo Laura Marcela, Universidad Santo Tomás. Asesor: Mg. Luis Carlos Correa Ortiz, Universidad de Manizales



PLANTEAMIENTO DEL PROBLEMA

El modelo clásico de economía lineal consiste en tomar, usar y tirar y es en muchas ocasiones la mejor opción para productores de servicios o productos debido a la obtención de las materias primas de primera mano, no existe responsables de producto o servicio al final de su consumo y se piensa que esto lo hacen más competitivo en el mercado, provocando el aumento de residuos los cuales terminan en rellenos sanitarios y en la mayoría de ocasiones en un perfecto estado, haciéndolo un modelo no sostenible. Adicionalmente, con el aumento de la población los recursos naturales empiezan a ser escasos, por lo cual se deben adaptar alternativas para que estos sigan en su producción y consumo; por esta razón se implementa el concepto llamado economía circular; un modelo donde se gestionan los recursos por la potencialización que se le da para un consumo al mayor tiempo posible, aquí la materia prima proviene de un sistema de aprovechamiento de todo aquello que se considera basura (Ellen Macarthur Foundation , 2017), la economía circular es una estrategia que busca reducir la producción de residuos, contaminación e impactos al ambiente; optimizar los recursos aumentando su vida útil. Más que potencializar el reciclaje, este modelo requiere crear productos innovadores, el uso de eco-diseños y el cambio de mentalidad del consumo de una sola vez (Colombia productiva, 2018), (Cerdá & Khalilova, 2018). En Colombia según (Departamento Nacional de Planeación , 2017) la tasa de aprovechamiento es del 17%, sin embargo, la separación en la fuente no es garantía para que estos recursos sean aprovechados. En América Latina; Brasil y Colombia son los únicos que incluyen a los recicladores como parte fundamental para el desarrollo de una gestión de los residuos, pero el reciclaje no lo es todo, solo es el punto de inicio; lo que realmente importa es la reutilización, reducción y mantenimiento de este sistema (Moreno González, 2018) en consecuencia, el país ha adoptado distintos métodos para la implementación de un modelo que ayuda tanto a la economía como al cuidado del medio ambiente, primero da paso en el año 1997 con la política para la gestión de residuos pero sólo hasta 2008 con los lineamientos expedidos por el DNP se crea unas estrategias para el fortalecimiento del servicio público de aseo para integrar la gestión integral de residuos sólidos. A partir de esta normativa, empresas Colombianas han implementado en su proceso un cambio para adaptarse a ella ya que no solamente lo hacen por cumplir una normativa sino también porque tener este tipo de desarrollo lo hace más competitivo en un mercado que piensa en el planeta y sus futuras generaciones, así mismo se han generado casos de éxito en sectores donde el aprovechamiento de sus residuos es mínimo como ejemplo está el sector de la construcción y el sector textil, en consecuencia este artículo tiene como objetivo principal destacar la implementación de políticas públicas en los últimos 20 años en Colombia y como ha sido su implementación en el país mediante la presentación de algunos casos de éxito.



METODOLOGÍA

La investigación se desarrolla a partir de una revisión descriptiva, con el fin de proporcionar al lector actualización en conceptos o temas que están en constante cambio; este artículo se da en dos etapas, la primera es la formulación de la pregunta problema y una revisión conceptual mediante la búsqueda de información por medio de fuentes primarias como documentos oficiales ya sean políticas, leyes o decretos; secundarias principalmente trabajos de grado que se desenvuelven en el tema con exactitud aquellos donde se demostrara la implementación del modelo de economía circular en una empresa o sector, por último, terciarias como lo son periódicos, informes o boletines, datos estadísticos o financieros. Para la organización de los documentos se realizó una base de datos en Excel donde se presentaba información como: Nombre del documento, autores, fecha, tipo de trabajo, lugar, metodología, resultados y conclusiones. Junto a la misma se realizó una matriz para la normativa que abarque el tema. Una vez organizada la información de la normativa se eliminaron aquellas que hayan sido derogadas; segundo, se realizó una discusión de la normativa aplicable y los casos de éxito encontrados sobre la economía circular en el territorio colombiano. 


CONCLUSIONES

Para un crecimiento económico y un desarrollo sostenible, se debe reducir la huella ecológica, es por eso que por medio de la normativa se puede establecer cambios en los métodos de consumo y producción, para generar un aumento en el reciclaje, un uso eficiente de los recursos naturales y la disminución de los residuos en rellenos sanitarios.  No existe en Colombia una política única para la economía circular, sin embargo, las existentes lo fortalecen por medio de lineamientos en otros sectores como la Política para la Gestión integral de los residuos Sólidos, estableciendo un modelo que contribuye a disminuir el uso de materias primas a la vez que propende por el aumento de la competitividad empresarial. La economía circular en Colombia comienza a trascender el tema de los residuos sólidos y su disposición final en rellenos sanitarios, destacándose otras iniciativas como el crecimiento verde, los Residuos de Construcción y Demolición (RCD) y el manejo de agua y energía.  La estrategia de Economía Circular en Colombia va mucho más allá de la promoción del reciclaje. Requiere la concepción de productos innovadores, modelos de negocio y servicios que además de ser rentables, promueven la recirculación de materiales en la cadena de valor.
Vasquez Jalpa Carlos Alberto, Instituto Politécnico Nacional
Asesor: Post-doc Celene Milanés Batista, Universidad de la Costa

EDIFICIOS ALTOS: VISIóN DESDE SEIS REGIONES


EDIFICIOS ALTOS: VISIóN DESDE SEIS REGIONES

Ruiz Gaytan de León Omar, Universidad de Guadalajara. Vasquez Jalpa Carlos Alberto, Instituto Politécnico Nacional. Asesor: Post-doc Celene Milanés Batista, Universidad de la Costa



PLANTEAMIENTO DEL PROBLEMA

Existen contradicciones terminológicas para nombrar los edificios altos, a la vez que se desconocen las variaciones en las alturas que tienen estos tipos de edificios y su relación directa con el crecimiento de la población mundial en algunas de las regiones más importantes del mundo. 



METODOLOGÍA

 Se toma como punto de partida la base de datos global de edificios altos (www.skyscrapercenter.com). Mediante los datos publicados en este sitio, se analizan seis importantes regiones del mundo clasificadas por los autores como clúster -Asia, África, Europa, Sudamérica, Norteamérica, y Oceanía. Para cada clúster se determina la correspondencia que existe entre los edificios altos y las soluciones más viables que permiten hacer frente al fenómeno global del rápido aumento de la población y el incremento de la urbanización. Los autores examinamos empíricamente más de 20 ciudades distribuidas dentro de los 6 clúster. Describimos cuantitativamente las variaciones en las alturas de más de 30 edificios en las ciudades analizadas.  


CONCLUSIONES

Como resultados encontramos varios tipos de edificios (agrupaciones) que capturan la diversidad global de las configuraciones espaciales en cuanto a su altura población y el año. Se determinan que los seis clúster o regiones analizadas dan testimonio de los espacios geográficos-culturales creados y los puntos comunes encontrados entre ellos. Algunos clústeres son en gran medida congruentes con unidades espaciales y edificaciones ya bien conocidas en Europa y el mundo islámico.   El estudio confirma la diversidad de criterios para nombrar los edificios en altura, así como las condiciones culturales, socioeconómicas, demográficas o políticas similares que producen configuraciones urbanas morfológico-espaciales similares en el modo de construir los edificios en altura, su riqueza arquitectónica, variedad tipológico-constructiva y diversidad de altura. 
Vasquez Patt Antonio Angel, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo

ENERGíA RENOVABLE


ENERGíA RENOVABLE

Vasquez Patt Antonio Angel, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La calidad de la energía eléctrica es afectada por diferentes fenómenos electromagnéticos que ocurren en las redes eléctricas. Estas perturbaciones en su mayoría son causadas por fallas, descargas atmosféricas, cargas no lineales, maniobras y operaciones en el sistema, entre otras. Según la [NTC 5000, 02] estos fenómenos se clasifican en: armónicos, fluctuaciones de tensión (Flicker), caidas de tensión (sags ó dips), sobretensiones (swells), interrupciones de tensión, muescas de tensión (notching), transitorios, desbalances de tensión y variaciones de frecuencia. Para realizar una medición de Calidad de la energía eléctrica (CEL) es muy importante tener en cuenta todas las normas nacionales e internacionales, ya que ellas proporcionan límites y directrices generales teniendo las características del sistema dependiendo el lugar, condiciones y necesidades. Algunos de los fenómenos electromagnéticos que más afectan la calidad de la energía eléctrica, son las interrupciones y las caídas de tensión. Debido a esto, es necesario establecer normativas basadas en mediciones efectuadas directamente sobre los sistemas eléctricos de cada operador de red, para que éstas tengan en cuenta la ubicación geográfica de las redes, la cantidad y tipos de usuarios que atienden, la infraestructura misma de las empresas que distribuyen la energía eléctrica. No existe hasta el momento una definición completamente aceptada del término calidad del suministro eléctrico o calidad de la energía eléctrica (power quality). En la actualidad, las energías renovables constituyen fuentes de abastecimiento energético respetuosas con el medio ambiente. Las fuentes renovables de energía son aquéllas que se producen de forma continua. Todas las fuentes de energía renovables (excepto la mareomotriz y la geotérmica) provienen, en último término, del sol. Su energía provoca las diferencias de presión atmosféricas que originan los vientos, fuente de la energía eólica. También provoca la evaporación del agua que luego precipita para formar ríos, los que permiten obtener energía hidráulica. Las plantas y algas se sirven del sol para realizar la fotosíntesis, origen de toda la materia orgánica (o biomasa) de la Tierra. Por último, el sol se aprovecha directamente como energía solar, tanto térmica como fotovoltaica. Las energías renovables favorecen un nuevo concepto de generación distribuida dentro del marco eléctrico, surgiendo así una nueva generación de red eléctrica inteligente o Smart Grids. El primer concepto que definiremos será el de almacenamiento de energía: son métodos que utiliza la humanidad para conservar la energía en cualquier forma y poder liberarla cuando sea requerida, ya sea de la misma forma energética o en otra diferente. Esta energía puede ser potencial (química, gravitacional, elástica, etc.) o cinética. La energía eléctrica puede ser generada, transportada y transformada con facilidad, sin embargo, almacenarla en grandes cantidades resulta complicado. Existen diferentes técnicas de almacenamiento, a gran escala: hidroeléctrica reversible (bombeo), almacenamiento térmico; Almacenamiento en redes: pilas y baterías, condensadores y superconductores, volantes de inercia. Almacenamiento para consumidor final: baterías, superconductores, volantes de inercia.



METODOLOGÍA

Para realizar un despacho económico de generación, hay que considerar la creciente complejidad de los sistemas eléctricos de potencia que, cada vez, opera los equipos cerca de sus límites de seguridad con el fin de satisfacer la creciente demanda energética. Para evitar sobrecarga o pérdida de estabilidad en uno o más elemento de la red de potencia, es necesario imponer una restricción de capacidad del elemento, se revisaron métodos de programación matemática y solucionaron algunos problemas de optimización por ejemplo, resolver el problema del el paquete postal que es una problema de programación no lineal, su función objetivo z= x,y,z que tiene sus restricciones z+2x+2y ≤ 108; x,y,z≥ 0. Este ejercicio se realizó en MATLAB, los resulted fueron: x= 18; y=18; z=36 con su función objetivo es Z=11664. Otro ejemplo es la superficie con función objetivo Z=  con restricciones X, Y, Z= 1; X, Y, Z ≤ 0. El ejercicio se realizó con MATLAB cuales los resultados fueron x=1; y=1; z=1; con función objetivo Z= 1.732


CONCLUSIONES

Para asegurar la calidad de la energía producida se contemplan ciertas medidas preventivas como el disponer de una reserva de generación adecuada, al almacenamiento de entre otro que sea debido a condiciones anormales en los equipos o por una puesta fuera en servicio para su mantenimiento o falla en la alimentación de la energía. Las energías renovables presentan un reducido impacto ambiental, respecto a las tecnologías que emplean combustibles fósiles. Uno de los principales beneficios de estas energías renovables es la reducción de emisiones asociadas con la producción de la electricidad. Por todas estas razones entiendo necesaria una buena difusión de las ventajas económicas, sociales y medioambientales de las energías renovables para conseguir un acercamiento de los usuarios a estos tipos de energías.
Vasquez Patt Margarita Dorita, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo

ENERGíA RENOVABLE Y ALMACENAMIENTO DE ENERGíA


ENERGíA RENOVABLE Y ALMACENAMIENTO DE ENERGíA

Vasquez Patt Margarita Dorita, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la competitividad de un mundo globalizado exige cada vez mejores productos, ante esta realidad el sector eléctrico no es ajeno. La industria ve a la energía eléctrica como uno de sus insumos vitales e importantes para su proceso productivo. Como tal, este insumo debe de estar sujeto a requerimientos de control de calidad y confiabilidad en el suministro. A estos llama calidad de la energía PQ (Power Quality). Según la normativa internacional IEC 61000-4-30 en términos estándar se define la Calidad de Energía Eléctrica como las características de la electricidad en un punto dado de la red eléctrica, evaluadas con relación a un conjunto de parámetros técnicos de referencia. Dentro del concepto de calidad de energía la alteración en la forma de la onda tiene lugar en los propios procesos de producción, transporte y distribución, así como en la utilización de determinados receptores que generan perturbaciones; siendo estos factores inevitables, pero si se pueden minimizar. La calidad de suministro eléctrico es la normalización del suministro eléctrico mediante reglas que fijan los niveles, parámetros básicos, forma de onda, armónicos, niveles de distorsión armónica, interrupciones, etc. Las energías renovables son aquellas que se obtienen a partir de fuentes naturales que producen energía de forma inagotable e indefinida. Por ejemplo, la energía solar, la energía eólica o la energía mareomotriz son fuentes renovables de energía. También se consideran renovables cuando se obtienen a partir de fuentes que se regeneran con el tiempo de manera natural, como la masa forestal. Una de las principales ventajas de las energías renovables es que, además de ser inagotables, presentan un nulo o bajo impacto negativo sobre el medio ambiente, por lo que se consideran energías limpias. En la actualidad las energías renovables son una realidad presente en nuestra sociedad y sus beneficios para el medio ambiente son más que evidentes. Tipos de energía renovables que existen son: energía eólica, energía solar, energía hidráulica, biomasa y biogás, energía geotérmica, energía mareomotriz, y biodiesel. El almacenamiento de energía son todos aquellos métodos que utiliza el ser humano para conservar la energía en cualquier forma y poder liberarla cuando sea requerida, en la misma forma energética o en otra diferente. Esta energía puede ser potencial (química, gravitacional, elástica, etc.) o cinética. Tipos de almacenamiento son: Baterías de Litio, aire comprimido, bombeo hidroeléctrico, almacenamiento térmico, supercondensador, volantes de inercia.



METODOLOGÍA

La optimización es una de las áreas de matemáticas que tiene como objetivo minimizar una función. En la mayor parte de los problemas se tienen restricciones que han sido impuestas para las características del problema. El desarrollo de los despachos económicos se basa en el análisis de los condicionamientos económicos que afectan a un determinado sistema eléctrico para definir la combinación óptima de generadores en un instante concreto para una demanda particular. Matlab es una herramienta muy útil para resolver problemas de optimización tales como ejercicios de programación lineal, no lineal, mixta entera y despacho económico. Se resolvieron distintos problemas de optimization de Matlab, por ejemplo para la función objetivo z=-4x1+7x2 y que tiene sus restricciones x1 +x2 ≥ 3, −x1 +x2 ≤ 3, 2x1 +x2 ≤ 8, x1, x2 ≥ 0. Este ejercicio se realizo en MATLAB, los resulted fueron: x= 1.6667 x=4.6667 con su function objetivo es -26.000. Otro ejemplo es entero estricto con funcion objetivo Z=-x1-x2   con restricciones −x1 ≤ 0, 2x1 −2x2 ≤ 1, 2x2 ≤ 9, x1, x2 ∈ IN.  El ejercicio se realizó con MATLAB cuales los resultados fueron X1=4; X2=4; Z=-8. Estos mismos ejemplos se pueden realizar con algoritmos genéticos, dan valores similares cambia por decimales.


CONCLUSIONES

La energía eléctrica ha adquirido hoy en día una gran relevancia, cualquiera que sea su procedencia, ya que constituye por sí misma una riqueza de importancia básica en la vida moderna. En la actualidad el tema de análisis de calidad de energía ha tomado gran inclusión en el campo de generación, transmisión y distribución de la energía eléctrica, tomando mayor impacto en esta última, ya que está ligada directamente con el correcto funcionamiento de los equipos conectados a la red. Las fuentes de energías renovables representan una alternativa para la generación de energía limpia que tiene también, una dimensión social y económica. Además, el uso de energía renovables implica retos en la operación de los sistemas eléctrica, una forma de abordar los inconvenientes de las energías renovables de característica intermitente, y el almacenamiento de energía. Existen distintas posibilidades en cuanto al método de almacenamiento de energía. Cada método tiene costos y características de operación diferentes. Es por estas razones, que, dependiendo de la naturaleza del proyecto en mente, puede ser más provechoso uno u otro sistema.
Vázquez Barajas Dafne Corina, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dra. Juana Alvarado Ibarra, Universidad de Sonora

REVISIóN BIBLIOGRáFICA: ZEOLITAS MEXICANAS CON PROPIEDADES PARA LA REMOCIóN DE COLORANTES


REVISIóN BIBLIOGRáFICA: ZEOLITAS MEXICANAS CON PROPIEDADES PARA LA REMOCIóN DE COLORANTES

Vázquez Barajas Dafne Corina, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dra. Juana Alvarado Ibarra, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Tomando en consideración que el corredor industrial Lerma - Toluca ubicado en el Curso Alto del Rio Lerma es una región industrial altamente activa (Orozco y Sánchez, 2004). Y que, gracias al crecimiento de la industrialización en diversos giros, la han establecido como la segunda zona industrial más importante del país (Salinas et al, 2016).  Se tiene a la industria textil que es la segunda industria más contaminante del medio ambiente (Brañez et al, 2018). Según informes finales del Instituto Mexicano de Tecnología del Agua (IMTA) las empresas textiles en el Valle de Toluca representan el 14% de las empresas instaladas a nivel nacional y sus residuos generados corresponden a 1,600,901 m3/año de aguas residuales de las cuales el 54% (801,937m3/año) son vertidas sin previo tratamiento (IMTA, 2013). Dicha contaminación tiene un factor importante y es debido al uso de colorantes, durante el proceso de teñido, como lo es el caso del colorante índigo, este colorante produce una intensa coloración causando la contaminación de sus efluentes y por la complejidad estructural que presentan, las plantas de tratamiento convencionales tienen un bajo porcentaje de remoción, razón por la cual en muchas ocasiones son vertidos sin ser tratados causando una grave contaminación (Zamuara et al, 2018).



METODOLOGÍA

METODOLOGÍA Este estudio por ser una revisión bibliográfica cuenta con una metodología de trabajo cualitativa descriptiva en el tiempo, por tal motivo se muestra a continuación el proceso para la obtención de resultados que competen, por medio de la descripción del siguiente diagrama de bloques. La observación del entorno que incluye las industrias, los medios naturales, la población, el comportamiento social, el nivel económico de la zona, entre muchos otros brindan distintas problemáticas que pueden ser abordadas desde varios puntos referentes, en este estudio el punto de vista referente es el punto ambiental. La obtención de información debe ser proveniente de fuentes de información como los son libros, artículos, bases de datos, trabajos de grado, entre otros. Todos estos deben estar sustentadas por revistas u otras fuentes válidas. Google académico, Latindex, ScienceDirect, SCI-HUB, Sigma Aldrich, Scielo, Database of Zeolite Structures (https://america.iza-structure.org/IZA-SC/ftc_table.php) son algunos ejemplos de buscadores, bases de datos utilizados. La información que se requiere es recabada con la ayuda de las palabras clave surgidas de la problemática, estas son: Zeolitas, Remoción de colorante, Metales pesados, Industria textil, Técnicas de análisis. Mediante el análisis de datos obtenidos a través de tablas, bases de datos de toxicología tales como Sigma Aldrich, estudios previos sobre el tema se hace un análisis de la información recabada. Mediante una discusión de la previa información recabada, así como los resultados o datos analizados se obtienen los resultados de este trabajo. La redacción de las conclusiones se elabora en torno al aprendizaje y el crecimiento de conocimientos obtenidos por el estudiante investigador durante el tiempo de estancia, con la mención de datos considerados relevantes concluyente de los puntos investigados en la revisión bibliográfica. El proceso de investigación concluye con la presentación de un informe de investigación. 


CONCLUSIONES

Durante el tiempo establecido por la estancia de verano se logró adquirir conocimientos teóricos acerca de la contaminación del agua por colorantes y las zeolitas como materiales adsorbentes, esto incluyo las técnicas de caracterización para estos minerales como lo son la difracción por rayos X, la microscopía electrónica de barrido, la termogravimetría y la adsorción de nitrógeno, así como también las propiedades toxicológicas de los colorantes seleccionados en el estudio, por concluyente se indica que en un nivel de toxicidad los colorantes cristal violeta y verde malaquita son los de mayor peligro para los organismos vivos y la zeolita tipo chabasita es el mineral con propiedades adsorbentes de mayor interés en la actualidad.
Vazquez Martinez Adrian, Benemérita Universidad Autónoma de Puebla
Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla

PRODUCCIóN DE METANO A PARTIR DE CO2 CAPTURADO POR ZEOLITA


PRODUCCIóN DE METANO A PARTIR DE CO2 CAPTURADO POR ZEOLITA

Céspedes Jiménez Frida Paola, Benemérita Universidad Autónoma de Puebla. Vazquez Martinez Adrian, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Debido a que los gases de efecto invernadero (GEI) que, emitidos como consecuencia del desarrollo de actividades antrópicas y procesos naturales, han ocasionado el deterioro de la capa de ozono y por ende el calentamiento global. El dióxido de carbono (CO2) es uno de los GEI de mayor impacto. El sector energético aporta dos terceras partes de las emisiones de GEI y representa el 90% del total de emisiones de CO2.  Mediante la captura, almacenamiento y transformación de CO2 se podría disminuir el impacto de las emisiones atmosféricas.  Entre las técnicas existentes se encuentra la de Power-to-Gas, consiste en la producción de gas combustible a partir de energía eléctrica y CO2 de electrólisis y metanización.



METODOLOGÍA

Adsorción; Se buscó la simulación de adsorción del CO2, ya que gracias al enorme desarrollo de los ordenadores en los últimos años se cuenta ahora con el apoyo de la Simulación Molecular, con el fin de conocer el alcance de adsorción del CO2 en las zeolitas es necesario primero conocer en detalle sus estructuras, analizar sus propiedades y determinar las limitaciones de estructuras nanoporosas. La zeolita por estudiar será tipo clinoptilolita, Para la simulación se busca generar un código en Python tomando en cuenta el área superficial, la porosidad o textura del sólido, el diseño de las estructuras cristalinas, entre otras para la simulación y modelaje de las estructuras, cationes de moléculas implicadas. Buscando determinar la adsorción de mezclas de alcanos al variar la temperatura, la localización de los cationes, la densidad de los cationes y el momento polar. Para esto se utilizarán simulaciones en el colectivo gran canónico (NTV) que es el conjunto de los posibles estados de un sistema o partículas, que intercambia energía térmica y materia con los alrededores.  Mantenido fijo el volumen, la temperatura y el potencial químico. A bajas presiones la cantidad de moléculas adsorbidas tiene un comportamiento lineal, si son lo suficientemente bajas, la constante de Henry proporciona también una buena aproximación de la isoterma de adsorción. La adsorción de hidrocarburos en zeolitas depende fundamentalmente del tipo de estructura cristalina, de la densidad y distribución de cationes de intercambio y del tipo de catión de intercambio. Utilizando simulaciones Monte Carlo se podrá reproducir posiciones cristalográficas, aunque lo que se busca es, el modelo de distribución del tamaño de poro, por los métodos Dubinin-Astakhov (D-A) y Barret-Joyner- Hallenda (BJH) y con la densidad de la zeolita conocer la distribución de los átomos de la zeolita. En el caso de que se logre generar esto, se procederá a encontrar la correcta simulación de isotermas de adsorción de estos materiales, comprobando con los datos experimentales, y después se procederá a introducir nuevos adsorbatos y como último paso se propone extender este estudio para diferentes zeolitas. Desorción: Se piensa llevar a cabo desorción flash, donde la zeolita cargada de CO2 se desgasifica a través de una serie de etapas de reducción de presión. Liberando el CO2, regenerando así la capacidad original de la zeolita.   Electrolisis: Es el método donde el agua se separa en sus componentes H2 y O2. Se realiza aplicando un potencial eléctrico a dos electrodos llamados cátodo y ánodo, en el primero se obtendrá H2 y en el segundo O2. Metanización: La transformación se efectúa por vía biológica, el biogás es un producto de la descomposición anaerobia de materia orgánica, se compone principalmente por CO2 y CH4. El proceso anaerobio involucra una compleja serie de reacciones bioquímicas y se divide en hidrólisis, acidogénesis, acetogénesis y metanogénesis. Cuando la metanogénesis es mediada por el CO2 como precursor se denomina hidrogenotrófica o hidrogenófila y se utiliza H2 como principal donador de electrones. El modelo utiliza como microorganismo unicelular la arquea metanógena y la reacción principal es 4H2+CO2→CH4+2H2O. La velocidad total de consumo de H2 se obtiene al sumar la velocidad de consumo de H2 para el crecimiento del cultivo y la velocidad con la que el H2 se consume para la producción de CH4. El cálculo del gas de salida se realiza con la media aritmética de los valores de flujo de entrada y salida. La fracción de H2 en el gas de salida depende de la velocidad con la que se consume el H2 y esta puede ser calculada mediante un balance al H2 en fase gas. Se realizó el código del proceso en el programa EES para identificar cómo afecta la presión, el volumen de trabajo y el tiempo de crecimiento de la biomasa en el proceso y predecir la composición del gas de salida del reactor biológico. Finalmente se realizaron gráficas donde se puede observar que, al aumentarlos, la fracción de CH4 y del CO2 a la salida disminuye, mientras que la fracción H2 aumenta.


CONCLUSIONES

En trabajo se presentan los parámetros que se deben de tener en cuenta para un modelo molecular de zeolita clinoptilolita, ya que se infiere que uno de los principales problemas es el modelo con el que se diseñe esta estructura, que afecta directamente en la simulación de adsorción. También deben de ser considerados los defectos de la estructura natural, así como la tortuosidad y conectividad entre poros. La principal ventaja de desarrollar un modelo de adsorción en una herramienta como Python, es que se podría simular adsorción de distintos gases, así como para su separación, sin necesidad de muchos recursos.  En cuanto a la transformación del CO2 se puede concluir que, aunque la tecnología Power-to-Gas aún se encuentra en desarrollo es una opción bastante viable para producir bioenergía, ya que el gas puede ser empleado para reducir la energía eléctrica requerida, así como también se podría utilizar la energía que libera la reacción. Además de esto, el programa se podría utilizar para el diseño de una planta a pequeña escala si se incluyen otros parámetros y equipos necesarios para abarcar todo el proceso.
Vázquez Mendoza Alfonso, Instituto Tecnológico de Morelia
Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia

IMPLEMENTACIóN DE ALGORITMO DE PROTECCIóN DIFERENCIAL, MEDIANTE PYTHON, PARA TRANSFORMADORES DE POTENCIA.


IMPLEMENTACIóN DE ALGORITMO DE PROTECCIóN DIFERENCIAL, MEDIANTE PYTHON, PARA TRANSFORMADORES DE POTENCIA.

Vázquez Mendoza Alfonso, Instituto Tecnológico de Morelia. Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En el periodo de 2007-2017, el consumo bruto de energía eléctrica del SEN registro una Tasa Media de Crecimiento Anual de 2.6 %, por otra parte, las líneas de transmisión tuvieron una Tasa de Crecimiento Anual del 2.8 % en 2017, esto indica que se requieren más transformadores de potencia para poder alimentar las cargas, por lo que deben tener estos últimos un sistema de protección robusto y confiable, para evitar interrupciones en el servicio de energía eléctrica. En las Redes Generales de Distribución se cuenta con equipos que superan los 40 años de servicio, y que durante su periodo de servicio han estado expuestos a esfuerzos eléctricos y físicos, es el caso de algunos interruptores de potencia y transformadores de distribución, estas condiciones generan interrupciones en el servicio cada vez más frecuentes o severas, por lo que se requiere de un programa de reemplazo para estos equipos. En el caso específico de los transformadores de potencia, los equipos de hace 40 años, cuentan con un gran contenido armónico, el cual es esencial para la correcta operación del relevador de la protección diferencial. El problema con esto es que, en los transformadores actuales utilizados por CFE, el contenido armónico es muy bajo, por lo que se necesita adaptar un nuevo sistema de protección diferencial para la correcta operación de los transformadores de potencia de última generación, para evitar cambiarlos prematuramente. La protección diferencial es uno de los esquemas de mayor preferencia en la protección de los transformadores de potencia. No obstante, el principal problema que se presenta mientras se hace uso de la protección diferencial, es su limitada habilidad para diferenciar entre corrientes inrush y corrientes de falla. Esto no solo causa la incorrecta operación de la protección diferencial, tiene un impacto negativo que afecta al sistema de potencia.



METODOLOGÍA

Protección Diferencial en Transformadores de Potencia La protección diferencial es considerada como el esquema de protección más importante y ampliamente utilizada para identificar fallas internas en el transformador de potencia. El principio de protección diferencial, se basa en la comparación de las corrientes del lado primario y secundario del transformador; estas corrientes tienen una relación bien definida en condiciones normales de operación. Cuando estas corrientes exhiben un comportamiento distinto al de estado estable se asume que ha ocurrido un cortocircuito en el transformador, y este debe ser puesto fuera de servicio para revisión y mantenimiento. Este procedimiento funciona correctamente en la mayoría de los casos, sin embargo, puede ocasionar operaciones incorrectas (y desconexión innecesaria del transformador) en presencia de la corriente transitoria de magnetización (la corriente de inrush), la corriente de inrush solo está presente cuando el transformador está siendo energizado. Esta corriente circula solamente por el devanado primario del transformador (el devanado que es energizado) y por lo tanto representa una condición de falla interna para la protección diferencial. El método más común para evitar estas operaciones incorrectas es el uso del contenido de armónicas para discriminar entre corrientes de magnetización y de cortocircuito, lo que se denomina restricción de armónicas. Algoritmo de Protección Diferencial Ya existen diversos algoritmos propuestos para la correcta discriminación entre fenómenos transitorios como la corriente de inrush, de fallas en el transformador de potencia. La principal desventaja de estos métodos, es que se ven afectados con la presencia de un limitador de corriente de falla, debido al principio de operación de la protección diferencial, al limitar las corrientes de falla, los TC’s de la protección diferencial, envían señales erróneas al relevadores de protección diferencial, ocasionando que dicha protección opere incorrectamente y por lo tanto, los algoritmos funcionen de manera incorrecta. Otra desventaja que tienen estos métodos, es que pueden operar incorrectamente a causa de diversos factores como lo pueden ser: Cambios en los parámetros del transformador. Variaciones de frecuencia en el sistema. Conexión del transformador de potencia. Voltaje del transformador de potencia. Saturación de los transformadores de corriente. Modificaciones en la topología del sistema de potencia. El algoritmo usado en este trabajo está basado en la magnitud del Segundo Momento Central Estadístico (SMC) de la corriente diferencial. El algoritmo aplica un filtro delta para remover condiciones de estado estable de la carga, y calcula la varianza de la forma de onda de la corriente diferencial. Basado en el criterio de varianza de Bernoulli, un límite es colocado para discriminar entre fallas y corrientes de inrush. Este limite la peculiaridad de que no es dependiente de las características del transformador. Las principales ventajas de usar este algoritmo sobre otros ya existentes son las siguientes No depende o se ve afectado por la potencia del TP. No se ve afectado por la conexión del TP. No depende de la curva de saturación del TP. No se ve afectado por el voltaje del TP. El límite establecido no cambia si el diseño del transformador o sus parámetros cambian. El algoritmo puede detectar fallas internas durante la energización del transformador.


CONCLUSIONES

El algoritmo funciono correctamente en la Raspberry, entregando los resultados esperados del Segundo Momento Central (SCM), después de varias pruebas, diferenciando correctamente la corriente de inrush de fallas internas, sin embargo, para las pruebas en tiempo real el principal inconveniente (que se ha encontrado hasta ahora), es el tiempo de procesamiento del algoritmo que fue alrededor 5 minutos con 23 segundos aproximadamente.
Vazquez Morales Angel Alejandro, Universidad Politécnica de Tecámac
Asesor: Mtro. Iván Ricardo Barajas Rosales, Universidad Politécnica de Tecámac

NANOPARTíCULAS DEL COMPOSITE PVA óXIDO DE GRAFITO PARA POTENCIAL ADSORCIóN DE DIóXIDO DE CARBONO.


NANOPARTíCULAS DEL COMPOSITE PVA óXIDO DE GRAFITO PARA POTENCIAL ADSORCIóN DE DIóXIDO DE CARBONO.

Angeles Ibañez Naomi Anaid, Universidad Politécnica de Tecámac. Vazquez Morales Angel Alejandro, Universidad Politécnica de Tecámac. Asesor: Mtro. Iván Ricardo Barajas Rosales, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

El CO2 o dióxido de carbono es un gas incoloro e inodoro cuyo origen puede estar tanto en fuentes naturales como en la actividad humana. Sus consecuencias son muy impactantes tanto en la calidad del aire que respiramos como en la contaminación atmosférica. México ocupa el lugar 12 en la clasificación mundial, que está encabezada por China con 10.065 toneladas métricas de CO2, seguida de Estados Unidos con 5.416 toneladas métricas de CO2 del principal gas responsable del efecto invernadero causante del calentamiento global. Nuestro país es líder en emisiones de dióxido de carbono (CO2) en América Latina, una posición poco envidiable que ha ido consolidando en los últimos 20 años, según especialistas, no se ha hecho lo necesario para bajar posiciones. La contaminación ambiental es una problemática actual donde se busca una solución. El escape de los automóviles es uno de los generadores de dióxido de carbono, se buscó una solución para ello, como respuesta se encontró el filtro de dióxido de carbono. Un composite generado por la mecano síntesis del PVA-Grafito se coloca dentro del filtro, entonces el filtro se acopla al final del escape filtrando el dióxido de carbono gracias al composite.



METODOLOGÍA

Se obtuvo el composite mediante una molienda llevándose a cabo  en  un  molino  Spex  8000D.  Todas las muestras se colocaron en forma de polvos  junto  con  16  bolas de  óxido de zirconio endurecido de 12.7 mm de diámetro en viales cilíndricos de acero inoxidable (50 cm3). En el trabajo, se desarrolló un prototipo, el cual es un dispositivo que contendrá el composite PVA-Grafito, este se obtiene mediante la técnica de mecanosíntesis, el filtro se desarrolla mediante las técnicas de manufacturación manual, usando equipos tales como el torno y fresadora manual, con un diseño adaptable para el escape estándar de un automóvil. Se pretende que el impacto positivo sobre los ecosistemas sea significativo; Pese a los esfuerzos de los fabricantes al realizar modificaciones en el motor para reducir los niveles de contaminación, los gases de escape generados en el proceso de combustión siguen siendo contaminantes, por lo que es necesario que estos gases nocivos se sometan a tratamientos mediante dispositivos adecuados que permitan reducir los niveles de contaminación. En la actualidad, en la industria automotriz no existe en el mercado un filtro de partículas de carbono para motores de gasolina (GPF). Por la importancia urgente de preservar el ambiente, se detecta la necesidad como Ingeniero Automotriz en proceso, de aportar el conocimiento para reducir o remediar la contaminación mediante la implementación de un filtro que ayude a reducir las emisiones contaminantes provocadas por la combustión de los vehículos; contribuyendo de esta manera a preservar un ambiente sano para las futuras generaciones. Estuvimos trabajando por semanas, donde cada semana se trabajaba una actividad en específico y se implementó el uso de un software. Semana 1: La revisión de la bibliografía sobre la mecanosíntesis para obtener información del proyecto a realizar. Semana 2: Instruirse en el manejo del software chemsketch para dibujar posibles estructuras de PVA-óxido de grafito. Semana 3: Mediante la búsqueda bibliográfica junto con el manejo de chemsketch se modelará la unión del PVA y el óxido de grafito. Semana 4: Realizar el análisis del tamaño de partícula de los materiales obtenidos por el software. Semana 5: Mediante la búsqueda bibliográfica junto con el manejo de chemsketch se modelará la unión del PVA-óxido de grafito-ion metálico. Semana 6: Comparar los resultados de la difracción de rayos x del PVA y del PVA-óxido de grafito y PVA-oxido de grafito-gas. Semana 7: Realizar una comparación en una tabla de las señales de DRX y medición de tamaño de partículas de los análisis propuestos y concluir el trabajo de investigación.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos, en el trabajo de investigación se demostró que es posible sintetizar y caracterizar el óxido de grafito con el PVA dando como resultado un material con un tamaño de grano de 60% de nanopartículas con un promedio de 46.70 nanómetros de diámetro. En el cual este tamaño es una ventaja ya que potencialmente ayudará a captar mayor número de partículas suspendidas y dióxido de carbono, sin embargo, al ser un extenso trabajo aún se encuentra en la fase teórica.
Vázquez Romero Cyntia, Instituto Tecnológico de Tlalnepantla
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

LOGíSTICA, UN ANáLISIS DE PRIORIDAD ESTRATéGICA DE REACTIVACIóN DE LA CADENA DE SUMINISTRO.


LOGíSTICA, UN ANáLISIS DE PRIORIDAD ESTRATéGICA DE REACTIVACIóN DE LA CADENA DE SUMINISTRO.

Pérez Pérez Lizbeth, Instituto Tecnológico de Tlalnepantla. Vázquez Romero Cyntia, Instituto Tecnológico de Tlalnepantla. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Derivado de las afectaciones de COVID-19, la cual pone a prueba la fortaleza humana, así también al sector logístico y transporte, pues si bien las cadenas de suministro no se infectan, sí padecen el contagio que se vive a nivel mundial y genera estragos en las economías, durante esta crisis la cadena de suministro sigue funcionando navieras, ferrocarriles, autotransporte y aeronáutica de carga, entre las industrias que redujeron o detuvieron sus operaciones destacan la del giro de transformación y servicios turísticos, ante un escenario de reapertura escalonada, nos vemos en la necesidad de identificar los elementos esenciales de reactivación en sus modelos de negocio de la cadena de suministro del sector industria y sector servicio en empresas del municipio de Mazatlán Sinaloa.



METODOLOGÍA

La metodología empleada fue cualitativa, mediante entrevista estructurada, con una guía de entrevista estandarizada, su objetivo de estudio es caracterizado y consiste en proporcionar un número fijo de preguntas predeterminadas en su formulación y secuencia, lo que permite administrar y analizar por ser más objetiva, es más técnica que arte, se tiene un modelo intermedio entre cualitativa y cuantitativa.      


CONCLUSIONES

En relación a lo antes expuesto, podemos deducir que diversas  áreas de oportunidad necesitan una mejora inmediata, puesto que debido a la situación presente por la pandemia, si se han visto afectadas las empresas, en cuanto a los elementos esenciales de reactivación en sus modelos de negocio de la cadena de suministro del sector industria y sector servicio en empresas del municipio de Mazatlán Sinaloa, por ende, y de acuerdo a los datos arrojados, se concluye que se debe comenzar lo antes posible con futuras mejoras, cambios e implementaciones de estrategias que eviten perdidas futuras y de más afectación. Para concluir con la investigación realizada en este Verano, se puede apreciar que en la mayoría de los porcentajes el que tiene mayor frecuencia es Prioritario, lo que nos indica que hay que establecer mejoras en estas 7 áreas que se encuentran marcadas, puesto que así podemos disminuir las perdidas, si se implementan las mejoras correspondientes, de igual manera se aprecia que el área de Mantenimiento cuenta con  el 64 % que es el porcentaje más alto entre las áreas y lo tiene la respuesta No sé lo que indica que la gran mayoría de las personas que laboran en esta empresa no saben si Mantenimiento necesita de mejoras, por lo que hay que informarlos más, para que tengan un conocimiento de esta área. Velasco F. (2017), cita la importancia de la actividad logística como aquella que: involucra todo el flujo de materiales  desde el proveedor hasta el cliente final, e incluye las compras nacionales o del extranjero, su transporte, su almacenamiento, su procesamiento, su distribución, su comercialización y su entrega al cliente final, en el momento preciso García y Pacheco (2018), indican que los procesos de gestión, organización, planificación, direc­ción, control y buenas prácticas empresariales, permiten alcanzar las metas de entrada y salida de las mercaderías en una empresa, así que dependiendo de cómo se realice cada actividad es como se verá reflejado el desarrollo que vaya teniendo la empresa.  
Vázquez Soqui Lamberto, Universidad de Sonora
Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)

BASES PARA LA IMPLEMENTACIóN DE ALGORITMOS DE CONTROL UTILIZANDO LAS LIBRERíAS DE ARDUPILOT


BASES PARA LA IMPLEMENTACIóN DE ALGORITMOS DE CONTROL UTILIZANDO LAS LIBRERíAS DE ARDUPILOT

Vázquez Soqui Lamberto, Universidad de Sonora. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, hemos observado un rápido crecimiento de la tecnología de los vehículos aéreos no tripulados. Esta consiste en drones dirigidos ya sea por un dispositivo de manejo remoto (permitiendo a los pilotos operar el vehículo manualmente) o por una estación de control en tierra (que permite a los pilotos crear un plan de vuelo que incluye un conjunto de puntos de referencia y algunos modos de vuelo). Las aplicaciones mayormente aceptadas de esta tecnología incluyen tareas de topografía, mantenimiento, vigilancia, transporte, búsqueda y rescate. Ardupilot es una plataforma de piloto automático de código abierto capaz de controlar distintos tipos de vehículos autónomos, tales como multirrotores, aeronaves de ala fija y algunos vehículos terrestres y submarinos. Está basada en Arduino. Dadas las características de Ardupilot como una plataforma de código abierto y debido a que cuenta con una gran cantidad de funciones, observamos la necesidad de aprender el funcionamiento del código, además de probar y profundizar acerca de las distintas opciones disponibles para la edición y configuración del mismo, así como su evaluación en simulaciones tipo firmware in the loop. Este proyecto consiste en el análisis de las librerías de Ardupilot utilizables para el desarrollo de un algoritmo de control. La finalidad de estas bases herramentales consiste en potencializar los conocimientos adquiridos, en la realización de proyectos específicos en el área de programación de drones, cuando se vea necesario realizar cambios, aditamentos o mejoras en las librerías de Ardupilot.



METODOLOGÍA

La estructura metodológica con la que se desarrolló el presente trabajo consta de los siguientes pasos: Se indagó acerca de la funcionalidad y las características del tipo de vehículo con el cual se planteó trabajar, en este caso usando las librerías de ArduCopter. En esta fase fue necesario inquirir acerca de los requerimientos de hardware y software necesarios para compilar y simular el código. Se decidió trabajar en el sistema operativo Ubuntu 18.04.4 LTS (Bionic Beaver), debido a que en este se facilitan muchos de los pasos de instalación del software requerido y a que una parte considerable de la comunidad desarrolladora trabaja en este sistema operativo, cosa que puede ser útil al momento en el que se presenten problemas en cualquier punto ya sea de la instalación o del desarrollo. Una vez instalado el software base de Ardupilot, se evaluaron las opciones disponibles para simulaciones en ambientes virtuales y para la función de estación de control en tierra. Para tomar esta decisión se consideraron: el sistema operativo, el hardware con el que se disponía en el momento y los objetivos a futuro del proyecto. Se dispuso a utilizar QGroundControl como la estación de control en tierra y Gazebo Simulator para simular el vuelo de los multirrotores. Para poder utilizar Gazebo se recomienda instalar el framework para el desarrollo de software para robots ROS (Robot Operating System), por lo que también fue instalado y configurado. Gazebo se conecta con ROS y con el SITL Simulator (Software in the Loop) de Ardupilot para simular multirrotores en un ambiente virtual que puede ser modificado. Dentro de este simulador es posible observar como reacciona el dron a diferentes escenarios y muestra imágenes y datos arrojados por sensores o cámaras que se pueden añadir al multirrotor. En este paso se trabajó directamente con los archivos y librerías de ArduCopter. Se siguió el procedimiento para crear un nuevo modo de vuelo dentro de la librería del vehículo. Se creó el modo de vuelo basado en uno de los modos manuales del vehículo, se le agrego una nueva función de inicialización y se agregó código para que se imprimiera una frase asegurando que se está dentro del modo de vuelo. Este fue probado en el simulador y se demostró que todo funcionaba correctamente. Hasta este punto se conocía profundamente la estructura de los modos de vuelo manuales de ArduCopter. Los modos de vuelo autónomos cuentan con más complejidad, pero también fueron estudiados para aplicar ese conocimiento en proyectos posteriores. Los conocimientos básicos de control, específicamente de drones, también fueron introducidos. Como último paso en este proyecto, se ajustan una serie de ecuaciones para implementar un controlador PID (Proporcional-Integral-Derivativo) para multirrotores utilizando las herramientas y librerías de Ardupilot.


CONCLUSIONES

Al finalizar la estancia de verano en la modalidad virtual, se lograron adquirir conocimientos necesarios para implementar, modificar y simular modos de vuelo manuales en el software de Ardupilot. Además, se encontraron y probaron herramientas útiles para la simulación de proyectos utilizando este software. La implementación de un nuevo controlador para las librerías de Ardupilot es un proyecto prolongado en el cual se planea seguir trabajando. Dentro del tiempo en el que se realizó la estancia, se adaptaron una serie de ecuaciones y procedimientos que son los que se proyecta añadir al controlador una vez se dominen las capas que hacen funcionar los modos de vuelo autónomos de ArduCopter.
Vega Mejia Jesus Adrian, Instituto Tecnológico Superior de Cananea
Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle

PROTOTIPO DE SISTEMA EXPERTO PARA DETECCIÓN DE SUSTANCIAS PERJUDICIALES PARA EL AMBIENTE EN ZONAS MINERAS


PROTOTIPO DE SISTEMA EXPERTO PARA DETECCIÓN DE SUSTANCIAS PERJUDICIALES PARA EL AMBIENTE EN ZONAS MINERAS

Vega Mejia Jesus Adrian, Instituto Tecnológico Superior de Cananea. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle



PLANTEAMIENTO DEL PROBLEMA

Se tiene conocimiento acerca de las sustancias que produce la mina, principalmente arsénico que afecta demasiado a la salud, se necesita información acerca de las maneras de prevenir que estas sustancias lleguen a la población, todo esto para poder prevenir enfermedades que año a año produce una mina.



METODOLOGÍA

Este proyecto se desarrollará de una forma analítica, empezando con una investigación general sobre inteligencia artificial utilizando técnicas para Sistemas Expertos, basándonos en comportamiento de resultados de producción; las técnicas y teorías para el desarrollo son complejas, por tal motivo se establecerá la estructura básica sobre la cual se realizara la generación de patrones en reconocimiento por medio de la utilización de sistemas de árboles de decisión, que permita la búsqueda de secuencias de coincidencias para el análisis de sustancias nocivas para el ambiente. Se harán diversos análisis de datos utilizando una plataforma para dicha actividad, para de esta manera analizar las necesidades de los campos del conocimiento que el sistema espera cubrir. La investigación bibliográfica se centrará sobre metodologías recientes utilizadas en este tipo de desarrollos, integrando algunas herramientas funcionales que permitan la operación óptima apoyando a identificar los requerimientos necesarios para establecer el mejoramiento de calidad del medio ambiente en las zonas de influencia minera. Se usara XP programacion extrema para realizar el desarrollo del sistema.


CONCLUSIONES

Con este proyecto se podrá ampliar el panorama acerca de aplicación de inteligencia artificial en zonas mineras para que se pueda producir proyectos de este tipo así favoreciendo a la población y mantenerlas alertas de sustancias que son perjudiciales para la salud. El resultado por obtener es generar un prototipo que permita aplicar las técnicas de análisis de datos para detectar sustancias nocivas en los ambientes que tengan influencia en zonas mineras.
Vega Rodríguez José de Jesús, Universidad de Guadalajara
Asesor: M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo

SIMULACIóN DE SISTEMAS TéRMICOS DE POTENCIA


SIMULACIóN DE SISTEMAS TéRMICOS DE POTENCIA

Vega Rodríguez José de Jesús, Universidad de Guadalajara. Asesor: M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo



PLANTEAMIENTO DEL PROBLEMA

Un sistema térmico es todo aquel sistema en el que se da un intercambio de energía calorífica entre los componentes del sistema y el medio ambiente que lo rodea. La ley natural que rige a los sistemas térmicos indica que la cantidad de energía que ingresa al sistema es equivalente a la cantidad de energía saliente, es decir, existe un balance de energía. Un sistema térmico de potencia es aquel compuesto, además de otros componentes, por una máquina de térmica de potencia (también llamados motores térmicos). Estos motores son dispositivos mecánicos transforman energía calorífica en energía mecánica; o bien, pueden bombear energía térmica de un nivel térmico inferior a uno superior, ya sea extrayendo calor, o inyectándolo. Con el estudio termodinámico correspondiente a la generación de energía eléctrica es que se puede llegar a un uso más eficiente de la misma, y a una generación mucho más óptima, lo cual lleva a un gasto energético menor, teniendo así una generación menos contaminante y limpia. Además mediante un estudio termodinámico se pueden conocer métodos más eficaces para evitar perdida de potencial energético, esto mediante un correcto análisis que pueda implicar todos los componentes y las variables presentes en el sistema. La simulación de estos sistemas en una herramienta bastante útil para el estudio de los mismos, ya que pueden realizarse distintas variaciones para llegar al resultado esperado y encontrar el valor adecuado de las variables para así tener el resultado óptimo deseado. La evidente ventaja al hablar de una simulación es que no requerimos de componentes físicos, evitando así gastos económicos y de tiempo; únicamente es necesario un software de simulación capaz de realizar dicho trabajo.



METODOLOGÍA

Para el estudio, se utilizó el software EES (siglas en inglés para Resolutor de Ecuaciones de Ingeniería). La función principal de EES es la resolución de un grupo de ecuaciones algebraicas; optimiza por propia cuenta, además de simplificar el trabajo al usuario mediante la identificación y agrupación automática de ecuaciones que deben ser resueltas simultáneamente. Además, el software suministra una extensa lista de estructuras útiles para el estudio y cálculo de ingeniería de propiedades termofísicas y matemáticas, por supuesto, incluye una amplia lista de propiedades suministradas para las sustancias para su completo estudio y análisis. Incluso, a pesar de las tantas características contenidas en el software, éste permite al usuario añadir sus propias funciones. El fin del proyecto de investigación fue el análisis de datos previamente recabados de un estudio termodinámico realizado con anterioridad, sobre un sistema térmico. Para ello, fue necesario la realización de varios ejemplos y ejercicios en el software de simulación EES, esto con el fin de lograr una familiarización con el mismo, así como el descubrimiento de herramientas y funciones. De manera inicial, se realizó la lectura y comprensión del Manual de Usuario de dicho software, en el cual se incluye información vital y complementaria sobre su utilización, cualidades, funciones, características, particularidades y ventajas. Incluye además ejemplos que demuestran la forma de usar el programa, así como la manera de representar los datos y resultados, darles formatos y presentación. El manual explica de manera detallada la forma de utilizar al máximo cada función incluida, muestra de manera profunda cada ventana, cada menú y submenú contenidos dentro del simulador. Desde luego, nos muestra e informa las variadas y extensas tablas de información y propiedades de los fluidos para estudio termodinámico.


CONCLUSIONES

Fue gracias a la ayuda de este software que pudo realizarse el análisis de los datos, y de esta manera ver los cambios de respuesta dinámica al realizar variaciones en las variables de entrada del sistema. Así como hacer comparaciones de los resultados para determinar el estado óptimo deseado al contrastar ventajas y desventajas entre modelos. Llegando así al modelo más eficaz en ahorro energético, satisfaciendo así una necesidad medioambiental al hacer dicho ahorro. Recordando que es parte de nuestra labor como profesionistas, ingenieros e investigadores, buscar la mejora continua de nuestro entorno sin perder de vista el objetivo del cuidado ambiental.
Velandia Escalante Jhon Sebastián, Universidad Autónoma de Manizales
Asesor: Dr. Francisco Humberto Estupiñan Lopez, Universidad Autónoma de Nuevo León

CORROSIÓN ELECTROQUÍMICA DE ALEACIONES DE TITANIO FABRICADAS POR MANUFACTURA ADITIVA: UNA REVISIÓN.


CORROSIÓN ELECTROQUÍMICA DE ALEACIONES DE TITANIO FABRICADAS POR MANUFACTURA ADITIVA: UNA REVISIÓN.

Velandia Escalante Jhon Sebastián, Universidad Autónoma de Manizales. Asesor: Dr. Francisco Humberto Estupiñan Lopez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La manufactura aditiva de piezas metálicas ha tenido un considerable crecimiento durante los últimos años debido a su capacidad de producir estructuras metálicas con alta complejidad geométrica y con formas casi totalmente densas. La fusión por haz de electrones (EBM) es una técnica basada en fusión por lecho de polvos (PBF) de manufactura aditiva el cual utiliza un haz de electrones de alta potencia en un ambiente de vacío para fundir repetidamente capas de polvo de metal pre-extendidas para producir capa por capa la pieza de acuerdo a un modelo CAD, esta técnica al usar un haz de electrones de alta potencia le permite proporcionar la energía necesaria para general una alta productividad y una alta capacidad de fusión en comparación con sus contrapartes comerciales, la atmosfera de vació y las altas temperaturas generadas en el proceso reducen considerablemente la porosidad y los esfuerzos residuales en comparación con otras técnicas de manufactura aditiva basadas en PBF como la fusión selectiva por láser, lo que le permite estimular nuevos mercados y sectores industriales, ampliando así sus campos de aplicación.   La aleación de Ti-6Al-4V en una aleación grado 5 que consta de dos fases, una fase hexagonal compacta (HCP) α y otra cúbica centrada en el cuerpo (BCC) β, esta aleación dadas sus sobresalientes propiedades mecánicas, su excelente resistencia a la corrosión y su excepcional biocompatibilidad tiene amplios campos de aplicación en la industria aeroespacial y biomédica, donde se requiere un alto nivel estructural, una buena resistencia a la fatiga y a la fluencia. EBM es la técnica de MA más utilizada para producir componentes a base de Ti debido a la alta sensibilidad de este material al oxigeno cuando las temperaturas de trabajo superan los 500°C, sin embargo, esta técnica presenta defectos inherentes como porosidad, falta de fusión de los polvos y alta rugosidad en la superficie de los componentes lo que conlleva a una falla prematura de la aleación impresa en comparación con su contraparte forjada por lo cual ese hace necesario el uso de post-tratamientos como la aplicación de presión isostática en caliente (HIP ) o procesos de electro pulido (EP ), estos procesos se aplican con el fin de mejorar las propiedades mecánicas y la resistencia a la corrosión de la aleación Ti-6Al-4V producida por EBM; por lo cual se hace necesario la caracterización del comportamiento a la corrosión de la aleación producida por EBM y así poder tener puntos de comparación entre las técnicas de AM para la producción de la aleación Ti-6Al-4V.



METODOLOGÍA

Se hizo una búsqueda electrónica de las palabras clave:  Corrosión Electroquímica, aleaciones de titanio, manufactura aditiva, Ti-6Al-4V, fusión por haz de electrones (EBM) y fusión selectiva por láser (SLM) en las bases de datos Scopus y ScienceDirect pertenecientes a Elsevier; los criterios de inclusión fueron artículos de investigación que estudiaron el comportamiento electroquímico de Ti-6Al-4V fabricada por fusión de haz de electrones y por fusión selectiva por láser  individualmente o en comparación con algunas contrapartes comerciales como la aleación Ti-6Al-4V forjada, también se incluyeron los artículos que se enfocaran en el efecto que tienen diferentes post-procesos sobre el rendimiento a la corrosión de la aleación Ti-6Al-4V fabricada por EBM y SLM  en distintos fluidos corrosivos. Los parámetros de búsqueda fueron publicaciones de artículos científicos y técnicos entre los años 2015 y 2020. Se seleccionaron un total de 13 artículos de los cuales se excluyeron 5 dado a que se enfocaban en el estudio únicamente de las propiedades mecánicas de la aleación Ti-6Al-4V o se enfocaban en el análisis de la resistencia a la corrosión de otras aleaciones de titanio o se enfocaban otras técnicas de manufactura únicamente, los resultados se basaron en un análisis descriptivo del comportamiento a la corrosión de la aleación de Ti-6Al-4V fabricada por EBM y SLM en distintos fluidos corrosivos.


CONCLUSIONES

La aleación de Ti-6Al-4V fabricada por fusión por haz de electrones (EBM) ofrece propiedades sobresalientes en cuanto a la resistencia a la corrosión y a sus propiedades mecánicas, las cuales la llevan a competir de manera equilibrada con sus contrapartes comerciales, sin embargo, dichas propiedades se pueden optimizar con tratamientos posteriores a la manufactura o modificando parámetros de proceso de la misma, por ejemplo, procesos como el electropulido, la aplicación de presión isostática en caliente o la modificación de la dirección de construcción, los cuales tienen efectos beneficiosos en la resistencia a la corrosión y en el comportamiento mecanoquímico de la aleación.  
Velasco Hernandez Ivonne, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

LEVANTAMIENTO Y CATALOGACIÓN DE VIVIENDAS VERNACULAS EN SAN PABLO ETLA, OAXACA


LEVANTAMIENTO Y CATALOGACIÓN DE VIVIENDAS VERNACULAS EN SAN PABLO ETLA, OAXACA

Salvador Alcala Karla Luz, Universidad Autónoma Benito Juárez de Oaxaca. Velasco Hernandez Ivonne, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Realizar el levantamiento de casas vernaculas en Oaxaca para conocer los sistemas constructivos en nuesto estado y principalmente en valles centrales. Se opto por comunidad de San Pablo Etla, (Etla significa: "Donde abunda el fríjol", se compone de las voces Etl: "fríjol" y Tla: "abundancia".  San Pablo en honor a los 12 apóstoles de la religión católica). Se localiza en la parte central del estado, en la región de los Valles Centrales, pertenece al distrito de Etla.



METODOLOGÍA

El adobe es un ladrillo de barro sin cocer secado el sol. Lo más importante en el momento de fabricar esta pieza es la selección de la tierra que lo compone. Algunos estudiosos del tema dicen que el sol y el viento son los mayores enemigos de los nuevos bloques, pues ambos los secan rápidamente y como consecuencia, las piezas se fisuran. Según esta teoría hay que proteger los adobes durante cinco días y después pueden apilarse durante un período de secado de treinta días. En cuanto a la materia prima, lo constituye la tierra humedecida. Dependiendo de la zona geográfica encontramos aditivos como la paja, la cal, el yeso, piedras, etc. En cuanto a su fabricación, se debe hacer sobre una base de suelo húmedo, ahí se realiza la mezcla de tierra y agua adecuada, añadiéndole los aditivos de que dispongamos como puede ser la paja. En este proceso se utilizan palas, rastrillos y los propios pies pisando el barro. Realizada la mezcla, se deposita en los moldes de madera que tienen el tamaño adecuado de la pieza. Se desmoldan y se dejan secar entre dos y tres días, protegidos de la lluvia. Los adobes permiten ser reutilizados, convirtiendo las piezas viejas en nuevo barro, gracias a la absorción de agua, volviéndola a moldear y secar. El abobe es uno de los materiales más ecológicos que poseemos. Una vez secos se limpian y se mojan antes del asentamiento para que no absorban el agua del mortero, el cual se prepara con barro y paja en forma similar a la mezcla de fabricación. La proporción en volumen de los materiales es de 1 de barro, por 1 de paja. Para saber si tenemos un buen adobe, debemos tener en cuenta que el barro adecuado posee una tonalidad amarillo - grisáceo claro. Su textura es irregular, sobre todo si se incluye paja en la mezcla. El adobe se elabora con una mezcla de un 20% de arcilla y un 80% de arena y agua, se introduce en moldes, y luego se deja secar al sol por lo general unos 25 a 30 días. Para evitar que se agriete al secar se añaden a la masa paja, caca de caballo, que sirven como armadura. Las dimensiones no son universales, pero un promedio es 35cm de largo, 7 cm de alto y 25 de ancho las juntas del adobe suelen ser con un barro más pegajoso en donde añaden piedras, para la unión entre muros se endosan los mimos adobes, sin necesidad de confinamientos, para la colocación de ventanas o puertas se colocan pretiles de madera.La obtención de los elementos del adobe es de la misma región de San Pablo Etla.La teja se adquiere de otra región de Oaxaca que es Santa Lucia del camino. Durante el verano otra de las actividades que realizamos todos los días con un horario de 10:00 am a 12:30 pm aproximadamente de lunes a viernes, fue participar en conferencias las cuales trataban de diferentes temas los cuales son: Clasificación de Materiales, Utilización de fibras deshidratadas de nopal en muretes con mortero base cal, Evaluación Física: Resistividad Eléctrica, Desempeño mecánico de mezclas de concreto hidráulico y ensayo de penetración rápida de cloruros, Antecedentes, situación actual y supervisión en obra del Concreto elaborado con Cemento Portland, Recubrimientos fotocatalíticos, Empleo de Pruebas No Destructivas en Caracterización de Materiales de Construcción, Diseño de mezclas de mortero, Diseño de mezclas  de concreto método Abrams, Estancias en el Extranjero y proyecto GRENECO, Auscultación de pavimentos en la república mexicana y bases estabilizadas con asfalto espumado, Agregados de concreto reciclado en mezclas asfálticas, Evaluación Química: Carbonatación ,Análisis de Ciclo de Vida de materiales de la construcción, Caracterización de arenas, Caracterización de gravas, Diseño de mezclas  de concreto método ACI, El calor antropogénico vehicular y su influencia en la planeación urbana, Regresión lineal por mínimos cuadrados en pruebas de laboratorio con Matlab,Corrosión, Velocidad de Pulso Ultrasónico y Ataque acelerado  en sulfato de sodio, El uso de las rocas en la construcción, materiales pétreos e ignimbritas, La influencia de las propiedades de los suelos para el diseño de Cimentaciones Offshore, Clasificación de Fragmentos de Roca y Suelos (SUCS), Análisis comparativo del Precio Unitario para un metro cúbico de Concreto, mediante los métodos ACI Vs Abrams, Caracterización de grietas en concreto presforzado, dañado por corrosión, La cal, usos y ventajas en la construcción sustentable, Control de calidad de una mezcla asfáltica en caliente, La resistividad eléctrica como parámetro de durabilidad del concreto, Caracterización y propiedades índices en arcillas, Prueba triaxial en limos, Propiedades de los agregados reciclados con dos diversos mecanismo de trituración, Diseño de mezclas por el protocolo AMAAC, Construcción con tierra. Perspectiva actual y problemáticas en los inmuebles históricos Pruebas Físico-Mecánicas en Morteros Base Cal, Proceso de clasificación de asfalto por grado PG (grado de desempeño), Estabilización con asfalto espumado. Previo a cada conferencia realizamos lecturas previas sobre el tema a exponer y posteriormente para reafirmar lo expuesto en la sesión contestamos una evaluación correspondiente.  


CONCLUSIONES

Las casas vernáculas en la actualidad ya no se conservan al cien por ciento, ya que por los años y el comportamiento de los materiales van perdiendo sus propiedades por consecuencia las requieren de una restauración, pero a falta de conocimiento las personas suelen arreglarlo con materiales mejorados (concreto, laminas galvanizadas) haciendo que se pierda el sistema constructivo original.    
Ventura Jimenez Cesar Jesus, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Simon Orozco Arias, Universidad Autónoma de Manizales

ANáLISIS COMPARATIVO DEL RENDIMIENTO DE LENGUAJES DE PROGRAMACIóN EN EL PROCESAMIENTO DE DATOS GENóMICOS DE PLANTAS


ANáLISIS COMPARATIVO DEL RENDIMIENTO DE LENGUAJES DE PROGRAMACIóN EN EL PROCESAMIENTO DE DATOS GENóMICOS DE PLANTAS

Ventura Jimenez Cesar Jesus, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Simon Orozco Arias, Universidad Autónoma de Manizales



PLANTEAMIENTO DEL PROBLEMA

Dentro de la bioinformática, los investigadores usan una gran variedad de lenguajes de programación para realizar análisis de datos de índole biológico. Entre los más usados se encuentran Bash (línea de comando de Linux), Python, R, Java, C, Perl, entre otros. Sin embargo, debido a la gran interdisciplinaridad (biología, las matemáticas e incluso medicina) que tiene esta área, es de vital importancia la facilidad de uso de estos lenguajes. Por otro lado, los datos biológicos que se analizan son de gran tamaño, por lo tanto, se requiere que estos sean eficientes. Los lenguajes de nivel alto son más útiles para los biólogos y bioinformáticos debido a que son más prácticos para programar, pero son más ineficientes en los tiempos de ejecución. Además, los lenguajes de bajo nivel son más ágiles, pero su complejidad a la hora de implementar código aumenta considerablemente. Por lo tanto, se pretende realizar un análisis del rendimiento de dos lenguajes de programación ampliamente usados en el procesamiento de datos genómicos (Bash y Python) usando datos de plantas de interés agronómico como el café, maíz e incluso caña de azúcar.  Se plantea la medición de tiempos de ejecución utilizando las mismas condiciones de hardware para encontrar si existen diferencias estadísticamente significativas entre ellos, otorgando evidencia de las características de estos lenguajes en un ambiente bioinformático. Con el fin de alcanzar este objetivo, se diseñará e implementará una nueva versión del software Inpactor, utilizando el lenguaje de programación Python junto con las librerías de Biopython, para contrastar su rendimiento con grandes volúmenes de información generados en la actualidad gracias a los avances de las tecnologías de secuenciación.



METODOLOGÍA

El proyecto fue planteado para cumplir con tres objetivos específicos, por lo tanto se proponen las siguientes actividades para lograr cada uno de ellos:   Objetivo específico 1: Diseñar e implementar la segunda versión del software Inpactor en lenguaje de programación Python.   Actividades: Analizar el software Inpactor desarrollado en Bash. Diseñar la nueva versión en lenguaje Python 3 y usando la librería Biopython. Implementar la nueva versión.    Objetivo específico 2: Determinar el rendimiento de las dos versiones de Inpactor (Bash y Python) utilizando datos de ADN de plantas.   Actividades: Obtener datos de genomas de plantas de bases de datos libres. Preparación del ambiente de ejecución. Ejecutar Inpactor versión 1 (Bash). Ejecutar Inpactor versión 2 (Python). Medir tiempos en ambos casos.   Objetivo específico 3: Analizar estadísticamente el rendimiento de las dos versiones de Inpactor.   Actividades: Realizar pruebas de distribución de datos. Realizar pruebas de diferencias significativas.


CONCLUSIONES

Durante la estancia de verano, se logró obtener conocimientos en biología molecular, principalmente sobre elementos transponibles, esto debido a que se requerían dichos conocimientos para comprender el funcionamiento del programa Inpactor. Este software tiene como función principal analizar datos genómicos de plantas, como el maíz, café, entre otras. Se realizó un primer diseño del software y se logró la implementación de las primeras dos funciones. Debido a la gran complejidad que conlleva el desarrollo de un software in bioinformática (ya que se deben tener conocimientos en áreas como biología, ciencias de la computación y matemáticas), este proyecto sigue en ejecución y se planea seguir en la implementación durante los próximos meses. La nueva versión de Inpactor se planea usar en el análisis de una gran variedad de genomas de plantas de algunos proyectos dentro del grupo del Dr. Simón Orozco Arias, con el fin de entender y conservar la biodiversidad de plantas en diferentes partes del mundo y que pueda ser utilizado por diversas personas.
Ventura Rodríguez Jose Alberto, Universidad de Guadalajara
Asesor: Ing. Jose Miguel Rodriguez Gonzalez, Tecnológico de Estudios Superiores de Valle de Bravo

DISEñO, CONSTRUCCIóN Y CONTROL DE UN INVERNADERO INTELIGENTE POR MEDIO DE CONTROLADORES LóGICOS PROGRAMABLES UTILIZANDO ENERGíA SOLAR FOTOVOLTAICA


DISEñO, CONSTRUCCIóN Y CONTROL DE UN INVERNADERO INTELIGENTE POR MEDIO DE CONTROLADORES LóGICOS PROGRAMABLES UTILIZANDO ENERGíA SOLAR FOTOVOLTAICA

Ventura Rodríguez Jose Alberto, Universidad de Guadalajara. Asesor: Ing. Jose Miguel Rodriguez Gonzalez, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

Actualmente, el mercado de los cultivos protegidos está acaparado por grandes empresas transnacionales, lo que dificulta que pequeños agricultores puedan probar los beneficios de la aplicación de estas técnicas en sus cultivos debido a los altos costos.  Es común encontrar documentación de prototipos de invernadero que podrían ser replicados por los agricultores para experimentar con sus cultivos, sin embargo, la mayoría de estos trabajos utilizan como cerebro las placas de Arduino y sus variantes, las cuales no son aptas para ambientes donde se exponen a polvo y humedad.



METODOLOGÍA

Se diseño la estructura de un invernadero de 6m2 en CAD para su posterior construcción buscando tener un prototipo más acercado a la realidad en el que se pudieran experimentar las condiciones de un invernadero. Para la simulación e implementación del programa de automatización se utilizó un módulo Siemens LOGO RC 12/24 y su entorno de programación LOGO SoftComfort. También se desarrolló en etapa de simulación un programa para el PLC Siemens S7-1200 junto con una interfaz HMI para mejorar la experiencia del usuario. El objetivo de la automatización del invernadero fue el control de la temperatura interna por medio de el riego por aspersión, manteniendo así una temperatura menor a 30 grados centígrados durante la mayor parte del día. Luego de elegir los sensores y actuadores que mejor se adaptaron al proyecto, se hizo un cálculo del consumo aparente de energía para la implementación de un sistema de almacenamiento de energía eléctrica a través de una celda solar fotovoltaica y baterías de ciclo profundo.


CONCLUSIONES

Se tomó un registro de la temperatura durante un día para calcular con base en ella el consumo de agua en el invernadero, así como para llevar un control del tiempo de trabajo de las bombas. Se presenta un proyecto replicable en el que se documenta el proceso de diseño, construcción y automatización de un invernadero. Ofrece también un recuento de los costos mostrando así un panorama general del mismo para los pequeños agricultores. Durante la estancia de investigación se generaron entregables que constan de una tesis de licenciatura y un artículo para su publicación en una revista tecnológica.
Vera Carbajal Araceli, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Mario Alberto Quijano Abril, Universidad Católica de Oriente

PROPUESTA DE RESTAURACIÓN DE SUELOS EN EL EJIDO SAN MIGUEL SULTEPEC.


PROPUESTA DE RESTAURACIÓN DE SUELOS EN EL EJIDO SAN MIGUEL SULTEPEC.

Vera Carbajal Araceli, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Mario Alberto Quijano Abril, Universidad Católica de Oriente



PLANTEAMIENTO DEL PROBLEMA

Actualmente el ejido de San Miguel Sultepec  cuenta con permiso de aprovechamiento de 10 años, el área que se pretende restaurar anteriormente fue área de corta, por lo que en la actualidad es un predio que presenta problemas de erosión y degradación del suelo.



METODOLOGÍA

Objetivos. Como  objetivo general: Proponer una propuesta de restauración para 10 ha en el  Ejido de San Miguel Sultepec y como objetivos específicos se tienen los siguientes: Implementar la metodología propuesta para la restauración ecológica y realizar  las obras y prácticas de conservación y restauración de suelos  en esta superficie.Se propone utilizar la metodología dada para la restauración ecológica, en la que se proponen 13 pasos fundamentales. Características del área a restaurar. De acuerdo a la carta topográfica de Regionalización Fisiográfica del INEGI, el Ejido San Miguel Sultepec está ubicado en la provincia Fisiográfica: X55L2M del eje Neo volcánico, su provincia Mil Cumbres, con Relieve de Lomerío de Basalto con Mesetas.La altitud promedio en el Ejido San Miguel Sultepec es de 2,150 msnm, con una gradiente altitudinal de 526 m que se inicia en la cota 1,778 hasta los 2,034 msnm, con pendientes que van del 8 al 50% con exposición noroeste. De acuerdo con la carta edafológica del INEGI (2001), los principales tipos de suelo en el predio son.Th: Andosol Húmico,To: Andosol ócrico y Hh: Feozem háplico.Las características del suelo en base a los estudios realizados en campo dictaminaron que en promedio presenta:​ Color: café obscuro. Textura: Arcillo arenoso. Estructura: Granular fuerte y adherente. Drenaje intermedio: Regular. Espesor promedio: 2m. Materia orgánica: de 20 a 50 cm. De acuerdo con la carta climática del INEGI, 2001, el clima identificado está representado de la siguiente formula: C(W2)(W).El cual se define como un clima templado subhúmedo. Propuesta de restauración. Mediante la aplicación de técnicas de recuperación y conservación de suelo y agua, manejo de vegetación y hábitat para fauna silvestre, así como reforestación, se pretende llevar a cabo la restauración de áreas sujetas a procesos de degradación y erosión, en el ejido de San Miguel Sultepec.El primer paso fue la elección de especies capaces de tolerar las condiciones de sitios severamente degradados; la elección de especies idóneas se puede hacer a través de ensayos en el campo. Ensayo de especies. Se establecerá un ensayo de especies con Pinus pseudostrobus,Pinus montezumae,Pinus teocote,Pinus leiophylla,Quercus laurina, Quercus obtusata,Quercus rugosa , Quercus crassifolia,Cupressus lindleyi.,Alnus firmifolia,Arbutus xalapensis y Clethra mexicana. Barreras vivas con maguey. Se propone introducir especies de agaves,que aunque no hay presencia en la zona por las condiciones que presentan este sitio tienen una alta probabilidad de superfivencia.De acuerdo a la CONAFOR para el Estado de México se han registrado 9 especies endémicas; de estas especies se proponen para la zona tres las cuales son: Ágave salmiana, Agave americana L y Agave angustifolia Haw. ​ Los hijuelos de maguey pueden ser recolectados al momento del establecimiento de la barrera, con al menos una altura de 25 centímetros. Se recomienda la plantación de maguey de manera lineal y con una separación de 50 centímetros, sobre la curva a nivel. El objetivo de las barreras vivas de maguey es reducir la erosión hídrica, aumentar la estabilidad del suelo y facilitar la formación de terraplenes de bordos o terrazas. Al introducir estas especies se puede garantizar que los ejidatarios que en un futuro puedan generar ingresos adicionales, ya que las tres especies que se seleccionaron se pueden utilizar   para la elaboración de textiles, la extracción de pulque, forraje,  elaboración de textiles, por su alto contenido de saponinas se le ha utilizado para elaborar jabón o para la fabricación de esteroides u otras hormonas sexuales, además de contar con propiedades medicinales. Técnica de plantación. Las especies se seleccionaron  con base en características deseable como su capacidad de sobrevivir en un sitio altamente degradado y crecer satisfactoriamente. En el experimento se tendrá que evaluar supervivencia, altura y diámetro durante el primer año hasta el séptimo año de establecimiento del ensayo. La preparación del terreno se realizará aproximadamente 20 días antes de la plantación. Se realizarán cepas de al menos 40 cm de profundidad por 40 cm de ancho y por 40 cm de largo, esta actividad se realizará simultáneamente con la plantación para evitar que las cepas sean rellenadas con tierra por el arrastre de lluvia. El espaciamiento de las plantas establecidas en la plantación será de 3 metros entre plantas y 3 metros entre líneas de plantación, pudiendo variar el espaciamiento dependiendo de la topografía del terreno y medidas del polígono. La plantación se realizará a marco real, con una densidad de 1,100 plantas por hectárea. Una vez removida la tierra para la apertura de la cepa en el centro, se coloca la planta en el orificio a una profundidad de aproximadamente 40  cm, procurando no rebasar el límite del cuello de la planta. Ya colocada la planta en la cepa, se reincorporó el suelo extraído y posteriormente se apisona alrededor de la planta para evitar bolsas de aire, esto para evitar que las raíces no se sequen al contacto con el aire.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos  de la restauración ecológica y ponerlas en práctica en una propuesta  de restauración ecológica en el Ejido de San Miguel Sultepec, sin embargo, al ser un extenso trabajo aún se encuentra en la fase de planeación y no se pueden mostrar los datos obtenidos. Se esperan  los resultados del ensayo de las especies para evaluar el porcentaje de sobrevivencia.
Vergara Flores Josué, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

SISTEMA DE DETECCIóN DE OBSTáCULOS PORTáTIL PARA PERSONAS INVIDENTES.


SISTEMA DE DETECCIóN DE OBSTáCULOS PORTáTIL PARA PERSONAS INVIDENTES.

Vergara Flores Josué, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En México se estima que hay alrededor de 407,645 personas con ceguera, de las cuales sólo 15 de cada 100 son capaces de caminar solos y de tener una vida apegada a la normalidad. Pensando en mejorar la calidad de vida de estas personas en el presente documento se describe el desarrollo de un sistema de detección de obstáculos portátil para personas invidentes con el fin de que estas sean más independientes. El sistema se caracteriza por ser cómodo, portable y de un costo accesible para la mayoría de la población. En México se estima que hay alrededor de 407,645 personas con ceguera, de las cuales sólo 15 de cada 100 son capaces de caminar solos y de tener una vida apegada a la normalidad. Pensando en mejorar la calidad de vida de estas personas en el presente documento se describe el desarrollo de un sistema de detección de obstáculos portátil para personas invidentes con el fin de que estas sean más independientes. El sistema se caracteriza por ser cómodo, portable y de un costo accesible para la mayoría de la población.



METODOLOGÍA

Se desarrolló un sistema portátil de detección de obstáculos para personas invidentes con el fin de contribuir con su movilidad y seguridad al caminar. Para alertar al usuario de obstáculos frente a él se utilizan 3 motores vibradores que a menor es la distancia entre un obstáculo y el usuario, el motor vibrara con una mayor intensidad. Software                    La recepción y filtrado de datos de los sensores se realiza promediando los últimos 5 datos medidos por los sensores, si es una distancia menor a 3.5 m para el sensor ultrasónico y 1.5 m para el sensor láser, se hace uso de la función map para hacer inversamente proporcional la distancia con el ciclo de trabajo PWM, de lo contrario se manda un  0 a la salida, finalmente se manda el ciclo de trabajo correspondiente al pin de salida, dando como resultado una percepción de menor o mayor vibración. Hardware La parte física del sistema consta de 2 sensores ultrasónicos HC-SR04 ubicados a la altura del estómago y en el tobillo respectivamente, 1 sensor láser VL53L0XV2 ubicado en la parte de la muñeca, una tarjeta Arduino Mega 2560 que se encarga de procesar y filtrar la información de los sensores, y 3 motores vibradores tipo moneda de 8 mm ubicados justo a un lado de cada sensor, que comunican por medio de la intensidad de vibración la distancia a la que se encuentra un obstáculo. El sistema se alimenta con una power bank. Los sensores ultrasónicos HC-SR04 que se ubican a la altura del estómago y en el tobillo respectivamente, se encargan de detectar grandes obstáculos como paredes, autos o personas. El sensor láser VL53L0XV2 que se sitúa en la parte de la muñeca, al ser un sensor muy preciso, pero de corto alcance se utiliza para la detección de pequeños objetos como mesas, sillas, arboles, etc.


CONCLUSIONES

Después de la implementación del software con el hadware se realizaron pruebas con la finalidad de corroborar el correcto funcionamiento del proyecto. Para ello se hizo uso de la herramienta MATLAB, implementando un código de adquisición de datos para la visualización en graficas del comportamiento de los sensores. Las gráficas obtenidas por el sistema de adquisición de datos muestran que el proyecto funciona correctamente, mientras más cerca está un obstáculo, el motor vibra con mayor frecuencia, alertando así al usuario de que tan lejos o cerca está un obstáculo. El sistema desarrollado ofrece al usuario comodidad y seguridad al caminar.
Vian Arcos Joselin, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica

ESTIMACIóN DE PRODUCTOS FINALES A TRAVéS DE REGRESIóN NO LINEAL COMO HERRAMIENTA DE TOMA DE DECISIóN EN LA PRODUCCIóN DE CARNE DE CANGREJO PRECOCIDA (CALLINECTES SAPIDUS).


ESTIMACIóN DE PRODUCTOS FINALES A TRAVéS DE REGRESIóN NO LINEAL COMO HERRAMIENTA DE TOMA DE DECISIóN EN LA PRODUCCIóN DE CARNE DE CANGREJO PRECOCIDA (CALLINECTES SAPIDUS).

Carranza Guillermo Miriam, Tecnológico de Estudios Superiores de Valle de Bravo. Palafox Méndez Marcela Guadalupe, Instituto Tecnológico Superior de Los Reyes. Vian Arcos Joselin, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica



PLANTEAMIENTO DEL PROBLEMA

El lago de Maracaibo está conectado al mar Caribe del que recibe agua salada, lo que le otorga su condición de estuario, en él habitan seis especies de cangrejos del género Callinectes, pero es C. sapidus la especie dominante en las capturas con más del 90% del total, tiene importancia económica en América, especialmente en México y en Estados Unidos, el cual es considerado como el primer productor mundial.  Una planta industrial ubicada en el occidente de Venezuela, comercializa este cangrejo en cuatro presentaciones distintas; Jumbo; Lump; Claw y Cocktail claw. Resulta difícil para la empresa precisar la cantidad final que se obtendrá de cada producto y presenta dificultades a la hora de las estimaciones de costos y tiempos tanto de producción y logística así como tiempo de vida en anaquel. Es por ello que durante el verano de investigación se trabaja con el objeto de establecer ecuaciones de predicción para cada uno de los productos de esta empresa, que permitan con suficiente antelación adelantar estimaciones sobre las necesidades antes mencionadas.



METODOLOGÍA

Para la recopilación de datos se tomaron 22 días como prueba piloto, tomando en cuenta la trazabilidad entre el producto recibido y el terminado, se garantizo la validez de las estimaciones para que ambos valores estuvieran dentro del mismo código de lote. Respecto a la selección de variables resultaron más evidentes como predictoras los kg de cangrejo recibido y el aceptado. Mediante una prueba de correlación de Pearson (r), se logró establecer que la variable independiente ideal para realizar la predicción es los kg de cangrejo aceptados. Se tabularon los datos en una hoja de cálculo electrónica, y fueron analizados con el uso de la herramienta de selección de modelo de regresión de STATGRAPHIC V.18.a través del valor del coeficiente de determinación (>R2).  La variable independiente se determina durante la recepción, lo cual permite su uso de forma oportuna para la predicción de los productos con una antelación de 12-16 horas.Los valores de relación observada entre los kg de cangrejo aceptado y los productos resultaron ser muy fuerte, positiva y altamente significativa (P<0,01). Tabla 1. Tabla 1. Ecuaciones de regresión y parámetros de bondad de ajuste Producto   Coef. de correlación (r)      Significancia JUMBO                0,99                                     ** LUMP                   0,97                                     ** CLAW                   0,98                                    ** COCKTAIL            0,99                                    ** ** Altamente significativo (P<0,01). Las ecuaciones ajustadas para la estimación de los productos se describen en la tabla 2. Tabla 2. Ecuaciones de regresión Producto                               Ecuación                         Significancia JUMBO      JUMBO=(5,011935+0,00417352*ACEPTADO)2         ** LUMP         LUMP= (1195,52+0,00401348* ACEPTADO2)           ** CLAW         CLAW= (-727,679+0,0027282* ACEPTADO2)            ** COCKTAIL  COCKTAIL= (-0,49883+0,198647* ACEPTADO )2     ** ** Altamente significativo (P<0,01). Se obtuvieron cuatro ecuaciones de regresión no lineal, pasando por ecuaciones de tipo raíz cuadrada de Y (Y = (a + b*X) 2: Jumbo), doble cuadrado (Y = sqrt(a + b*X2: Lump y Claw) y raíz cuadrada doble: Y = (a + b*sqrt(X))2: Cocktail). Todos los modelos ajustados resultaron altamente significativos (P<0,01), y con alto coeficiente de determinación (R2). Y la igualdad entre los valores observados y los valores predichos a través de las ecuaciones descritas se contrastó mediante la prueba de T de Student para muestras independientes, resultando no haber diferencia significativa. Se realizaron pruebas de normalidad para datos no censurados, optando por la prueba de Anderson-Darling (A2), una prueba muy potente estadísticamente para muestras de tamaño =< 30, ya que el tamaño muestral de los datos analizados fue de 22. Los parámetros de bondad de ajuste para las ecuaciones determinadas se pueden observar en la tabla 3. Tabla 3. Parámetros de bondad de ajuste Producto   Coef de determinación (R2)        RSSa             TSSb JUMBO                         0,98                              7,011            436,22 LUMP                            0,96                           1,450*E-8      3,347*E-9 CLAW                            0,98                           5,435*E-7     2,240*E-9 COCKTAIL                     0,95                              6,50            135,75 a. RSS: suma de cuadrados de residuales. b. TSS: suma de cuadrados totales. Los resultados obtenidos de la prueba de Anderson-Darling sugieren que los residuos obtenidos de las estimaciones realizadas no se desvían una distribución normal, de igual forma puede corroborarse que los valores de la suma de cuadrados de residuales (RSS) representa una fracción muy pequeña de la variabilidad total (TSS), lo cual consolida la habilidad de las ecuaciones descritas para explicar la variabilidad de los datos estudiados. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de estadística y ponerlos en práctica con las técnicas de análisis y el uso del programa de selección de modelos de regresión de STATGRAPHIC (V.16).  Para la selección del mejor modelo en cada producto se utilizaron como parámetros de bondad de ajuste el coeficiente de determinación (R2) y la suma de cuadrados residual (RSS). Se obtuvieron ecuaciones de regresión no lineales altamente significativas (P<0,001), que permitieron la estimación de los productos con elevados niveles de determinación (0,95-0,98 R2) y bajas sumas de cuadrados de residuales. Pruebas de t de Student verificaron la diferencia no significativa entre los valores observados y los valores estimados a través de las ecuaciones determinadas, igualmente se estableció la normalidad de la distribución de los residuales de las estimaciones. Por lo que se concluye que la técnica de regresión no lineal provee importantes elementos para la toma de decisiones oportunas en el proceso de producción de carne de cangrejo precocida.
Villa Burruel Eva Giselle, Universidad de Sonora
Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana

USO DE RESIDUOS DE CONCRETO EN LA CONSTRUCCIÓN: REVISIÓN DE ESTADO DEL ARTE.


USO DE RESIDUOS DE CONCRETO EN LA CONSTRUCCIÓN: REVISIÓN DE ESTADO DEL ARTE.

Cuevas Padilla Eva Sarahi, Instituto Tecnológico de Tepic. Villa Burruel Eva Giselle, Universidad de Sonora. Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana



PLANTEAMIENTO DEL PROBLEMA

Promover la sostenibilidad en la industria de la construcción por medio de una revisión bibliográfica del aprovechamiento de residuos de concreto.



METODOLOGÍA

Definir los objetivos de investigación Recibir capacitaciones sobre búsqueda en bases de datos, citación y conceptos técnicos Analizar cómo se estructuran y escriben los artículos de revisión de estado del arte Consulta en bases de datos y fuentes documentales primarias, especialmente artículos de revistas científicas indexadas Organización y selección de información Análisis de información recolectada Entrevistas con expertos Ejecución de seminarios sobre el tema abordado Inicio de la redacción del documento Generar interpretaciones y posturas críticas en torno al tema Culminación del documento escrito en un formato de revista o congreso técnico


CONCLUSIONES

Debido al elevado impacto ambietal de la industria de la construcción se deben promover estrategias para aportar a la sostenibilidad. Una de ellas es el aprovechamiento de residuos de construcción y demolición, especialmente, los provenientes del concreto. Estos tienen un gran potencial pues pueden ser transformados y utilizados como agregados reciclados para la producción de morteros, concretos, pavimentos o mejoramiento de suelos. De esta forma, se disminuiría la extracción de recursos naturales no renovables y la generación de gases efecto invernadero. Principales Resultados Los residuos de concreto son una opción viable como sustituto de los agregados en el concreto, donde las propiedades mecánicas se mantienen cuando se realiza una incorporación de hasta del 20%. Estos residuos pueden ser incorporados en la fabricación del cemento. Finalmente, los agregados reciclados de concreto se caracterizan por tener una elevada porosidad. Sin embargo, su textura superficial y la posibilidad de contener material cementante sin hidratar, los hacen aptos para el uso en pavimentos, morteros y concretos.
Villanueva Hernandez Lancelot Azaid, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

REALIDAD AUMENTADA EN APLICACIONES PARA ENTRETENIMIENTO


REALIDAD AUMENTADA EN APLICACIONES PARA ENTRETENIMIENTO

Villanueva Hernandez Lancelot Azaid, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

  Dentro de la informática, el investigador uso lenguajes de programación para proyectar un objeto en 3 D.  Entre los más usados se encuentran Processing. Hubo diferentes tipos de retos para calibrar la cámara, el marcador donde iba a salir nuestra imagen de realidad aumentada, conseguir el tamaño y capacidad de nuestro objeto para que sea claro desde la camara.  



METODOLOGÍA

El proyecto fue planteado para cumplir con tres objetivos específicos, por lo tanto se proponen las siguientes actividades para lograr cada uno de ellos: Objetivo específico 1: Revisión bibliográfica Actividad: Se buscará el estado del arte de las técnicas de Realidad Aumentada, así como de las formas de implementarlas, ahondando en los diferentes lenguajes y toolbox libres existentes para implementar RA y RV.   Objetivo específico 2: Diseño. Actividad: Aquí se separará en dos: por un lado, se diseñará la aplicación, considerando los toolbox y los lenguajes encontrados en la actividad 1. Por otro lado, se diseñará objetos 3D con software CAD para visualizarlos en RA.     Objetivo específico 3: Desarrollo de los módulos. Actividad: Se desarrollarán los módulos diseñados en la actividad anterior empleando los lenguajes establecidos.   Objetivo específico 4: Pruebas. Actividad:  Se comprobará la correcta funcionalidad de los módulos, así como de la comunicación entre ellos, corrigiendo lo que sea necesario.


CONCLUSIONES

Durante la estancia de verano, se logró obtener conocimientos en lenguajes de programación para el funcionamiento de aplicaciones de realidad aumentada, sobre puntos de marcadores que detecte los patrones y proyecte la imagen, debido a esto a que se requerían conocimientos para comprender el funcionamiento del programa y también de la proyeccion de imagenes tamañaos y formas.
Villaseñor Garcia Ireri Valeria, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara

MONITOREO DE ESTACIóN METEOROLóGICA MEDIANTE INTERNET DE LAS COSAS


MONITOREO DE ESTACIóN METEOROLóGICA MEDIANTE INTERNET DE LAS COSAS

Gallardo Sánchez Rubén, Instituto Tecnológico de Toluca. Morales Reyes Alam Natanael, Instituto Tecnológico de Toluca. Villaseñor Garcia Ireri Valeria, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La medición de los cambios meteorológicos ha sido cada vez más importante en los últimos años, la obtención de los datos tales como temperatura, humedad, viento, presión atmosférica, entre otros en un lugar específico es de gran utilidad en la meteorología. El desarrollo de esta estación meteorológica permitirá la medición de datos confiables para realizar una validación, manipulación y análisis de la información recolectada y esta servir como base para futuras predicciones meteorológicas. Presentamos nuestra estación de monitoreo del ambiente utilizando la Raspberry pi y Arduino Uno. Para recopilar y presentar datos medidos, desarrollamos una página web, donde el usuario podrá acceder a la plataforma para observar los datos antes recopilados.



METODOLOGÍA

Se implementó la metodología de cascada, en donde se hace un estudio de los requerimientos técnicos para dar inicio al proyecto, se definió el alcance del proyecto según con los recursos y el tiempo disponibles. Durante el análisis se desarrolló un servidor web basado en Apache2, mariadb, PHP 7.3, MySQL y PHPMyAdmin. Se midieron y registrar variables físicas como la radiación uv, temperatura, humedad, presión atmosférica, latitud y longitud. Posteriormente se diseña el sistema, tanto en cuestión de software y hardware. Base de datos, página web, la conexión y ubicación de la estación de monitoreo con los sensores y los microcontroladores.  Para el diseño electrónico se utilizó la Raspberry Pi 3 B+ y el Arduino UNO, conectados a los sensores, a la Raspberry van conectados el sensor YL-69 y el sensor BME 280 y al Arduino van conectado el modulo GPS NEO-6MV2 y el sensor ML8511. Para el diseño del sitio web se realizaron archivos .PHP, .HTML y .CSS donde se visualiza la información de la base de datos, el sitio web fue implementado también siguiendo un responsive web desing.


CONCLUSIONES

La estación meteorológica desarrollada por este equipo multidisciplinar cumple el objetivo de mostrar información en tiempo real de datos atmosféricos recolectados y procesados por un microprocesador Raspberry Pi a través de una página web responsiva en la que cualquier usuari con acceso a la red que quiera conocer en tiempo real datos meteorológicos de la zona en cuestión, lo pueda hacer. Se mejorará el sistema de respuesta, así como también se incluirán más sensores para distintas mediciones de diferentes variables atmosféricas  
Villegas Trasviña Priscila, Universidad Autónoma de Occidente
Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente

ESTUDIO DE RIESGO AMBIENTAL MEDIANTE EL USO DEL SIMULADOR ALOHA


ESTUDIO DE RIESGO AMBIENTAL MEDIANTE EL USO DEL SIMULADOR ALOHA

Ceceña Santoyo Ana Laura, Universidad Autónoma de Occidente. Villegas Trasviña Priscila, Universidad Autónoma de Occidente. Asesor: Dr. Marco Arturo Arciniega Galaviz, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El amoniaco es un gas incoloro de olor característico identificado como una sustancia química peligrosa que, en caso de ingestión, inhalación, contacto con la piel y con los ojos puede ocasionar graves consecuencias. Su exposición a niveles altos de puede producir irritación, quemaduras serias en la piel, en la boca, garganta, pulmones y ojos, mientras que su exposición a niveles muy elevados puede producir la muerte. El proyecto se origina por la necesidad de medir el área de afectación que tendría la fuga de un tanque de amoniaco en una empresa en la que se compra y almacena este producto en dos posibles escenarios con el fin de determinar la influencia de las condiciones atmosféricas en la dispersión de la sustancia química asi como identificar el impacto en la salud de las personas y medio ambiente que se encuentran en las zonas colindantes a este lugar utilizando el simulador ALOHA 2016. Las fugas de amoniaco pueden ocasionarse debido a diversos motivos entre los que destacan la formulación de planes de mantenimiento inadecuados, no monitorear rutinariamente los parámetros de operación del sistema, personal no certificado y acreditado para el manejo de la sustancia etc. Es de vital importancia conocer las medidas de control necesarias que deben aplicarse ante un accidente salvaguardar la integridad de las personas.



METODOLOGÍA

La modelación de la fuga fue realizada mediante la aplicación del simulador de eventos ALOHA 2016 versión 5.4.7. Las dos condiciones en las que se llevara a cabo la simulación son siguientes: Condición 1. Este estudio es realizado con base a las condiciones atmosféricas promedio de los meses de junio, julio y agosto. Tomando en cuenta los datos del Sistema Meteorológico Nacional (SMN) la velocidad promedio del viento de estos meses es de 15.43 km/ h, la temperatura promedio del viento es de 30.38°C. Condición 2. Este estudio es realizado con base a las condiciones atmosféricas promedio de los meses de octubre, noviembre y diciembre. Tomando en cuenta los datos del Sistema Meteorológico Nacional (SMN) la velocidad promedio del viento de estos meses es de 11.31 km/ h, la temperatura promedio del viento es de 24.90°C. Metodología utilizada en ALOHA 2016. Selección del lugar: Para determinar el área de afectación se seleccionan las coordenadas del lugar donde ocurrió la fuga las cuales son en nuestro caso 25°48´0.70´´N y 108°´58´13.94´´O en la cuidad de Los Mochis, Ahome, Sinaloa. Selección de la sustancia química: Se indica que la sustancia química que utilizaremos es el amoniaco. Información sobre las condiciones climáticas: En este caso se indica la velocidad (m/s), temperatura (°C) y humedad relativa (%) del viento en los dos posibles escenarios. Solo en este apartado cambian los datos, ya que a partir de aquí determinaremos el impacto de las condiciones atmosféricas en la dispersión del amoniaco. Selección de las características del tanque: Se selecciona la condición del tanque la cual es para ambos escenarios un tanque cilíndrico con un porcentaje de llenado es del 85% que poseen diámetro de 0.75 m, longitud de 2.26 y un volumen de 1000 L. Seleccionamos del evento: Se procede seleccionar que nuestro accidente fue de una fuga de un químico no flamable. En cuanto a la apertura del tanque es de 0.0254 m de diámetro a 0.75 m del fondo del tanque. Identificación la zona de afectación:  Tomando como base los datos anteriores en este apartado se nos señala la concentración (ppm) y distancia (m) que recorre la nube de vapor.


CONCLUSIONES

La distancia recorrida del contaminante en el primer escenario  Zona de amenaza roja: 69 m Zona de amenaza naranja: 182 m Zona de amenaza amarilla: 429 m La distancia recorrida del contaminante en el segundo escenario Zona de amenaza roja: 74 m Zona de amenaza naranja: 196 m Zona de amenaza amarilla: 461 m Diferencia de las distancias en los escenarios Zona de amenaza roja: 5 m Zona de amenaza naranja: 14 m Zona de amenaza amarilla: 32 m De acuerdo a los resultados obtenidos con el simulador Aloha 2016, los factores climáticos como la velocidad y temperatura del viento si afectan la estabilidad del amoniaco, por un lado la simulación realizada en el primer escenario con una velocidad de 15.43 km/h y una temperatura de 30.38°C presento un menor alcance en metros que el segundo escenario que contaba con una velocidad de 11.31 km/h y una temperatura de 24.90°C lo que nos arroja a que el amoniaco permanece más en el ambiente en temperaturas más bajas y con índices de viento menores. En este caso no son muy representativos los metros de diferencia ya que ambos escenarios tienen poca distancia de diferencia y afecta a las mismas zonas esto nos lleva a deducir que conforme aumente la cantidad de amoniaco liberado aumentara también la diferencia entre la distancia que recorre el contaminante llegando a ser mayor e impactar zonas diferentes.
Xicale Deaquino Rodrigo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

EXTRACCIÓN Y CLASIFICACIÓN DE DATOS PARA INTERFACES CEREBRO COMPUTADORA (BCI) MEDIANTE SEÑALES P300 Y EEG.


EXTRACCIÓN Y CLASIFICACIÓN DE DATOS PARA INTERFACES CEREBRO COMPUTADORA (BCI) MEDIANTE SEÑALES P300 Y EEG.

Díaz Avila Adriana, Instituto Politécnico Nacional. Lugo Acedo Luz Marey, Universidad Autónoma de Baja California. Xicale Deaquino Rodrigo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Existen distintos potenciales relacionados con eventos, que son respuestas electrofisiológicas estereotipadas a un estímulo internas o externas. En el artículo Comparison of Classification Methods for P300 Brain-Computer Interface on Disabled Subjects (2011) se habla de una onda en específico denominada P300, la cual consiste en un componente de señal positiva mejorada con una latencia de unos 300 ms después del inicio del estímulo que permite una comunicación. Estos eventos P300 vinculan la posibilidad de controlar una interfaz cerebro-computadora, que proporciona canales musculares de comunicación, particularmente para individuos con severos problemas neuromusculares (Krusienski et al., 2010; Manyakov et al., 2011). El objetivo principal de estas interfaces es de crear dispositivos que mejoren la calidad de vida de pacientes con deficiencias neurológicas (Krucoff et al., 2016). Estudios han demostrado que un BCI basado en eventos P300,que se entrena con una cantidad limitada de datos, puede funcionar como un dispositivo efectivo de comunicación, gracias a la posibilidad de controlar un BCI con un electro encefalograma. Para entrenar un algoritmo, hay que alimentarlo con datos registrados con un EEG al ser expuesto el sujeto a estímulos externos para registrar la onda P300 extrayendo y clasificándolos para que eventualmente la máquina lo realice autonomamente, con el objetivo de ayudar en la rehabilitación o la asistencia de una persona con lesiones neurológicas (Krusienski et al., 2010; Manyakov et al., 2011; Krucoff et al., 2016). De esta manera, nos enfocamos en encontrar los métodos de extracción y clasificación de los datos registrados en un EEG que sean más efectivos y precisos con el fin de crear BCI con mejor funcionamiento.



METODOLOGÍA

La EEG es detectada mientras a un paciente se le muestran dos tipos de eventos visuales con uno ocurriendo con menor frecuencia que el otro. Estos dos tipos de estímulos son: flecha y carita feliz. La onda P300 aparece cuando el sujeto hace el conteo del estímulo solicitado. Después estos datos serán los que alimenten al BCI; la primera fase es ingresar el EEG al BCI siendo esto una matriz de datos. Después se definirá su condición a la cual pertenece (Target o non-Target). Estudio 1. Se proporcionó un archivo de datos de una sesión de un paciente con el tipo de estímulo happy face. El modelo de entrenamiento de Machine learning se divide en una secuencia de pasos: Preprocesamiento. Se modifican los datos para ser utilizables para el resto del programa. Se le realiza un filtrado pasa-banda de 4-44 hz, se recorta el tiempo que dura cada training de 0-0.8s, se realizan los vectores que separan los impulsos target de los no target, y se hace una selección aleatoria del 80% de los datos para el entrenamiento del algoritmo, y el resto se usará para la prueba. Esta prueba no balancea los datos target y no target, para pruebas posteriores sí se balancearon. Extracción de características. Para laextracción de los datos se probaron 3 maneras distintas: promediación, decimación (factores 3 y 10) y correlación canónica. Modelos de clasificación. En este corresponde entrenar el algoritmo con los datos generados por el EEG, haciendo la clasificación de los mismos con los siguientes modelos: LDA 1, LDA 2, SWLDA, SVML, SVMG, SVMR y KNN.  Se repite 100 veces el algoritmo desde la selección del conjunto de entrenamiento de prueba, con un método de extracción de características y otro de clasificación seleccionado con el conjunto de prueba y se arrojan métricas de precisión de porcentajes mínimos, máximos, media de porcentajes y la desviación estándar de: exactitud, verdadero positivo, verdadero negativo  y falso positivo para medir el rendimiento de la combinación del modelo de extracción y el modelo de clasificación. Estudio 2. Se escogieron la mejor combinación de métodos de extracción de características y modelo de clasificación del estudio 1. Combinaciones a implementar: SVML con DEC3 y LDA2 con DEC10 usando los datos de la primera sesión del participante 8 la cual contiene los entrenamientos 4,5,6,7,8 y 9. Se graficó el comportamiento de cada entrenamiento con su respectiva combinación de método de extracción y modelo para determinar cuál entrenamiento clasifica mejor el target y el no target.


CONCLUSIONES

Para el Estudio 1, la mejor combinación fue SVML-DEC3 3 ya que para un sistema sin balanceo, se ajusta a una aproximación más pronta en la clasificación, sin embargo, para fines de procesamiento rápido no se recomienda aunque no descartamos la utilización de la combinación LDA2-DEC10 ya que de igual manera para las métricas referentes a TPR y TNR fueron altas con respecto a la clasificación y en comparación a la rapidez del procesamiento es eficaz para sistemas críticos. De acuerdo a los resultados del Estudio 1 el sistema 2 fue entrenado con las combinaciones: SVML-DEC3 y LDA2-DEC10, obteniendo lo siguiente: Al entrenar el sistema con LDA2- DEC10 en balanceo, el entrenamiento 2 favoreció con mayor eficacia la clasificación de target y no-target, teniendo las siguientes métricas: ACC: 78.5 % TPR:72% TNR:72% FPR: 28%. Lo cual significa que el sistema con el entrenamiento 2, clasificó de una manera equilibrada las dos clases de nuestro interés. De igual manera para el sistema sin balanceo usando la misma combinación favorece el entrenamiento 2 de la sesión 1 del participante 8, teniendo en cuenta un total de 6 entrenamientos en la sesión. Se observa una caída paulatina del 4% en la tasa de TPR por cada sesión que se realiza a partir del entrenamiento 2 y un incremento del 1.5%  en la métrica TNR. Entrenando el sistema con el método de extracción de características DEC3 en combinación con SVML, se obtuvo como resultado el entrenamiento 2 capaz de dar mejor clasificación entre target y no target, teniendo como diferencia principal con respecto a los demás entrenamientos una tasa alta de TPR y TNR con un porcentaje de 71% con diferencias mínimas en las dos métricas.
Yañez Valenzuela Leonardo, Instituto Tecnológico de Sonora
Asesor: Dr. Alexander de Jesus Pulido Rojano, Universidad Simón Bolivar

ANáLISIS DEL PROCESO DE ENVASADO EN PESADORAS MULTICABEZALES


ANáLISIS DEL PROCESO DE ENVASADO EN PESADORAS MULTICABEZALES

Yañez Valenzuela Leonardo, Instituto Tecnológico de Sonora. Asesor: Dr. Alexander de Jesus Pulido Rojano, Universidad Simón Bolivar



PLANTEAMIENTO DEL PROBLEMA

La industria del envasado de alimentos ha tenido un gran crecimiento debido a los avances tecnológicos. Siendo un mercado competitivo, se debe de proporcionar a los clientes productos de calidad, respetando las especificaciones que rigen las normas. El pesaje multicabezal es utilizado para la reducción de la variabilidad de los procesos y productos, permitiendo obtener la mayor aproximación posible al peso objetivo (valor nominal) en el sistema de envasado del producto. Una pesadora multicabezal consta de varias tolvas en las que se distribuye el producto, combinando el peso que más se aproxima al valor nominal en el envasado. Se pretende optimizar el proceso de envasado en pesadoras multicabezales, valiéndose del análisis de datos estadísticos, para verificar la variabilidad en el peso del paquete.



METODOLOGÍA

El análisis de datos ha sido mediante estadística descriptiva, siendo utilizadas las medidas de tendencia central y dispersión para proporcionar cifras factibles en la optimización del proceso, generando 2016 datos simulados. En el análisis estadístico, la variabilidad del proceso de envasado ha sido medida a través del coeficiente de variación del paquete (CVpaquete). Por medio de la hoja de cálculo Microsoft Excel, se obtienen los valores estadísticos para las medidas de tendencia central y dispersión. De particular interés aquí son la curtosis y el coeficiente de asimetría, las cuales pueden utilizarse para determinar si la muestra proviene de una distribución normal. Valores de estos estadísticos fuera del rango de -2 a +2 indican desviaciones significativas de la normalidad. En este caso, el valor de coeficiente de asimetría y la curtosis no se encuentran dentro del rango esperado para datos provenientes de una distribución normal. Si los datos no son normales, los resultados del análisis de datos no serán exactos. Para ello, se puede recurrir a transformar los datos, habiendo varios tipos de transformaciones, entre ellas la denominada Box-Cox. La transformación Box-Cox es un método de transformación el cual lleva a la variable a la potencia, para poder transformarla a una distribución normal. En este caso, la potencia generada por medio del paquete estadístico Statgraphics es 0.217. Al hacer la transformación del coeficiente de variación del paquete, las gráficas obtenidas por medio del paquete estadístico Statgraphics se asemejan a una distribución normal, y eso se confirma con los valores de la curtosis y el coeficiente de asimetría, los cuales se encuentran entre los rangos de -2 y 2. Al analizarse el gráfico de dispersión, el histograma, el gráfico de caja y bigotes y el gráfico de probabilidad normal, se puede apreciar que los datos muestran una distribución normal. En el gráfico de dispersión transformado, los datos se encuentran en patrones superpuestos, resultado de normalidad en la variable de estudio. El histograma permite percibir que el conjunto de datos transformados de CVpaquete se asemejan a una distribución normal. El diagrama de caja y bigotes muestra que la variable se mueve cerca de la mediana que se encuentra dentro de sus cuartiles, reduciendo los valores atípicos. En el gráfico de probabilidad, los datos se comportan como una línea recta ascendente, mostrando una distribución normal teórica.


CONCLUSIONES

Estudiando la variable CVpaquete, se han llevado los datos a la normalidad para seguir con estudios posteriores. En futuras investigaciones, se pretende analizar la variable CVpaquete con el análisis de la varianza (ANOVA), para encontrar la configuración óptima del proceso de envasado en pesadoras multicabezales, midiendo el coeficiente real del paquete. Como contribución al objetivo de desarrollo sostenible 9 (ODS 9), se ha promovido la industrialización inclusiva y sostenible, fomentando una mejora en los procesos de una máquina de producción de alimentos y aumentar la productividad.
Zamorano Romero Hector Fernando, Universidad Autónoma de Occidente
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

ESTUDIO ANTROPOMÉTRICO PARA DETERMINAR LA VARIABILIDAD DE LAS MEDIDAS CORPORALES Y DE LAS CONDICIONES AULICAS


ESTUDIO ANTROPOMÉTRICO PARA DETERMINAR LA VARIABILIDAD DE LAS MEDIDAS CORPORALES Y DE LAS CONDICIONES AULICAS

Valenzuela Moroyoqui Juan Manuel, Universidad Autónoma de Occidente. Zamorano Romero Hector Fernando, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Todo comienza con una postura mal al sentarse, muchas personas suelen sentarse de manera incorrecta encorvadas, con los pies elevados, reclinados en la silla etc. Lo cual genera graves problemas en la espalda más que nada en la columna, esto puede llegar a ser desde un ligero dolor hasta no poder caminar de manera correcta. Sentarse de manera incorrecta puede ocasionar una o más de las siguientes enfermedades. Cervicalgia Cifosis Torticolis Epicondilitis Dorsalgia   Lo que queremos lograr con esta investigación es empezar a que se lleve a cabo la postura correcta desde que es un niño hasta un adulto, para así no allá ningún tipo de problemas con su columna.



METODOLOGÍA

Investigamos en fuentes confiables de Google Academico acerca de como se deberia tomar de forma correcta las medidas antropometricas necesarias para este proyecto y acerca de las dimenciones aulicas.   Tomamos medidas a Niños de 7 años de edad con una cinta metrica en una postura parado y sentado, estas medidas nos ayudaran a detectar si la estatura de los niños es la adecuada para las butacas del salon de clases. Utilizamos la ayuda de las referencias del cuerpo humano, más especificamente el plano de Frankfurt que no ayudo a tomar la estatura y algunas otras medidas donde se necesitaba que el niño no tenga la cabeza erguida o baja ya que puede alterar los resultados de medida.   Comparamos la estatura y algunas otras medidas con respecto a la butaca para saber si sus dimenciones son las adecuadas y si se necesitara de algun cambio en las butacas. Comprobamos la altura del pizarron sea la correcta, tambien investigamos acerca de la iluminacion correcta en un salon de clases y lo aplicamos en un salon en general. La iluminacion es una parte fundamental del desarrollo educativo dentro del salon de clases, nos ayuda a ver mejor el pizarron y los apuntes.          


CONCLUSIONES

¿ENTONCES LA BUTACA ES ADECUADA PARA EL ESTUDIANTE? Primeramente, veremos la altura de la butaca, está a una altura de 45 cm (aquí tomamos la medida poplítea), la Altura del suelo a la parte posterior de la rodilla 37 cm aproximado, por lo tanto, si restamos estas medidas nos daría un total de 8 cm lo cual significa que la altura de la butaca no es ideal, pero, ¿Por qué? Esto se debe a que hay un sobrante de 8 cm, es decir, el alumno no tiene la rodilla en una posición a 90°. Lo ideal sería que la postura de las rodillas esté a 90° tocando el suelo con ambos pies, y no con los pies elevados. Una posible solución a esto pudiera ser es hacer una reingeniería tomando un percentil bajo del 5%, pero esto sería pensado solo a este grupo de alumnos de la misma edad lo cual sería sumamente costoso lo cual posiblemente no sea adecuado. Otra solución más viable podría ser la implementación de reposa pies solitarios para que los alumnos puedan tocar el suelo así la postura de la rodilla seria de 90°. Tener una postura mal al sentarse podría causar los siguientes problemas. Deformaciones en el cuello y la columna. Afecta negativamente la productividad. Problemas en las articulaciones y tendones.   ¿LA ALTURA DEL PIZARRON ES LA ADECUADA? El pizarron que se utiliza usualmente mide de largo 2.40 mts y 1.20 mts de ancho y esta a una altura de 80 centimetros del suelo al pizarron. Comparando la altura que se encuentra el pizarron es la mas optina ya que al alumno le permite tener una vista amplia desde su butaca.   ¿LA ILUMINACIÓN ES ADECUADA?   Para tener un alto rendimiento en los estudiantes es importante tomar en cuenta la iluminación en sus áreas de estudios. En el salón de clases sé cuenta con varias lámparas de luz artificial, pero también en ciertas horas se cuenta con la luz natural, pero ¿como se puede aprovechar esa luz natural?. Se tendría que ver la ubicación de las butacas, deben de estar ubicadas cerca de una fuente de luz en este caso su ubicación estarían cercas de las ventanas, pero para eso se necesitaría del uso de persianas y cortinas para evitar el deslumbramiento y la radiación directa que emite el sol. La luz artificial debe de estar ubicada en lugares ocultos de la visión directa, como en todos los casos estarían en el techo, deben de estar con una tonalidad fría o del tipo de luz de día. Para aprovechar al máximo la iluminación se tendrían que pintar la parte superior de las paredes de un color claro esto para que la iluminación sea reflejada aún mejor.   La iluminación natural se cubrirá con un porcentaje mínimo de 17.5% respecto a la superficie del terreno y la iluminación artificial deberá ser en color blanco Frío (4100º).   CONCLUSIÓN   Durante la estancia de verano se obtuvieron conocimientos acerca de la anatomía humana y los segmentos en los que se divide, a su vez aprendimos a tomar correctamente las medidas en las distintas partes del cuerpo humano y utilizarlas dependiendo el problema. Aprendimos a tener un razonamiento analítico acerca de los posibles problemas que se llevan en distintas situaciones.  
Zavala Arredondo Jesús Daniel, Instituto Tecnológico de Culiacán
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

PROTOTIPO DE SEGUIDOR SOLAR POR ARDUINO


PROTOTIPO DE SEGUIDOR SOLAR POR ARDUINO

Zavala Arredondo Jesús Daniel, Instituto Tecnológico de Culiacán. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

En lo que respecta a las energías renovables, una de las mas relevantes en la actualidad es la energía solar. Por ende, surge la necesidad de realizar un aprovechamiento optimo del recurso solar. Dada la geografía, México posee altos números de radiación solar a comparación de otros países, lo que da pie a un mayor aprovechamiento de dicho recurso. Tanto por medio de concentración solar o por medio de celdas fotovoltaicas, por ende, no aprovechar este recurso como se debe en un país el cual es beneficiado por estas características, puede ser considerado una problemática, dado por la falta de inversión o la falta de enfoque en esta misma área, considerando que cotidianamente la población no esta familiarizada con este tipo de energía. Por consecuente, la mayor problemática presentada, es la falta de aprovechamiento del recurso solar, comparándola a los otros tipos de energías, se queda atrás en inversión.



METODOLOGÍA

Para partir a realizar un seguidor solar desde cero, se opto por usar la programación por medio del Software y Hardware Arduino, concretamente la tarjeta programable Arduino Uno, en conjunto a esta placa, el cual fue la base de la sincronía entre los elementos físicos y la programación, se utilizaron dos servomotores para realizar los dos ejes del seguidor solar; un eje para el ángulo de elevación y otro para el ángulo azimutal, mas concretamente hablando, se utilizo un servomotor de la marca Tower Pro MG995 y un modelo Micro Servomotor SG90 de la misma marca. En adición, se implemento un modulo de reloj de tiempo real (RTC), con el cual se puede obtener la fecha, día, hora, minuto, segundo, etc. Para poder realizar un seguimiento autónomo e inteligente, en adición, se requirieron objetos auxiliares, tales como una fuente de voltaje independiente como principal fuente de alimentación, y como básico para el seguimiento solar, una celda fotovoltaica, sumado a componentes electrónicos menores, tales como cables de conexión, resistencias, etc. Subsecuentemente, por medio del software SolidWorks, se diseñó el modelo físico del seguidor solar, donde se realizó el acoplamiento de los materiales para su unión, mismo diseño que se imprimió por medio de la manufactura aditiva, usando como material el PLA comercial. La programación se realizó en base a los parámetros necesarios para llevar a cabo el seguimiento solar, todo se realizo por medio de la interfaz de Arduino empleando el lenguaje C++, auxiliando las respectivas librerías para el modulo RTC y los Servomotores. Para el diseño del programa, se comenzó declarando las variables de entrada, como valores float, los cuales corresponden al mes, día, hora, minuto, segundo, año, etc. Que se adjuntaron al modulo RTC, mismo el cual, continuo con la secuencia a partir de la declarada, al mismo tiempo que se declararon de entradas la latitud y longitud local, necesarias para realizar los cálculos. Y, por medio de la función loop, se agregaron las ecuaciones de interés para el calculo del vector solar: ángulo de elevación, ángulo cenit, ángulo azimut, día juliano, declinación, tiempo solar, al mismo tiempo, para agregar una mayor inteligencia a la interfaz, se tomaron el calculo de la hora de amanecer y hora de atardecer, para poder recortar el funcionamiento del seguidor en los tiempos muertos del sol. Una vez en el bloque loop, todos los valores de salida declarados se actualizaron cada segundo en función a los valores que el RTC otorga, siguiendo así con la secuencia indefinidamente, y, al mismo tiempo, se continuo a controlar los grados de los servomotores, para los cuales, el primer eje, el cual es aquel que sigue el ángulo de elevación del sol en el transcurso del día, se comenzó interpretando físicamente su posición de inicio con el grado 0, el cual, se encontraría en dicha posición hasta la hora del amanece brindada por los cálculos realizados en el mismo bloque, a partir de este punto, el ángulo del servomotor cambia en función del ángulo de elevación, que se actualiza cada segundo, y por ende, el valor del ángulo del servomotor del ángulo de elevación también es actualizado al mismo tiempo, avanzando, por teoría y practica 15 grados por hora, cuando el RTC otorgue el valor de la hora de atardecer, por medio de una sentencia if, el proceso acaba y el servomotor regresa a su posición inicial en el grado 0.  Para el caso del segundo eje, consistió en la misma metodología empelada para el ángulo de elevación, aplicado en este caso, para el ángulo azimutal, utilizando así el mismo procedimiento empleado para el primer eje. De esta manera, se completó la lógica de programación y montaje de un seguidor solar, agregando la pieza final, una célula solar fotovoltaica de 5V, la cual se soldaron dos cables tipo jumper en sus terminales positiva y negativa, para poder conectarse a un circuito aislado por una protoboard en conjunto a un sensor de corriente modelo ACS712 conectado a Arduino, y subsecuentemente a una pila para poder almacenar la corriente entregada por la célula solar.


CONCLUSIONES

Durante la estancia de verano, se considera que se logro adquirir e interpretar los temas brindados, obteniendo las herramientas básicas para el manejo del recurso solar por medio de los cálculos, en este caso, y relacionado al proyecto realizado, se emplearon las formulas del calculo del vector solar. En este caso, el trabajo se encuentra parcialmente completo, dado que se posee la estructura y la lógica de programación se realizo de manera concisa, se espera obtener datos para poder interpretar el resultado del proyecto, realizando un trabajo de campo posicionando el seguidor solar en un terreno libre donde no obstruya ningún objeto, para poder obtener los valores mas cercanos a los teóricos, al mismo tiempo, la posibilidad de obtener valores para la misma celda en el mismo día, pero una sometida al seguimiento solar, mientras que la otra permanezca estática.
Zavalza Rios Cristian, Universidad de Guadalajara
Asesor: Dr. Gerardo Núñez González, Universidad de Guadalajara

ANáLISIS DE LAS CONDICIONES QUE PUEDEN GENERAR INUNDACIONES EN ALGUNAS COLONIAS DE AUTLáN DE NAVARRO JALISCO.


ANáLISIS DE LAS CONDICIONES QUE PUEDEN GENERAR INUNDACIONES EN ALGUNAS COLONIAS DE AUTLáN DE NAVARRO JALISCO.

Zavalza Rios Cristian, Universidad de Guadalajara. Asesor: Dr. Gerardo Núñez González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El cambio de uso de suelo es un proceso inducido por el hombre. Este proceso responde principalmente a la expansión demográfica y a la explotación de los recursos naturales debido a la necesidad de satisfacer la demanda de una mayor producción de alimentos, bienes y servicios. Sin embargo, el cambio de uso de suelo puede ocasionar efectos negativos para las poblaciones. En particular, los cambios de uso de suelo pueden generar cambios en la forma como ocurren los escurrimientos superficiales y subsuperficiales, así como en la infiltración del agua en el suelo, trayendo como consecuencia avenidas rápidas e inundaciones. En este sentido, el objetivo de este trabajo consistió en analizar las condiciones que pueden generar inundaciones en algunas colonias de la ciudad de Autlán de Navarro, Jalisco.



METODOLOGÍA

Para ello se utilizó el método racional americano, así como el hidrograma triangular unitario debido a que en la zona de estudio no se cuenta con información detallada de la precipitación y de las condiciones hidrológicas de los diferentes tipos y usos de suelo presentes en el área de estudio.


CONCLUSIONES

Los resultados muestran que bajo una misma condición de tormenta el cambio de uso de suelo puede jugar un papel importante en la producción de escurrimientos ya que de una condición natural a una urbanizada el caudal producido puede llegar a duplicarse, mientras que en el caso de un incremento en la intensidad los cambios ocurridos en la producción de escurrimiento no son tan grandes. Lo anterior muestra la necesidad de tomar en cuenta los resultados de los estudios hidrológicos al momento de planear la expansión urbana de las ciudades.